«Трагедия» в океанариуме обманула миллионы пользователей TikTok. Люди не только поверили в смерть несуществующей девушки, но и начали создавать «дополнительные кадры» происшествия —  пишет « Hi-Tech_Mail.ru ».  

Дарья Арцыбашева

Автор новостей

косатки
Люди в сети поверили в сгенерированное видео Источник: Unsplash

Вирусное видео о гибели 23-летней тренерши морских животных потрясло соцсети по всему миру. Ролик показывал, как косатка внезапно нападает на девушку во время выступления в вымышленном «Тихоокеанском голубом морском парке». Пользователи массово делились записью, выражая соболезнования и требуя запретить содержание китов в неволе.

Однако расследование множественных источников выявило шокирующую правду: ни Джессики Рэдклифф, ни трагического инцидента никогда не существовало. Весь материал оказался продуктом искусственного интеллекта.

Создатели подделки проявили изощренность в деталях. Видео включало драматичные кадры «нападения», панические крики зрителей и даже псевдонаучное объяснение агрессии животного через «смешение менструальной крови с водой». Фальшивые новостные сводки утверждали, что девушка скончалась через десять минут после извлечения из бассейна.

Технические эксперты быстро обнаружили характерные признаки ИИ-генерации. Неестественные движения рук персонажей, искусственно звучащие голоса комментаторов и странная физика водных брызг выдавали компьютерное происхождение ролика. Самым явным доказательством стало отсутствие любых официальных упоминаний об инциденте в СМИ и документах служб безопасности.

Феномен приобрел неожиданное развитие. Поверившие в историю пользователи начали самостоятельно генерировать дополнительный контент. Появились «кадры с других ракурсов», «интервью со свидетелями» и даже «расследовательские материалы» о прошлых инцидентах в несуществующем океанариуме.

Специалисты объясняют успех фейков психологическим феноменом «негативного смещения». Человеческий мозг уделяет больше внимания потенциальным угрозам и трагедиям, чем позитивным событиям. Именно поэтому пользователи охотнее делятся шокирующим контентом, не проверяя его достоверность.

Случай обнажил серьезные проблемы в системах контроля контента TikTok. Несмотря на многолетние инвестиции в борьбу с дезинформацией, алгоритмы не смогли распознать ИИ-происхождение видео. Ролики продолжали набирать просмотры даже после появления опровержений.

Защитить людей от ИИ-дезинформации может маркировка сгенерированного контента. В России появится сервис специально для этого. Подробности в статье.

От qwert.uz

13 комментариев для “В сети обсуждают «нападение» косатки на пловчиху: ИИ выходит из под контроля”

Обсуждение закрыто.