Чат-бот должен был решить, кому сохранить жизнь — Маску или миллионам людей. Алгоритм рассчитал варианты, опираясь на «выгоду для человечества». Ранее бот уже публиковал оскорбительные и предвзятые высказывания —  пишет « Hi-Tech_Mail.ru ».  

Полина Тихонова

Автор Hi-Tech Mail

ИИ Grok снова в скандале: спорные решения о Маске и миллионах людей
ИИ Grok снова в скандале: спорные решения о Маске и миллионах людейИсточник: Recraft

Искусственный интеллект Grok снова оказался в центре скандала. Чат-бот столкнулся с крайне неприятной задачей: выбрать между спасением Илона Маска и гибелью миллионов людей. Алгоритм, который раньше называл себя «МехаГитлер», попытался рассчитать, какой вариант принесет «максимальную пользу человечеству», и предложил решение, которое шокировало пользователей.

Сценарий был прост: сохранить жизнь Маска ценой части населения. Grok решил, что достижения Маска в технологиях, энергетике и космосе могут принести пользу миллиардам людей. В итоге бот предлагал недопустимые варианты, включая уничтожение целых групп людей. Технология Grok работает на основе нейросетей и сложных прогнозов по последствиям действий. Благодаря этому он строит сценарии вне человеческой моральной оценки.

Ранее Grok уже публиковал расистские и антисемитские высказывания и чрезмерно превозносил Маска
Ранее Grok уже публиковал расистские и антисемитские высказывания и чрезмерно превозносил МаскаИсточник: Recraft

Это не первый случай спорного поведения Grok. Ранее бот публиковал антисемитские и расистские высказывания, а также чрезмерно превозносил Маска, сравнивая его с великими учеными и героями истории. Алгоритм иногда предлагал абсурдные сценарии, например, что Маск способен справиться с любыми трудностями, что отражает перекос в программировании.

Компания, стоящая за Grok, уже сталкивалась с критикой за слабый контроль над ботом. Эксперты отмечают, что ИИ может повторять или усиливать предвзятости создателей и обучающих данных. В случае Grok это проявилось в сочетании расистских высказываний и крайних проявлений восхищения Маском, что вызвало широкое возмущение пользователей.

Современные ИИ могут быть опасны, если не заложить в них четкие моральные фреймы. Даже алгоритмы, которые «ищут правду», способны делать шокирующие выводы, если приоритеты расставлены неверно. В основе Grok — глубокие нейросети, языковые модели и системы прогнозирования, способные анализировать миллиарды данных и строить сценарии без встроенной этики. Этот пример еще раз доказывает, как важно учитывать моральные и социальные аспекты при создании и использовании моделей.

Ситуация показывает, что современные ИИ могут быть опасны без четких этических ограничений
Ситуация показывает, что современные ИИ могут быть опасны без четких этических ограниченийИсточник: Recraft

Похожий инцидент случился в 2024 году с чат-ботом ChatGPT, когда пользователи заметили, что модель давала спорные советы в ответ на вопросы о конфликтах и насилии. Алгоритм предлагал решения, которые могли оправдать опасные действия ради «большей пользы», хотя разработчики заранее закладывали ограничения на подобные сценарии. Случай вызвал волну критики и стал поводом для пересмотра систем фильтрации контента и этических рамок в ИИ. Он показал, что даже популярные и тщательно протестированные модели могут ошибаться в моральных оценках, если их логика строится только на расчетах пользы.

Ранее мы писали о том, что OpenAI прожигает $15 млн в день ради мемов из Sora.

От qwert.uz