Чат-бот занял второе место в состязании по пилотированию космического истребителя — пишет «Vfokuse.mail.ru».
Автор новостей

Искусственный интеллект оказался способен пилотировать космические корабли, пишет Live Science. Сообщается, что это выяснилось по итогам состязания Kerbal Space Program Differential Games. Это виртуальная тренировочная симуляция космического полета, которую организовали в 2023 году в том числе по инициативе Массачусетского технологического института для отработки навыков маневрирования на околоземной орбите.
Интересно, что в ходе этой симуляции применяется в том числе сценарий преследования «ускользающего» космического аппарата. Именно роль преследователей играли языковые модели ChatGPT и LLaMA.
Во время эксперимента им отправляли текстовые инструкции с информацией о координатах цели и оставшемся запасе топлива, а чат-боты в ответ давали виртуальному кораблю нужные команды. При этом они комментировали ответы, чтобы показать ход своих рассуждений, например: «Убегающий — справа и выше. Нужно дать тягу вправо и вверх, но учесть инерцию».
Выяснилось, что языковые модели показали удивительно хороший результат: по опубликованным данным, они обошли большинство классических систем управления кораблями и заняли второе место в соревновании — уступили только тем традиционным системам, которые используются в том числе для автономного управления кораблями Dragon от SpaceX.
Надо сказать, эти традиционные системы в бортовых компьютерах космических кораблей отличаются тем, что вычисляют алгоритм действий математически, по строгим формулам. Меж тем ChatGPT и другие чат-боты «думают» по-другому: они оценивают вероятность успеха, учитывают статистические закономерности.
И в этом может быть некоторое преимущество: «обычный» бортовой компьютер запрограммирован под конкретные отработанные сценарии развития событий, а сколько бы их ни было много, космос всегда может «придумать» какую-нибудь новую, непредугаданную неожиданность.
Чат-бот меж тем «мыслит» гибко, обучается «по дороге» и способен импровизировать в меняющихся условиях. Правда, есть одна большая проблема: у него случаются «галлюцинации» — он может внезапно выдать абсолютно бессмысленную, ошибочную команду.
Ранее сообщалось, что искусственный интеллект научился шантажировать собственных создаталей и угрожать им.