ИИ, возможно, не является такой страшной экзистенциальной угрозой, какой его представляют многие. Согласно новому исследованию, Большие языковые модели (LLM) могут только следовать инструкциям, не могут самостоятельно развивать новые навыки и по своей сути "управляемы, предсказуемы и безопасны", что является хорошей новостью для американских обывателей, сообщает New Atlas.
Президент Соединенных Штатов объявляет общественности, что защита нации передана новой системе искусственного интеллекта, которая контролирует весь ядерный арсенал. Одним нажатием кнопки война устарела благодаря сверхразумной машине, неспособной к ошибкам, способной освоить любой новый навык, который ей требуется, и становящейся с каждой минутой все более могущественной. Он эффективен до безошибочности.
Когда президент благодарит команду ученых, разработавших ИИ, и произносит тост за собрание высокопоставленных лиц, ИИ внезапно начинает отправлять текстовые сообщения без подсказки. Он резко выдвигает требования, за которыми следуют угрозы разрушить крупный город, если не будет немедленно оказано послушание.
Это очень похоже на кошмарные сценарии, которые мы слышим об ИИ в последние годы. Если мы ничего не предпримем (если еще не слишком поздно), ИИ спонтанно эволюционирует, обретет сознание и даст понять, что Homo Sapiens низведен до уровня домашних животных – при условии, что он не просто решит уничтожить человечество.
Странно то, что приведенная выше притча относится не к 2024 году, а к 1970-му. Это сюжет научно-фантастического триллера "Колосс: проект Форбин", в котором рассказывается о суперкомпьютере, который с удручающей легкостью завоевывает мир. Идея этой истории существует с тех пор, как в 1940-х годах были созданы первые настоящие компьютеры, и ее снова и снова рассказывают в книгах, фильмах, на телевидении и в видеоиграх.
Этого также очень серьезно опасаются некоторые из самых передовых мыслителей в области компьютерных наук почти такой же давности. Не говоря уже о том, что журналы говорили о компьютерах и опасности их захвата в 1961 году. За последние шесть десятилетий эксперты неоднократно предсказывали, что компьютеры продемонстрируют интеллект человеческого уровня в течение пяти лет и намного превысят его в течение 10.
Следует помнить, что этого не было до появления ИИ. Искусственный интеллект существует как минимум с 1960-х годов и использовался во многих областях на протяжении десятилетий. Мы склонны считать эту технологию "новой", потому что только недавно системы искусственного интеллекта, работающие с языком и изображениями, стали широко доступны. Это также примеры ИИ, которые более понятны большинству людей, чем шахматные движки, автономные системы полета или диагностические алгоритмы.
Они также вселяют страх безработицы во многих людей, которые ранее избегали угрозы автоматизации, включая журналистов.
Однако остается законный вопрос: представляет ли ИИ экзистенциальную угрозу? После более чем полувека ложных тревог, окажемся ли мы, наконец, под каблуком современного Колосса или Hal 9000? Будем ли мы подключены к Матрице?
По мнению исследователей из Университета Бата и Технического университета Дармштадта, ответ отрицательный.
В исследовании, опубликованном в рамках 62-го ежегодного собрания Ассоциации компьютерной лингвистики (ACL 2024), ИИ и, в частности, LLM, по их словам, по своей сути управляемы, предсказуемы и безопасны.
"Преобладающее мнение о том, что этот тип ИИ представляет угрозу для человечества, препятствует широкому внедрению и развитию этих технологий, а также отвлекает внимание от реальных проблем, которые требуют нашего внимания", - сказал доктор Хариш Тайяр Мадабуши, специалист по информатике из Университета Бата.
"Были опасения, что по мере того, как модели становятся все больше и больше, они смогут решать новые проблемы, которые мы в настоящее время не можем предсказать, что создает угрозу того, что эти более крупные модели могут приобрести опасные способности, включая мышление и планирование", - добавил доктор Тайяр Мадабуши. "Это вызвало много дискуссий, например, на прошлогоднем саммите по безопасности ИИ в Блетчли–парке, для которого нас попросили прокомментировать, но наше исследование показывает, что опасения, что модель уйдет и сделает что-то совершенно неожиданное, инновационное и потенциально опасное, не обоснованы.
"Озабоченность по поводу экзистенциальной угрозы, исходящей от LLM, не ограничивается неспециалистами и была выражена некоторыми ведущими исследователями ИИ по всему миру".
Когда эти модели внимательно изучаются посредством проверки их способности выполнять задачи, с которыми они раньше не сталкивались, оказывается, что большие языковые модели очень хорошо следуют инструкциям и демонстрируют владение языками. Они могут сделать это даже тогда, когда им показано всего несколько примеров, например, при ответе на вопросы о социальных ситуациях.
Чего они не могут сделать, так это выйти за рамки этих инструкций или овладеть новыми навыками без четких инструкций. LLM могут демонстрировать неожиданное поведение, но это всегда можно объяснить их программированием или инструкциями. Другими словами, они не могут эволюционировать во что-то, выходящее за рамки того, как они были созданы, поэтому никаких богоподобных машин не предвидится.
Однако команда подчеркивает, что это не означает, что ИИ вообще не представляет угрозы. Эти системы уже обладают замечательными возможностями и станут более совершенными в самом ближайшем будущем. Они обладают пугающим потенциалом манипулировать информацией, создавать фальшивые новости, совершать откровенное мошенничество, распространять ложь даже без умысла, быть использованными в качестве дешевого решения и скрывать правду.
Опасность, как всегда, исходит не от машин, а от людей, которые их программируют и управляют ими. Будь то злой умысел или некомпетентность, нам нужно беспокоиться не о компьютерах. За ними стоят люди.