Компания SSI разрабатывает искусственный суперинтеллект, превосходящий человека

11.09.2024

Илья Суцкевер, бывший главный научный сотрудник OpenAI, основал новую компанию под названием Safe Superintelligence (SSI), целью которой является разработка безопасных систем искусственного интеллекта, значительно превосходящих человеческие возможности.

Сегодня мало кто знает, чем будет заниматься компания SSI. Но авторитет Ильи Суцкевера и уже привлеченными значительные средства (1 миллиард долларов) говорят о том, что планы у компании самые серьезные. Создаст ли она суперинтеллект, превосходящий человека? Это непонятно. Но даже если это не получится, такой опыт будет важным шагом в развитии ИИ.

Суцкевер и его соучредители рассказали о своих планах в интервью Reuters. 37-летний Суцкевер является одним из самых влиятельных разработчиков в области ИИ. Он учился у Джеффри Хинтона, известного как «крестный отец ИИ». Суцкевер был одним из первых сторонников масштабирования — идеи о том, что производительность ИИ повышается при увеличении вычислительных мощностей, — что заложило основу для таких достижений генеративного ИИ, как ChatGPT. По его словам, SSI будет подходить к масштабированию иначе, чем OpenAI.

Reuters приводит главные идеи, высказанные Суцкевером.

Обоснование создания SSI

«Мы обнаружили гору, которая немного отличается от того, над чем я работал. Как только вы подниметесь на вершину этой горы, парадигма изменится. Все, что мы знаем об ИИ, тоже изменится. Сейчас начнется самая важная работа по обеспечению безопасности суперинтеллекта. Нашим первым продуктом будет безопасный суперинтеллект».

Что принесет суперинтеллект

«Я думаю, вопрос в том, безопасен ли он? Является ли он силой добра в мире? Я думаю, что мир так сильно изменится, когда мы дойдем до этого момента, что предложить окончательный план того, что мы будем делать после, довольно сложно». 

Кто понять безопасен ли ИИ

«Ответ на этот вопрос потребует от нас проведения значительных исследований. Многие люди задумываются о том, что будет, когда ИИ станет более мощным, какие шаги нужно будет предпринять и какие тесты делать. Предстоит провести множество исследований. Я не хочу говорить, что у нас есть окончательные ответы. Но это одна из тех вещей, которые мы выясним». 

О гипотезе масштабирования и безопасности ИИ
«Многие говорят о "масштабировании". При этом все забывают спросить, что мы масштабируем? Великий прорыв глубокого обучения за последнее десятилетие — это конкретная формула гипотезы масштабирования. Но она будет меняться. И по мере того как она будет меняться, возможности системы будут расти. Вопрос безопасности станет самым острым, и именно его нам нужно будет решить». 

Об открытости исследований SSI

«На данный момент компании, занимающиеся разработкой искусственного интеллекта, как правило, не выкладывают в открытый доступ свои основные работы. То же самое касается и нас. Но я думаю, что будет много возможностей для открытого доступа к соответствующим работам по обеспечению безопасности суперинтеллекта. Возможно, не все, но некоторые точно». 

О научно-исследовательских работах других ИИ-компаний в области безопасности

«На самом деле я очень высокого мнения об этой отрасли. Я думаю, что по мере того, как ИИ будет прогрессировать, все компании будут осознавать — возможно, в разное время — характер стоящей перед ними задачи. Мы не говорим, что никто другой не сможет этого сделать, мы говорим, что можем внести свой вклад».

Компания SSI объявила о привлечении 1 миллиарда долларов при оценке компании в 5 миллиардов долларов. В компания в настоящее время работают 10 человек. Компания планирует использовать полученные средства для приобретения вычислительных мощностей и найма лучших специалистов. Она сосредоточится на создании небольшой команды исследователей и инженеров, пользующихся высоким доверием, которая будет распределена между Пало-Альто, Калифорния, и Тель-Авивом, Израиль.

Источник: Techinsider


Комментарии:

Пока комментариев нет. Станьте первым!