ИИтоги сентября 2024 г.: реалисты против оптимистов

08.10.2024

Быть равнодушным к ИИ, кажется, не выходит решительно ни у кого из тех, кто хотя бы вскользь с ним соприкасается. От взвешенных рассуждений о сложностях дальнейшего развития генеративных моделей через весьма успешное практическое их применение уже сегодня и до восторженного ожидания светлого завтра, — спектр человеческих эмоций в отношении ИИ в наши дни чрезвычайно широк.

Нейросеть приносит пользу

Новостей о том, как те или иные ИИ галлюцинируют, дают небезопасные советы, применяются для создания дипфейков и иными способами отравляют жизнь почтеннейшей публике, — великое множество. Тем приятнее получать позитивные информационные сообщения о новых и/или заново освоенных областях применения генеративных моделей.

Например, об интегрированным со средой разработки умном чат-боте — редакторе кода Cursor, что позволяет прямо в диалоговом окне, напоминающем интерфейс Microsoft Visual Studio Code, во взаимодействии с ИИ-системой (которая может быть представлена Claude 3.5 Sonnet, GPT-4o или иными доказавшими свою применимость в кодерском деле моделями), быстро и корректно создавать достаточно изощрённые программы. Как утверждают разработчики Cursor, количество пользователей этого платного инструмента уже превышает 30 тыс., причём среди них есть представители таких перспективных ИИ-проектов, как Perplexity, Midjourney и OpenAI.

Кстати, схожие по духу разработки ведутся и в России: так, «Яндекс» именно в сентябре подала заявку на регистрацию товарного знака Yandex Code Assistant. Услуга генерации кода на базе ИИ будет, утверждает компания-разработчик, доступна «бесплатно в режиме тестирования» на платформе Yandex Cloud.

Конечно, программирование — достаточно формализованное направление человеческой деятельности; здесь за генеративными моделями бесспорное преимущество. А как насчёт творчества в более широком смысле?

И тут, как выясняется, ИИ даже в нынешнем его состоянии очень даже неплох: по крайней мере, ему удалось превзойти живых учёных в деле генерации инновационных исследовательских идей: если не оставить их далеко позади, то по крайней мере выйти на добротный экспертный уровень по целому ряду критериев. Группа из Стэнфордского университета организовала 79 специалистов в области обработки естественного языка (NLP) для того, чтобы вслепую сравнить две подборки по 49 профильных идей, одну из которых составили такие же живые эксперты, а вторую — умные боты вроде ChatGPT и Claude. В итоге статистически достоверно было продемонстрировано, что идеи, сгенерированные ИИ, оказались оценены людьми в целом выше по критериям новизны и увлекательности.

OpenAI: беспокойство о будущем

Компании, разрабатывающие ИИ-модели, не слишком часто отвлекаются на стороннюю по отношению к главной области своих интересов деятельность — прежде всего потому, что основное направление их работы требует изрядных инвестиций и привлечения множества ресурсов, так что на какую-то иную активность запала попросту не остаётся.

Отнюдь не такова OpenAI, которая после прошлогоднего скандала со снятием с поста, а затем возвращением обратно своего главы Сэма Альтмана (Sam Altman) явно и весьма деятельно диверсифицируется. Возможно, как раз потому, что в последние месяцы у её флагманских моделей семейства GPT появляются всё новые конкуренты — более привлекательные для пользователей по цене и как минимум не уступающие по эффективности. Так, в начале сентября благодаря опубликованным в тайваньских ИТ-изданиях утечкам стало известно, что OpenAI уже зарезервировала за собой часть пока что отсутствующих «1,6-нм» мощностей (техпроцесс с условным названием A16) на предприятиях TSMC — с тем, чтобы в 2026 г. изготавливать на них ИИ-чипы по собственным дизайн-проектам (которые к тому времени как раз, уточняют источники, должны быть доведены до ума).

При этом, пока тайваньские чипмейкеры работают над освоением техпроцесса 16А, Сэм Альтман не сидит без дела, — он, по информации Bloomberg, намеревается развернуть на территории США мощную инфраструктуру для обеспечения «адекватных темпов экспансии систем искусственного интеллекта» (чему именно адекватных, правда, не уточняется). Помимо собственно американских инвесторов, включая Microsoft, Apple, Nvidia и целый ряд фондов, глава OpenAI собирается привлекать к партнёрству организации из Канады, Южной Кореи, Японии и ОАЭ. Насколько эти намерения серьёзны, можно судить по обнародованным уже в конце месяца свидетельствам о настойчивых попытках Альтмана убедить уже уходящую администрацию США в необходимости покрыть всю территорию страны сетью мощных дата-центров потребляемой мощностью по 5 ГВт каждый — с целью, разумеется, обеспечить национальную безопасность государства; в основном как раз по направлению ИИ.

А ещё в структуре OpenAI появился такой необходимейший в наши дни орган, как независимое подразделение для приостановки выпуска опасных ИИ-моделей, — в него преобразовали ранее существовавший в компании «комитет по безопасности и защите». Подразделение наделено беспрецедентными полномочиями, включая право приостановки релизов ИИ-моделей по соображениям «безопасности» (что именно под ней подразумевается — вопрос особый, однако уже заявлено, что этические аспекты развития и применения генеративных моделей определённо станут объектами самого пристального внимания). Надо полагать, ситуация с внезапным обращением ChatGPT к некоторым пользователям первым, в отсутствие инициирующей диалог подсказки, оказалась одной из первых тем на повестке дня нового подразделения. Занятно, что сам Сэм Альтман в состав «стоп-команды» не входит, — хотя все члены той одновременно заседают и в совете директоров OpenAI.

Источник: 3DNews


Комментарии:

Пока комментариев нет. Станьте первым!