ИИ перешёл черту. Люди — нет

AGI уже существует. Просто люди постоянно поднимают планку и не хотят этого признавать.


2u6mksiskqxya4auwa4ro5ef8cbp8wrn.jpg


Генеральный директор OpenAI Сэм Альтман на этой неделе заявил , что если бы в 2020 году кто-то увидел работу ChatGPT, то почти наверняка решил бы, что перед ним — полноценный искусственный интеллект, достигший уровня AGI (Artificial General Intelligence). Выступление состоялось на конференции в Сан-Франциско, где Альтман участвовал в дружеской беседе с главой Snowflake Шридхаром Рамасвами и инвестором в ИИ-компании Сарой Гуо.

По словам Альтмана, перед релизом GPT-3 в июне 2020 года мир ещё не видел по-настоящему эффективной языковой модели. Поэтому если бы тогда кому-то показали нынешнюю версию ChatGPT — даже без Codex и других продуктов — восприятие технологии было бы совершенно иным. Он уверен, что большинство людей в тот момент приняли бы ChatGPT за доказательство существования AGI.

Альтман указал, что человечество довольно быстро адаптирует свои ожидания: когда появляется что-то революционное, это быстро становится «нормой». Он подчеркнул, что термин «AGI» на деле размытый и по-разному трактуется разными людьми, но суть не в нём, а в темпах прогресса. По его оценке, ускорение развития моделей, наблюдаемое последние пять лет, продолжится как минимум ещё столько же, а скорее всего — и дольше.

Он также допустил, что, возможно, вопрос о достижении AGI вообще может решаться не научным консенсусом, а общественным мнением . Такой подход вызвал неоднозначную реакцию, особенно с учётом того, как в США наука порой сталкивается с дефицитом доверия. В этом контексте получается, что если большинство сочтёт ИИ разумным — значит, он разумный, даже если учёные думают иначе.

Тем не менее, по мнению Альтмана, одним из возможных критериев для признания системы AGI может быть способность автономно открывать научные знания или, по крайней мере, резко ускорять научный прогресс — например, в четыре раза. Если ИИ позволит человечеству в разы увеличить темп открытия новых знаний, это вполне соответствовало бы любой здравой дефиниции AGI.

Когда его спросили, что бы он сделал, имея в распоряжении в тысячу раз больше вычислительных мощностей, Альтман предложил довольно прямолинейный ответ: поручить ИИ заняться созданием ещё более мощных моделей, а затем спросить у этих моделей, как лучше распорядиться всей этой вычислительной мощью.

С ним согласился и глава Snowflake Шридхар Рамасвами, но добавил, что столь масштабные вычисления могли бы пригодиться и за пределами IT — например, в биомедицине. Он упомянул проект RNome, который изучает РНК и её роль в регуляции белков в организме. Это направление напоминает проект по секвенированию ДНК двадцатилетней давности, но теперь фокус смещён на экспрессию РНК — именно она, по мнению Рамасвами, может стать ключом к пониманию и лечению множества болезней.

Конечно, возможность использовать в тысячу раз больше мощности неизбежно поднимает вопросы: хватит ли человечеству энергии на это? Насколько вырастут выбросы углерода? Но в духе лёгкого сарказма, пронизывавшего всю дискуссию, можно предположить, что гипотетически сверхразумный ИИ и с климатом справится — ну или, по крайней мере, создаст иллюзию того, что справился, если большинство в это поверит.