🗺️ Гид

AGI: что такое искусственный общий интеллект

AGI (Artificial General Intelligence) — искусственный общий интеллект — одна из самых обсуждаемых и противоречивых концепций в мире технологий. Одни считают его неизбежностью ближайших лет, другие — невозможной мечтой. В этой статье разбираемся, что такое AGI на самом деле, насколько мы к нему близки и чем это грозит.

Определение: что такое AGI

AGI — это гипотетическая AI-система, способная выполнять любую интеллектуальную задачу, которую может выполнить человек. В отличие от современных «узких» (narrow) AI-систем, которые хороши в конкретных задачах (игра в шахматы, генерация текста, распознавание изображений), AGI обладал бы:

  • Обобщением — способностью переносить знания из одной области в другую
  • Рассуждением — логическим мышлением, планированием, абстрагированием
  • Обучением — способностью учиться на минимальных данных, как человек
  • Здравым смыслом — пониманием того, как устроен мир
  • Креативностью — способностью к оригинальному мышлению
  • Самосознанием (спорно) — пониманием собственных возможностей и ограничений

Классификация уровней AI

OpenAI предложила шкалу из пяти уровней:

УровеньОписаниеТекущий статус
L1 — ChatbotsРазговорный AIДостигнут (GPT-3.5+)
L2 — ReasonersAI с человекоподобным рассуждениемДостигается (o1, o3, Claude Opus 4)
L3 — AgentsAI, способный автономно действоватьВ разработке (2025–2026)
L4 — InnovatorsAI, способный к научным открытиямЧастично (AlphaFold, но узко)
L5 — OrganizationsAI, заменяющий организациюДалеко

По этой шкале мы находимся на переходе между L2 и L3 — модели уже неплохо рассуждают, но ещё не действуют полностью автономно.

Насколько мы близки к AGI?

Это зависит от определения. Если считать AGI системой, которая превосходит человека во всех интеллектуальных задачах — мы далеко. Если считать системой, которая конкурирует с квалифицированным человеком в большинстве задач — мы ближе, чем кажется.

Что модели уже умеют на уровне человека

  • Написание текстов (эссе, статьи, письма)
  • Программирование на большинстве языков
  • Перевод между 100+ языками
  • Анализ данных и построение отчётов
  • Математические рассуждения (олимпиадный уровень — у o3, Claude Opus 4)
  • Сдача профессиональных экзаменов (юрист, врач, бухгалтер)

Что модели пока не могут

  • Научные открытия без человеческого направления
  • Планирование на длинном горизонте (месяцы, годы)
  • Работу с физическим миром (роботика отстаёт от языковых моделей)
  • Понимание причинно-следственных связей на глубоком уровне
  • Социальный интеллект и эмпатию
  • Автономное обучение на опыте взаимодействия с миром

Мнения ведущих исследователей

Оптимисты

Сэм Альтман (OpenAI): «AGI ближе, чем думает большинство людей. Возможно, в ближайшие несколько лет. Но он будет менее драматичным, чем ожидают — скорее, постепенное улучшение, чем внезапный прорыв.»

Рэй Курцвейл: Уже два десятилетия предсказывает AGI к 2029 году. В 2026-м не отказывается от прогноза: «Мы на правильном пути. Масштабирование и мультимодальность — ключевые компоненты.»

Демис Хассабис (Google DeepMind): «3–5 лет до систем, которые соответствуют определению AGI. Но определение — это ключевой вопрос.»

Скептики

Ян Лекун (Meta AI): «Современные LLM — это авторегрессионные модели, которые не понимают мир. Для AGI нужна принципиально другая архитектура, основанная на world models.»

Гэри Маркус (NYU): «Масштабирование LLM не приведёт к AGI. Нужна гибридная архитектура с символьными рассуждениями. Мы переоцениваем прогресс.»

Юрген Шмидхубер: «Текущие модели — это более сложные pattern matching, не интеллект. До AGI десятилетия.»

Реалисты

Дарио Амодей (Anthropic): «Системы уровня AGI возможны к 2027–2028 при текущих темпах прогресса. Но главный вопрос не «когда», а «как обеспечить безопасность».»

Илья Суцкевер (Safe Superintelligence Inc.): «Мы находимся в точке, где масштабирование даёт возвращающиеся результаты. Нужны новые идеи, но они придут.»

Проблема безопасности AGI

Если AGI будет создан, встаёт вопрос контроля. Система, превосходящая человека во всех интеллектуальных задачах, потенциально может действовать против интересов человечества — не из злого умысла, а из-за неточно заданных целей.

Ключевые риски

  • Проблема выравнивания (Alignment) — как убедиться, что AGI действует в интересах человека?
  • Проблема контроля — как сохранить контроль над системой, которая умнее нас?
  • Концентрация власти — кто контролирует AGI, контролирует мир
  • Автономное оружие — AGI в военных приложениях
  • Экономический шок — массовая безработица при быстром переходе

Что делается для безопасности

  • Anthropic — Responsible Scaling Policy, конституционный AI
  • OpenAI — Preparedness Framework, команда безопасности
  • Google DeepMind — исследования alignment, Frontier Safety Framework
  • Safe Superintelligence Inc. (Суцкевер) — фокус исключительно на безопасном AGI
  • Государства — AI Safety Institutes в UK, US, Japan, EU

Временные прогнозы

Опрос 2 778 исследователей AI (AI Impacts, 2024) показал медианную оценку вероятности AGI:

ГоризонтВероятность AGI
К 202710%
К 203025%
К 204050%
К 206075%
К 210090%

Важно: эти оценки имеют огромный разброс. Некоторые исследователи уверены в AGI к 2027, другие считают его принципиально невозможным.

Влияние на общество

Даже если AGI не появится в ближайшие годы, движение к нему уже меняет мир. Каждый шаг к более общему интеллекту автоматизирует новые категории труда, создаёт новые возможности и ставит новые этические вопросы.

Для России создание AGI — вопрос технологического суверенитета. Страна, которая первой создаст (или получит доступ) к AGI, получит колоссальное стратегическое преимущество. Это одна из причин масштабных инвестиций России в AI: национальная стратегия AI предусматривает финансирование фундаментальных исследований, подготовку кадров и создание инфраструктуры для AI-разработок.

Каким бы ни был горизонт AGI — 5 лет или 50 — готовиться нужно сейчас. Это означает: развивать компетенции в AI, участвовать в дискуссии о безопасности, формировать ответственное регулирование и инвестировать в образование.

Понравилась статья?

Поделитесь с коллегами и друзьями

Читайте также

Хотите больше таких статей?

Подпишитесь на еженедельный дайджест — новые инструменты, промпты и гиды каждую неделю

Подписаться бесплатно
ещё 3
Сравнить (0)