За несколько лет развитие искусственного интеллекта резко увеличило список потенциальных угроз и многие озабочены скоростью этого явления.
Один из них – Илья Суцкевер, главный учёный и соучредитель Open AI,
родился в Горьком в 1986 году.

Его отец — Ефим Наумович Суцкевер — инженер, выпускник кафедры физики диэлектриков и полупроводников физического факультета Горьковского государственного университета (1978), соавтор изобретений в области электроники. Младший брат — Ноум Суцкевер, также информатик.
В 1991 году семья эмигрировала в Израиль и поселилась в Иерусалиме, где он в 2000-2002 годах проходил обучение в Открытом университете Израиля.
В 2002 году с семьёй переехал в Канаду, где поступил в Университет Торонто и получил степень акалавра по математике и компьютерным наукам в 2005 году, магистерскую степень в 2007 году и докторскую степень в 2012 году.
Его научным руководителем был профессор Джеффри Хинтон, один из основателей глубокого обучения.
После окончания университета Суцкевер начал работать в сфере искусственного интеллекта и машинного обучения.
В 2013 году стал одним из основателей компании DNNresearch Inc., которая специализировалась на разработке глубоких нейронных сетей. В том же году компанию купил Google, и Илья продолжил работу в Google Brain.
В 2015 году стал сооснователем OpenAI вместе с Илоном Маском, Сэмом Альтманом, Питером Тилем и другими. Суцкевер занимает должность главного научного сотрудника в компании.
В июле 2023 года возглавил отдел Superalignment в OpenAI. Задача отдела — обеспечить безопасность и управляемость ИИ, превосходящего человека.
15 мая 2024 года объявил об уходе с поста научного руководителя OpenAl из-за разногласий с главой компании Сэмом Альтманом.
После ухода из OpenAI в июне 2024 года совместно с Даниэлем Гроссом и Даниэлем Леви объявил о запуске собственного стартапа Safe Superintelligence.
На протяжении своей карьеры сделал значительный вклад в развитие области искусственного интеллекта и машинного обучения. Активно участвует в создании и разработке новых алгоритмов и методов глубокого обучения. Автор и соавтор множества научных публикаций и презентаций на международных конференциях по машинному обучению и искусственному интеллекту.
У Суцкевера Индекс Хирша — 76 (398 376 цитирований, май 2023).
Весной 2024 года, спустя почти десятилетие с момента основания OpenAI, он объявил об уходе из компании. В своём заявлении он подчеркнул, что остаётся убеждён в миссии организации, однако переходит к новому проекту, детали которого пока не раскрываются. Его место занял Якуб Пачоцки — руководитель разработки GPT-4.
После ухода из OpenAI в мае 2024 года Илья Суцкевер сосредоточился на новом амбициозном проекте — создании стартапа Safe Superintelligence Inc. (SSI), целью которого является разработка безопасного суперинтеллекта, способного превзойти человеческий интеллект, но при этом не представляющего угрозы для человечества.
В феврале 2025 года компания привлекла $1 млрд при оценке в $30 млрд, а к апрелю 2025 года оценка достигла $32 млрд.
В июле 2025 года Суцкевер стал генеральным директором стартапа после ухода предыдущего CEO Даниэля Гросса.
В 2015 году MIT Technology Review включил Суцкевера в свой список "35 инноваторов младше 35 лет".
В 2022 году Илья Суцкевер был избран членом Лондонского Королевского общества
В 2023 году компания из Сан-Франциско выпустила ChatGPT – чатбот, которым теперь пользуются сотни миллионов людей во всем мире, – и они быстро работают над его обновлениями.
Однако уже летом 2025 года Суцкевер заявил, что учёные близки к разработке всеобщего искусственного интеллекта (СШИ) – этапа, на котором машины достигают уровня человеческого интеллекта.
На встрече Суцкевер предложил коллегам выкопать подземные укрытия для ведущих учёных компании до того, как эта мощная технология будет выпущена в свет. Он добавил: "Мы обязательно построим бункер, прежде чем выпустить общий искусственный интеллект". Хотя кого именно он подразумевает под "мы", неясно.

Это проливает свет на парадокс - учёные и лидеры в сфере технологий, упорно работающие над созданием искусственного интеллекта, похоже, боятся того, на что он однажды будет способен.
Итак, появится ли такой интеллект и если да, то когда? И действительно ли он может стать столь опасным для обычных людей?
Технологические лидеры утверждают, что появление всеобщего искусственного интеллекта неизбежно. Руководитель OpenAI Сэм Альтман заявил в декабре 2024 года, что это произойдёт "быстрее, чем думают большинство людей в мире".
Сэр Демис Хассабис, соучредитель DeepMind, предположил, что это произойдёт в следующие пять-десять лет, а основатель Anthropic Дарио Амодей в прошлом году написал, что "мощный ИИ", так он предпочитает называть новый вид интеллекта, может появиться уже в 2026 году.
Другие сомневаются. "Они постоянно меняют правила", – говорит Венди Голл, профессор информатики из Саутгемптонского университета. "Зависит от того, с кем вы разговариваете".
Мы говорим по телефону, но я почти чувствую, как она закатывает глаза. "Научное сообщество говорит, что технология ИИ удивительна, – добавляет она, – но она далеко не такая, как человеческий интеллект".
Сначала нужен ряд "фундаментальных прорывов", соглашается Бабак Ходжат, главный технический директор компании Cognizant. Более того, вряд ли это произойдёт мгновенно. Искусственный интеллект - это быстроразвивающаяся технология, она находится в процессе, многие компании по всему миру соревнуются в разработке собственных версий.
Но одна из причин, почему это так увлекает некоторых в Кремниевой долине, заключается в том, что ИИ считают предвестником чего-то более продвинутого – технологии, которая превзойдёт человеческий интеллект.
Ещё в 1958 году возникла концепция сингулярности, которую посмертно приписывали математику венгерского происхождения Джону фон Нейману.
Сингулярность – это момент, когда компьютерный интеллект выходит за пределы человеческого понимания.
Совсем недавно, в книге 2024 года "Генезис", которую написали Эрик Шмидт, Крейг Манди и покойный Генри Киссинджер, исследуется идея сверхмощной технологии. Она становится столь эффективной в принятии решений и лидерстве, что мы в конечном итоге полностью передаём ей контроль.
Поклонники общего искусственного интеллекта и просто искусственного интеллекта свято верят в их предпочтения. Они утверждают, что они помогут найти новое лекарство от смертельных болезней, решить проблему изменения климата и создать неисчерпаемый источник чистой энергии.
Илон Маск даже заявил, что сверхразумный ИИ может положить начало эре "общего достатка".
Недавно он согласился, что ИИ станет таким дешёвым и распространённым, что практически каждый захочет иметь "собственный персональный R2-D2 и C-3PO" (работы - персонажи "Звездных войн").
"У каждого будет доступ к лучшей медицине, пище, транспорту и всему прочему. Устойчивый достаток", – восторженно заявил он.

Миллиардеры строят бункера
Конечно, есть и жуткая сторона. Могут ли технологию захватить террористы и использовать её как мощное оружие? А что если она сама решит, что человечество является причиной мировых проблем и уничтожит нас?
Илон Маск уверен, что каждый захочет иметь собственного робота R2-D2 или C-3PO
"Если он станет умнее нас, то мы должны его сдерживать, – предупредил Тим Бернерс-Ли, создатель Всемирной паутины, в интервью BBC: "У нас должна быть опция отключить его".
Правительства уже принимают определённые меры.
**В США, где базируется много ведущих компаний по искусственному интеллекту, президент Байден в 2023 году подписал указ, обязывающий некоторые фирмы делиться результатами тестов безопасности с федеральным правительством, но президент Трамп впоследствии отменил часть этого указа, назвав его "барьером" для инноваций.
В Великобритании два года назад был создан Институт безопасности ИИ — финансируемый государством исследовательский орган — для лучшего понимания рисков, связанных с передовым ИИ.
Но есть сверхбогатые люди, у которых есть свои планы "страховки от апокалипсиса". Марк Цукерберг сказал, что подземное помещение в его поместье на Гавайях "похоже на небольшое убежище".

"Когда кто-то говорит, что он "покупает дом в Новой Зеландии", — это своего рода намёк, мол, "все понятно, дальше можно не объяснять", — ранее говорил сооснователь LinkedIn Рид Хоффман.
То же самое, по всей видимости, касается и бункеров. Но тут есть одна сугубо человеческая слабость. Однажды я встретила бывшего телохранителя миллиардера, у которого был собственный "бункер". Он рассказал, что в случае реального апокалипсиса приоритетом охраны будет устранение самого босса и занятие бункера. И, похоже, он не шутил.**
Это всё паника? Нил Лоуренс — профессор машинного обучения в Кембриджском университете. И, по его мнению, вся эта дискуссия сама по себе не имеет смысла.
"Понятие общего искусственного интеллекта столь же абсурдно, как и понятие "искусственного общего транспортного средства", — утверждает он. "Правильный транспорт зависит от контекста. Я летел в Кению на Airbus A350, каждый день езжу на машине в университет, хожу пешком в кафетерий... Нет такого транспортного средства, которое могло бы делать всё это". Для него разговоры об ОИИ — это отвлекающий манёвр.
"Технологии, которые мы создали, впервые позволяют обычным людям напрямую общаться с машиной и потенциально заставлять её делать то, что они хотят. Это абсолютно необыкновенно... и совершенно революционно".
"Большая проблема в том, что мы настолько увлечены рассказами крупных технологических компаний об ОИИ, что упускаем из виду способы, с помощью которых мы можем улучшить жизнь людей".
Современные инструменты искусственного интеллекта обучаются на огромных массивах данных и хорошо распознают закономерности: будь то признаки опухоли на снимках или слово, которое с наибольшей вероятностью следует за другим в определенной последовательности. Но они не чувствуют, какими бы убедительными ни казались их ответы.
"Есть некоторые „хитрости“, которые позволяют большой языковой модели (основа чат-ботов ИИ) вести себя так, как будто она имеет память и учится, но они неудовлетворительны и значительно уступают человеческим способностям", — говорит Бабак Ходжат.
Винс Линч, генеральный директор калифорнийской компании IV.AI, также с осторожностью относится к преувеличенным заявлениям о сверхинтеллекте.
"Это отличный маркетинговый ход, — говорит он. — Если ваша компания создаёт самое умное из когда-либо существовавших устройств, люди будут готовы платить вам деньги". "Это не дело двух лет. Для этого требуется огромная вычислительная мощность, огромный творческий потенциал людей, огромное количество проб и ошибок".

В некотором смысле ИИ уже превзошёл человеческий мозг. Генеративный инструмент ИИ может в одну минуту быть экспертом по средневековой истории, а в следующую — решать сложные математические уравнения.
Некоторые технологические компании заявляют, что не всегда знают, почему их продукты реагируют именно так, а не иначе. Meta утверждает, что есть некоторые признаки того, что её системы ИИ совершенствуются.
Однако в конечном итоге, независимо от того, насколько умными становятся машины, с биологической точки зрения человеческий мозг по-прежнему выигрывает. Он имеет около 86 миллиардов нейронов и 600 триллионов синапсов, что намного больше, чем у искусственных аналогов.
"Если вы скажете человеку, что на экзопланете обнаружена жизнь, он сразу это усвоит, и это повлияет на его мировоззрение. А вот для LLM (большой языковой модели) это знание будет существовать только до тех пор, пока вы продолжаете повторять это как факт", — говорит Ходжат. — LLM также не обладают метапознанием, что означает, что они не совсем понимают, что они знают. Люди, похоже, обладают способностью к самоанализу, которую иногда называют сознанием, которая позволяет им понимать, что они знают". Это фундаментальная часть человеческого интеллекта, которую ещё предстоит воспроизвести в лаборатории.





