Владимир Бебех: «Технологический оптимизм», или «Обоснованный страх»

Владимир Бебех: «Технологический оптимизм», или «Обоснованный страх»
freepik.com

В октябре в американских соцсетях случился переполох. Дискуссии о потенциальной угрозе человеку со стороны созданного им искусственного интеллекта (ИИ), обладающего «сознанием», заметно обострились.

Сначала бывший сотрудник OpenAI, сооснователь Anthropic Джек Кларк выступил со своим эссе на конференции Curve по безопасности ИИ в Беркли.

Это эссе было воспринято в технологичном секторе ИИ как одно из самых глубоких размышлений о природе современных систем искусственного интеллекта.

В нем Кларк высказывает «технологический оптимизм» и «обоснованный страх»: с одной стороны, ИИ очень быстро развивается, но, с другой стороны, в его лице сегодня «мы имеем дело с реальным и загадочным существом, а не с простой и предсказуемой машиной».

Явление, которое специалисты не могут объяснить, а это настораживает Кларка, — это так называемая «ситуативная осведомленность» — сложные процессы, происходящие внутри систем ИИ, которые исследователи не могут ни полностью объяснить, ни предсказать.

Говоря о новых моделях ИИ, Кларк отмечает, что современная технология сегодня больше похожа на нечто выращенное, чем на созданное. Компании выращивают чрезвычайно мощные системы, которые до конца никто не понимает.

Другая причина опасений исследователя заключается в том, что создаваемые человеком системы начнут разрабатывать своих преемников, стремящихся к самостоятельности.

Однако не все американские эксперты скептически относятся к темпам и вектору развития моделей ИИ.

Так, Дэвид Сакс, главный специалист по искусственному интеллекту и криптовалютам в Белом доме, и Джейсон Квон, директор по стратегии OpenAI, своими комментариями в группах, выступающих за безопасность ИИ, взбудоражили экспертное сообщество.

Сакс разместил пост на X*, в котором подверг критике компанию Anthropic, которая уже неоднократно выражала обеспокоенность по поводу неконтролируемого развития ИИ.

В свое время Anthropic заявляла, что бесконтрольное включение искусственного интеллекта в нашу повседневную жизнь способствует росту безработицы, киберугроз и может нанести катастрофический ущерб обществу (TechCrunch).

С точки зрения Сакса, Anthropic нагнетает страх, чтобы добиться принятия законов, которые будут выгодны ей самой. 

В своих статьях я уже рассказывал об обеспокоенности экспертного сообщества скоростью развития моделей ИИ.

В апреле 2025 года генеральный директор Anthropic Дарио Амодеи опубликовал эссе, в котором сенсационно заявил, что исследователи сегодня мало понимают внутреннюю работу ведущих в мире моделей ИИ.

А в августе текущего года поводом для обсуждения этой проблемы также послужило эссе одного из топ-менеджеров ИТ-сектора. В качестве автора, размышляющего на эту тему, выступил генеральный директор Microsoft по ИИ Мустафа Сулейман.

Напомню, Сулейман считает, что современные ИИ‑технологии вплотную подошли к созданию иллюзии сознания у новых нейросетей, и это тревожит эксперта.

В Кремниевой долине уже давно существует мнение, что любое регулирование ИИ препятствует прогрессу и мешает США конкурировать в секторе. Кроме того, сторонники свободного развития моделей искусственного интеллекта полагают, что ограничения в этом секторе не дают развиваться стартапам.

По моему мнению, обе стороны — как те, кто отстаивает необходимость контроля над ИИ и сдержанный вариант его развития (с оглядкой на безопасность), так и другие, кто считает любые ограничения по развитию систем искусственного интеллекта попыткой притормозить деятельность конкурентов, — ведут разную по стратегии, но похожую по сути деятельность на монетизацию своих моделей ИИ. 

И тем не менее, на мой взгляд, стоит прислушаться к тем экспертам, которые выступают за контроль над ИИ.

Мы продолжим следить за развитием событий в отрасли.

* — социальная сеть заблокирована в РФ.

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

...
Сегодня
...
...
...
...
Ощущается как ...

Популярно в соцсетях

Автовзгляд

Womanhit

Охотники.ру