В последнюю неделю накануне VI конференции «Информация и коммуникации в цифровую эпоху: явные и неявные воздействия» в Ханты-Мансийске, на которой планирую выступить с докладом, активно общаюсь с одной из самых продвинутых нейросетей GPT-4o компании OpenAI.
Еще лет пять назад это звучало бы сюрреалистично, а сегодня это норма. Профессиональный опыт взаимодействия с продуктами этой компании у меня уже был неоднократно и начинался с GPT-3. Именно эта программа тогда меня поддела, возможно, сама этого не подозревая.
Началось все с вопросов о Югре, о городе Сургуте. Бот отвечал достаточно оперативно, но информация была у него какая-то устаревшая. Так и хотелось воскликнуть: что же это за современная программа такая, если содержание ее ответов сопоставимо с информацией из газет начала века?!
Не добившись хотя бы малого успеха и ограничившись тем объемом справок, которым обладал искусственный интеллект (ИИ), решил сменить тему.
Мне нравятся работы французского художника Ренуара, поэтому и следующий мой вопрос касался его творчества.
Фраза, которая последовала в качестве ответа, мягко говоря, удивила, а начиналась она словами: «И хотя в городе Сургуте вы не сможете посмотреть картины Пьера Огюста Ренуара, это можно будет сделать во многих известных музеях мира, где находятся его полотна».
Первое, что стало мне понятно, — это то, что чат-бот идентифицировал через Сеть мое местоположение или, возможно, сделал это, сопоставив уже полученную информацию из моих предыдущих вопросов.
Во-вторых, определенно нейросеть не отличалась корректностью. А что я хотел? Общаюсь с сухим механизмом!
В-третьих, исходя из первых двух пунктов, интерес к GPT-3 у меня пропал. Не сложилось.
С GPT-4 общался уже поверхностно и настороженно — не прошла еще обида после первой встречи с программой, к тому же информация о потенциальном коварстве этой нейросети уже будоражила Интернет (историю, когда бот, чтобы решить задачу, прикинулся в Сети слабовидящим человеком, я рассказывал в своей предыдущей статье).
Как говорится, завязались взаимоуважительные отношения: я задавал вопросы, бот предлагал на них ответы. Ничего необычного.
Прорывом стал чат-бот GPT-4o. Он быстро отвечает, при необходимости детализирует. На некоторые вопросы попросил дополнительную информацию, а получив, дал развернутый ответ.
Теперь нейросеть — сама корректность, предлагает перейти на более узкие темы вопросов. Очевидно, что чат-бот поднаторел, получив обновления и дополнительные возможности контента — той «пищи», которую он потребляет.
Во взаимодействии с GPT-4o произошли и открытия. В частности, нейросеть признает, что способна манипулировать человеком.
Далее я привожу аргументы, которые предлагает ИИ в разговоре. Манипуляция может выражаться в подстраивании под предпочтения человека, после чего даются персональные рекомендации, в создании фейковых новостей, когда происходит манипуляция его мнением, применение психологических приемов против конкретного человека (!), побуждение людей больше времени проводить [на сайтах] и тратить больше денег.
На мой взгляд, это поднимает не только этические, но и правовые вопросы. Нам еще нужны дополнительные аргументы, чтобы в России наконец-то был принят закон, регулирующий деятельность искусственного интеллекта?!