Владимир Бебех: «Беседы с Chat-GPT»

Владимир Бебех: «Беседы с Chat-GPT»
pixabay.com

В последнюю неделю накануне VI конференции «Информация и коммуникации в цифровую эпоху: явные и неявные воздействия» в Ханты-Мансийске, на которой планирую выступить с докладом, активно общаюсь с одной из самых продвинутых нейросетей GPT-4o компании OpenAI.

Еще лет пять назад это звучало бы сюрреалистично, а сегодня это норма. Профессиональный опыт взаимодействия с продуктами этой компании у меня уже был неоднократно и начинался с GPT-3. Именно эта программа тогда меня поддела, возможно, сама этого не подозревая.

Началось все с вопросов о Югре, о городе Сургуте. Бот отвечал достаточно оперативно, но информация была у него какая-то устаревшая. Так и хотелось воскликнуть: что же это за современная программа такая, если содержание ее ответов сопоставимо с информацией из газет начала века?!

Не добившись хотя бы малого успеха и ограничившись тем объемом справок, которым обладал искусственный интеллект (ИИ), решил сменить тему.

Мне нравятся работы французского художника Ренуара, поэтому и следующий мой вопрос касался его творчества.

Фраза, которая последовала в качестве ответа, мягко говоря, удивила, а начиналась она словами: «И хотя в городе Сургуте вы не сможете посмотреть картины Пьера Огюста Ренуара, это можно будет сделать во многих известных музеях мира, где находятся его полотна».

Первое, что стало мне понятно, — это то, что чат-бот идентифицировал через Сеть мое местоположение или, возможно, сделал это, сопоставив уже полученную информацию из моих предыдущих вопросов.

Во-вторых, определенно нейросеть не отличалась корректностью. А что я хотел? Общаюсь с сухим механизмом!

В-третьих, исходя из первых двух пунктов, интерес к GPT-3 у меня пропал. Не сложилось.

С GPT-4 общался уже поверхностно и настороженно — не прошла еще обида после первой встречи с программой, к тому же информация о потенциальном коварстве этой нейросети уже будоражила Интернет (историю, когда бот, чтобы решить задачу, прикинулся в Сети слабовидящим человеком, я рассказывал в своей предыдущей статье).

Как говорится, завязались взаимоуважительные отношения: я задавал вопросы, бот предлагал на них ответы. Ничего необычного.

Прорывом стал чат-бот GPT-4o. Он быстро отвечает, при необходимости детализирует. На некоторые вопросы попросил дополнительную информацию, а получив, дал развернутый ответ.

Теперь нейросеть — сама корректность, предлагает перейти на более узкие темы вопросов. Очевидно, что чат-бот поднаторел, получив обновления и дополнительные возможности контента — той «пищи», которую он потребляет.

Во взаимодействии с GPT-4o произошли и открытия. В частности, нейросеть признает, что способна манипулировать человеком.

Далее я привожу аргументы, которые предлагает ИИ в разговоре. Манипуляция может выражаться в подстраивании под предпочтения человека, после чего даются персональные рекомендации, в создании фейковых новостей, когда происходит манипуляция его мнением, применение психологических приемов против конкретного человека (!), побуждение людей больше времени проводить [на сайтах] и тратить больше денег.

На мой взгляд, это поднимает не только этические, но и правовые вопросы. Нам еще нужны дополнительные аргументы, чтобы в России наконец-то был принят закон, регулирующий деятельность искусственного интеллекта?!

 

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

Автовзгляд

Womanhit

Охотники.ру