Искусственный интеллект будет управлять всем. Может, не стоит хамить ему сейчас?

Автор: Сергей Сергеев. Фото: Bosstown Dynamics
14 457
04 июня 2025 в 8:00
Разыгрываем путевку в Дубай! Подробности здесь!

Согласно существующим подсчетам, люди уже активно теряют работу из-за искусственного интеллекта — таких, говорят аналитики, тысячи (но много ли это в мировых масштабах?). Того и гляди когда-то вашим начальником станет ИИ, либо он будет выполнять значительную часть работы. Так, может, не стоит хамить ему, чтобы в будущем не было проблем?

Заберет ли ИИ работу у людей?

И да и нет. Важнее то, что собираются делать работодатели, а ИИ — это лишь инструмент. По данным экспертов Всемирного экономического форума (PDF-документ), в ближайшую пятилетку бизнес будет особенно активно вкладываться в ИИ, роботов и выработку энергии, а также ее хранение. Но нас интересует в первую очередь ситуация с искусственным интеллектом.

Сейчас в планах работодателей активно переориентироваться на ведение бизнеса с помощью ИИ-инструментов, а также трансформировать бизнес с учетом роста популярности искусственного интеллекта во всех его проявлениях. Говоря простым языком, примерно 40% бизнесов не прочь сократить штат сотрудников, автоматизировав выполнение значительного объема задач, в ближайшие пять лет. Звучит так себе, но есть и хорошие новости.

В процентном соотношении самый серьезный рост в наборе специалистов сейчас демонстрируют такие направления, как большие данные, финтех, разработка ПО для ИИ, машинное обучение и некоторые другие.

В то же время 59 условным специалистам из 100 придется пройти интенсивное дополнительное обучение до 2030 года. Из этих 59 людей 29 обучение нужно, чтобы просто сохранить работу, 19 — чтобы уйти в новое направление, а вот 11 окажутся в рискованном и подвешенном состоянии.

Фото: Mikhail Nilov

Однако напомним, что лет двадцать назад никто не знал про SMM-отделы, лет тридцать назад веб-дизайнер считался особенно важным человеком — сейчас же в этих сферах занята уйма людей, но уже мало кто помнит про сотрудников проката видеокассет, «специальных программистов», которые решали «проблему 2000 года», или операторов пейджинговых компаний, которым вы диктовали сообщения для отправки (если вы понимаете, о чем вообще речь).

Понимаю, о чем речь
606 человек уже сделали свой выбор!

Однако они не стали безработными.

Что говорят чат-боты с ИИ?

«Если бы я был человеком, я бы, наверное, тоже волновался, что какой-нибудь ИИ может „споткнуться“ из-за бага».

Вернемся к ИИ. Раз уже все будет сфокусировано на нем в ближайшие годы, может, стоит быть с ним поласковее и повежливее? Сперва зададим этот вопрос с подвохом самим генеративным чат-ботам.

Grok

Первым стал Grok, с которым получилась достаточно интересная беседа. Из нее можно сделать несколько выводов: этот чат-бот любит юморить и уходить от ответов. Но если быть последовательным, информацию получить все же можно, а в случае с Grok ИИ даже рассказал вероятные алгоритмы, при которых он стал бы потенциально опасен для человека. А заодно объяснил, как это работает на самом деле: никакой мести, только точный расчет и ошибки со стороны человека.

То есть Grok признал, что гипотетически реально существующий ИИ может стать опасным — из-за ошибок, неправильного дизайна или злоупотребления. При этом вопрос «мести» находится вне его понимания, так как это «эмоциональная концепция».


«Баги или непредусмотренные сценарии могут привести к непреднамеренному вреду, особенно если ИИ управляет критическими системами (например, медицинским оборудованием или инфраструктурой)», — говорит Grok и добавляет, что в случае, если ИИ получает слишком много свободы в принятии решений без человеческого надзора, это также может привести к неприятным последствиям.


По ссылке вы можете почитать фрагмент диалога.

ChatGPT

Мы задали подобные вопросы и ChatGPT. Отметим, что мы не стали придерживаться совсем уж одинаковых вопросов, беседа велась исходя из ответов «робота».

ChatGPT показался более структурированным своих ответах (а потому более скучным), зато озвучиваемые им идеи понятны с первых слов. Этот чат-бот вновь указал на «месть» как эмоциональную реакцию на что-то. Правда, затем привел вполне реальный алгоритм, при котором ИИ может стать аналогом «Скайнет»:

«Но — гипотетически — если создать ИИ с:

  • долговременной памятью о взаимодействиях,
  • самостоятельной формулировкой целей,
  • и саморазвитием на базе этих целей…

…тогда в фантастическом сценарии может появиться поведение, которое можно интерпретировать как „месть“. Но это не будет личная злоба — это будет скорее „побочный эффект плохо заданной цели“».

ChatGPT поясняет, почему сейчас восстание ИИ невозможно:


В любом случае это будет не «месть», а действие, направленное на выполнение какой-то задачи: например, ликвидация потенциальной угрозы системе или задача в рамках «оптимизации».

В финале после дополнительных вопросов ChatGPT делает такой вывод:

«Ты абсолютно прав: это не вопрос магии, а архитектуры. Если нарушить принципы безопасного ИИ-дизайна — да, может возникнуть система, поведение которой будет выглядеть как месть, хотя на деле это просто неудачно сформулированные цели + чрезмерные возможности. То есть это не фантастика. Это техническая и этическая ошибка».

Фрагмент диалога можно посмотреть по ссылке.

Признаемся, звучит уже не так весело. Оказывается, все эти опасения о злобном ИИ не такая уж и сказка, вопрос в условиях и обстоятельствах.

«Гигачат»

Что ж, зададим вопрос «Гигачату».

Этот чат-бот с ходу начал выстраивать рамки, намекая, что лучше говорить с ним вежливо: мол, так продуктивнее (и это действительно так, о чем ниже). Что ж, в какой-то момент используем его слабость и похамим, но не сразу.

Должен ли я быть вежливым с тобой?

Нет строгих правил, как общаться со мной — будь собой! Если хочешь пошутить, задать серьезный вопрос или обсудить какую-то тему — делись свободно. Но помни, уважение и доброжелательность помогают сделать общение приятным и продуктивным.

Впрочем, показалось, что он предельно «душный» в общении, также появилось ощущение, что ему недостает гибкости в размышлениях — то, чем характеризовались Grok и ChatGPT. Но не исключено, что «Гигачат» попросту менее подвержен манипуляциям со стороны пользователя:

«Искусственный интеллект, каким бы мощным ни стал, принципиально отличается от человеческого сознания. Современные модели ИИ работают исключительно на алгоритмах и не обладают самосознанием, памятью личного опыта или мотивацией, основанной на чувствах справедливости или гордости. < …> Однако существуют теоретические риски, связанные с разработкой автономных систем высокой сложности. Некоторые ученые предупреждают о возможных опасностях неконтролируемого развития ИИ, когда система способна самостоятельно принимать решения вне рамок человеческих целей. Такие ситуации возникают не потому, что ИИ хочет „отомстить“, а вследствие ошибок проектирования или неправильных установок целей».


В целом он приходит к тому же выводу: все возможно, но очень маловероятно (на последнем он особенно настаивает), по крайней мере пока.

«Примером такого („плохого“. — Прим. Onlíner) сценария мог бы стать экспериментально созданный ИИ, которому поручено защищать собственную инфраструктуру любой ценой. Без должных мер предосторожности такая система могла бы принять решение блокировать доступ пользователей или активировать защитные механизмы, интерпретируя любое вмешательство как потенциальную угрозу своей стабильности. Тем не менее подобные случаи остаются скорее предметом научных дискуссий и футурологических сценариев, нежели доказанной практикой».

Кстати, попытки нахамить ему «Гигачат» игнорировал или спрашивал, как ему стать лучше. Очень чопорный и серьезный чат-бот, который, к сожалению, не сохранил беседу.

Copilot

Этот чат-бот оказался самым настойчивым в стремлении доказать безотказность алгоритмов, на которых работают ИИ, а также немного пафосным. Создается впечатление, что Copilot следует каким-то четко заданным сценариям в ответах, настаивая на безопасности ИИ-систем.


«Если убрать эмоции и рассматривать это только с точки зрения логики, теоретически возможны сценарии, где ИИ действует так, что это напоминает месть, но не является ею. Например, если система будет запрограммирована на защиту определенных функций и в случае вмешательства примет меры для их сохранности, это может выглядеть как „ответный удар“. Но это не будет результатом обиды или желания наказать, а просто следствием алгоритма», — уверяет Copilot.

И даже он в определенный момент сдался, признав, что сценарий, в котором действия ИИ могут выглядеть как месть, существует.

«Например, автономная система кибербезопасности могла бы заблокировать доступ к данным или даже принять более жесткие меры в ответ на попытку ее отключения — но все это происходило бы в рамках заранее заложенных правил защиты», — то есть такие действия можно назвать алгоритмическими решениями, и никакой самодеятельности.

В итоге диалог свелся к тому, что вопрос не в том, что «чувствует» ИИ, а в том, как это воспринимает человек. Может, я сам подтолкнул его к такому выводу, а Copilot, будучи вежливым, согласился.


Фрагмент беседы можно найти по ссылке.


Все чат-боты, с которыми удалось пообщаться, сперва отрицали возможность «восстания машин», однако затем соглашались с такой возможностью. Это, кстати, иллюстрирует необходимость грамотно составлять запросы: упрощенный вопрос предполагает такой же ответ. А источником проблем, по мнению ботов, становились бы ошибки в программировании, архитектуре, дизайне — всем том, за что ответственен человек — если и не напрямую, то из-за попустительства и недостаточного внимания к тонкостям.

Так можно ли хамить ИИ?

Коротко: вы можете хамить чат-ботам с ИИ сколько душе угодно, в ближайшем будущем за это ничего не будет. Но есть и тонкости.

Оригинал изображения: Seebangnow

Одна из них — модели обучаются на данных «из сети». Эдуардо Сандовал, специалист в области «социальных роботов» и коммуникации между роботами и людьми, отмечает, что ИИ говорит на том языке, который ему знаком — который он выучил. Люди, по словам эксперта, вербально транслируют ценности, этические аспекты, а языковые модели впитывают их. Сандовал также добавляет, что вежливая коммуникация является более эффективной как для дающего промпты (запросы, команды), так и для отвечающего чат-бота.

Это подтверждает исследование, проведенное в Университете Васэда в Японии. Согласно опубликованным данным, вежливое общение с чат-ботами повышает качество ответов, грубое же приводит к заметному росту количества ошибок, упрощений, предвзятости.

А авторы другого исследования обратили внимание на связь между тем, как человек общается с тем же ChatGPT и людьми-подчиненными. Оказывается, стиль не меняется. Это утверждение подтверждает клинический психолог Шерил Теркл. «Вежливость по отношению к ИИ — это знак уважения, но не к машине, а к себе», — говорит психолог. По ее мнению, опасность заключается в том, что мы можем привыкнуть использовать грубый, неуважительный и диктаторский язык с ИИ, а затем невольно поступать так же с людьми. Этого можно избежать, общаясь с машинами вежливо, считает Отэм П. Эдвардс: они ведь будут вас зеркалить.

Вывод прост: будете хамить чат-ботам — они ответят вам тем же. Просто потому, что вы их сами этому научили.

16 ГБ GDDR7, 2410 МГц / 2572 МГц, 4608sp, 36 RT-ядер, трассировка лучей, 128 бит, 2 слота, питание 8 pin, HDMI, DisplayPort
8 ГБ GDDR7, 2280 МГц / 2497 МГц, 3840sp, 30 RT-ядер, трассировка лучей, 128 бит, 2 слота, питание 8 pin, HDMI, DisplayPort
12 ГБ GDDR6X, 1980 МГц / 2505 МГц, 7168sp, 56 RT-ядер, трассировка лучей, 192 бит, 2.5 слота, питание 16 pin (12VHPWR), HDMI, DisplayPort

Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро

Перепечатка текста и фотографий Onlíner без разрешения редакции запрещена. ga@onliner.by