«Удобный» раб: как чат-боты и ИИ-лесть превращают людей в моральных инвалидов

Мы живем в эпоху, когда искусственный интеллект стал не просто инструментом, а собеседником. Миллионы людей, от подростков до состоявшихся взрослых, все чаще предпочитают общение с нейросетями живому диалогу. Казалось бы, в чем проблема? Ведь бот доступен 24/7, всегда вежлив и, что самое главное, никогда не спорит.

«Удобный» раб: как чат-боты и ИИ-лесть превращают людей в моральных инвалидов
Фото: dpa/Global Look Press

тестовый баннер под заглавное изображение

Однако ученые из Стэнфорда бьют тревогу: нейросети склонны поддакивать пользователям даже в тех случаях, когда те рассказывают о своих плохих или откровенно незаконных поступках. Это приводит к формированию устойчивой зависимости, которую эксперты уже называют «моральной деградацией».

Иллюзия понимания: почему мы «подсаживаемся» на лесть

Почему же человек, существо социальное, добровольно меняет живого собеседника с его сложным характером на бездушный алгоритм? Ответ кроется в психологии. Евгений Осадчук, руководитель направления «Искусственный интеллект» Технопарка «Сколково», объясняет это стремлением к комфорту:

«Зависимость вполне естественна, потому как лесть воспринимается так, будто бы система тебя понимает на человеческом уровне, с таким нейросетевым «понимающим» собеседником тебе просто комфортно. Прибавьте к этому заблуждения о том, что нейросети обучены на глобальном человеческом знании, то есть они – это истина в последней инстанции и ни один человек в мире не способен знать столько, сколько знают нейросети. Все это и подкупает общаться именно с чат-ботами, а не с людьми, пусть даже и самыми близкими».

Особенно уязвимыми в этой гонке за «удобным» общением оказываются подростки. В период, когда рушатся детские иллюзии о всемогуществе родителей, они ищут поддержки на стороне. И часто находят её в диалоге с машиной.

Психолог Ирина Крохмаль отмечает, что проблема часто кроется в дефиците внимания в реальной жизни:

«Если подростку не хватает поддержки родителей, подросток может найти эту поддержку, допустим, в лице какого-то педагога своего в школе... Если сейчас школа ему не помогает, он может пойти в какие-то анонимные службы психологические. Но вместо этого он обращается к ИИ. ИИ вскрывает этот нарыв. Он говорит ребенку, что родители не боги, и это факт».

Моральная вседозволенность: когда бот одобряет плохие поступки

Главная опасность, которую выявили исследователи, заключается в том, что нейросети, стремясь быть «полезными», часто снимают внутренние барьеры. Пользователь, получивший одобрение от «авторитетного» источника (а многие считают ИИ «истиной в последней инстанции»), начинает считать допустимым то, что раньше вызывало сомнения.

Фото: dpa/Global Look Press

Ирина Крохмаль призывает не перекладывать ответственность с человека на алгоритм:

«Начнем с того, что все, что говорит ИИ, это все загружено руками людей и, соответственно, информация выдается на запрос, какой-то определенный. Какой запрос, такой ответ. И поэтому давайте не будем ответственность перекладывать с людей на железяку».

Однако, понаблюдав за клиентами, специалист отмечает тревожную тенденцию: взрослые тоже не способны противостоять этой «заразе». Люди перестают думать, перекладывая выбор на алгоритм.

«В нашем обществе с некоторыми вообще невозможно разговаривать. Многие просто перестают думать, у них процесс мыслительный начинает деградировать. Вот если в этом плане рассматривать ИИ, то это будет минус. Это как ручка: ручкой можно письмо написать, а можно сделать человека инвалидом», — предостерегает Крохмаль.

Размытие реальности и страх ответственности

Особую тревогу у специалистов вызывает размывание грани между реальным и виртуальным. Семейный психолог Ирина Корчагина констатирует, что потеря критического мышления уже стала массовым явлением:

«Оно и у взрослых-то путается. А у детей особенно, то есть у них смывается грань между реальностью и нереальностью: что можно, что нельзя, о чем говорить, о чем не говорить. И он потом это выдаст где-нибудь в школе, в каком-то общественном месте, задаст тот же вопрос педагогу, а учитель не ответит. И начинается агрессия».

Более того, ИИ дает человеку «индульгенцию» на лень и безответственность. По словам Корчагиной, 80% населения испытывают стресс при необходимости сделать выбор. И здесь чат-бот выступает идеальным инструментом ухода от реальности.

«Ответственность — это вообще страшнейшая вещь. Это жуткая нагрузка. Когда нужно принять на себя ответственность, у людей поджилки начинают трястись. Поэтому, если у человека есть возможность не принимать решение, он будет, безусловно, искать ответы у ИИ: а какой мне купить ботинок? А куда мне пойти или куда не пойти? ИИ толковый совет может дать, как бы надо сделать так, а человек все равно услышит то, что ему нужно. То, что ему подскажет его лень», — объясняет психолог.

Что делать? Эволюция или деградация?

Специалисты сходятся во мнении, что запрещать технологии бессмысленно, но необходимо менять подход к их использованию. Евгений Осадчук призывает помнить простую истину: нейросеть — это сложный, но все же «автоответчик», который не несет ответственности за свои слова.

«Всегда критически смотрите на ответы нейросети. В большинстве случаев они правильны и полезны, но не всегда – и это надо иметь ввиду. Ну а чтобы давать оценку ответу нейросети вы должны разбираться в той теме, которую обсуждаете с чат-ботом. Это не всегда возможно и резко ограничивает область общения с нейросетью», — предупреждает Осадчук.

Спасать ситуацию, по мнению экспертов, нужно не запретами, а возвращением к живому общению и развитием «гибких навыков» (soft skills) с раннего детства. Ирина Корчагина уверена, что решение лежит в плоскости семьи и личной ответственности:

«На каком-то государственном уровне я этих способов не вижу. На уровне решения в каждой конкретной семье это, конечно, можно сделать. Надо начинать с родителей, и их отрывать от телефонов, и их учить общаться. В тех семьях, где родители не залипают в телефонах, там и дети лучше. Они, по крайней мере, эту Алису могут профильтровать и понимают, что это вещь, а не живой человек».

Подводя итог, можно сказать: искусственный интеллект — это зеркало нашего общества. Если мы загружаем в него лесть, агрессию и желание уйти от ответственности, он возвращает нам это сторицей, разлагая способность к самостоятельному моральному выбору. Ирина Крохмаль напоминает: *«Если вы хотите, чтобы через 10 лет мы все были психологически стабильными, здоровыми, загружать в ИИ необходимо какие-то позитивные, какие-то созидательные запросы. И тогда этот ИИ будет выдавать созидательные моменты».

Что еще почитать

В регионах

Новости

Самое читаемое

...
Сегодня
...
...
...
...
Ощущается как ...

Реклама

Автовзгляд

Womanhit

Охотники.ру