Ученые сравнили влияние ИИ-ботов на мышление с тоталитарным контролем из романа Оруэлла

Ученые сравнили влияние ИИ-ботов на мышление с контролем из романа Оруэлла "1984"

Новое исследование, проведенное учеными из США, выявило тревожную тенденцию: массовое использование больших языковых моделей (LLM) ведет к унификации языка и мышления. Авторы доклада не боятся громких аналогий: они прямо сравнивают происходящее с лингвистическим контролем «новояза» из романа Джорджа Оруэлла «1984».

Ученые сравнили влияние ИИ-ботов на мышление с контролем из романа Оруэлла "1984"
Фото создано с помощью нейросети gigachat

тестовый баннер под заглавное изображение

Многие интернет-пользователи уверены, что безошибочно узнают текст, сгенерированный нейросетью. Однако наука говорит об обратном: люди правильно определяют происхождение текста лишь в половине случаев. Детекторы ИИ становятся все совершеннее, но и сами языковые модели эволюционируют с пугающей скоростью. В результате более 6 миллиардов человек ежедневно сталкиваются с контентом, созданным алгоритмами, часто даже не подозревая об этом.

Команда под руководством специалиста по информатике Живара Сурати проанализировала более 130 исследований в области лингвистики, психологии, когнитивистики и компьютерных наук. Вывод, опубликованный в журнале Trends in Cognitive Sciences, однозначен: тексты, созданные ИИ, значительно беднее и однообразнее человеческих. В них отсутствуют уникальные языковые обороты, индивидуальные ценности и разнообразные стили рассуждения.

«Когда эти различия объясняются одними и теми же LLM, их особый лингвистический стиль, точка зрения и стратегии рассуждения становятся однородными, что приводит к стандартизации выражений и мыслей пользователей», — поясняет Сурати.

Проблема усугубляется тем, что LLM обучаются на огромных массивах данных, отражающих лишь узкий и зачастую искаженный срез человеческого опыта. Они улавливают статистические закономерности и воспроизводят их, выдавая усредненный, «безопасный» результат. Но этот результат, будучи приемлемым по качеству, постепенно становится нормой. Люди, регулярно потребляющие такой контент, невольно подстраивают под него свои собственные мысли и высказывания. Возникает эффект группового мышления. Исследователи подчеркивают, что когнитивное разнообразие это источник креативности и способности человечества решать сложные проблемы.

Особенно тревожно, что это влияние коснется даже тех, кто сознательно отказывается от использования ИИ. В мире, где большинство думает и говорит одинаково, любое отклонение начинает восприниматься как странное или ошибочное. Социальное давление подталкивает к конформизму.

«Если бы многие люди вокруг меня думали и говорили определенным образом, а я поступал бы по-другому, я бы почувствовал необходимость присоединиться к ним, потому что это казалось бы более надежным или социально приемлемым способом выражения моих идей», — констатирует Сурати.

Авторы исследования не призывают отказаться от технологий, но настаивают на срочных мерах. Важно изменить способы взаимодействия человека и машины, поощряя критическое мышление, а не слепое доверие к сгенерированному тексту.

«Мы рискуем получить мир, где коллективный разум человечества, лишенный разнообразия, утратит способность к адаптации и творчеству — и это будет поражение, которое мы нанесем себе сами, добровольно и с комфортом», — заключают исследователи.

 

Что еще почитать

В регионах

Новости

Самое читаемое

...
Сегодня
...
...
...
...
Ощущается как ...

Реклама

Автовзгляд

Womanhit

Охотники.ру