Мозги на аутсорсе

Когда-то люди боялись, что роботы под контролем ИИ захватят мир. Сегодня понятно, что искусственный интеллект вряд ли сможет управлять миллионами роботов и проводить такие операции — зато несёт куда более банальную и менее очевидную угрозу. Ведь люди столкнулись с феноменом добровольного перекладывания на нейросети мыслительного процесса.

Во всех сферах — от образования до офиса — мы стали чаще использовать LLM как аутсорсинг для интеллекта. Ведь это удобно — меньше думать, искать, вникать и ошибаться. То есть делать то, чем всегда являлся процесс работы с информацией. Но есть проблема: подход «меньше думать» быстро входит в привычку и становится нормой.

Чем больше человек полагается на ChatGPT, тем хуже он понимает тему — такую закономерность нашли исследователи из Wharton и MIT в двух разных экспериментах. Нечто подобное уже было на заре развития поисковых систем, когда людей пугали тем, что «Google делает всех тупыми». Может, оно и так, но на фоне ИИ даже Google выглядит суровой школой жизни, заставляя прикладывать усилия, читать источники, отбирать и верифицировать их.

Причём речь не о качестве ответов участников, все знают, что ИИ генерирует вполне сносные тексты. Проблема обнаружилась на уровне нейронной активности. В группе, писавшей эссе без помощи ИИ, отвечающие за глубокое мышление дельта-волны проявлялись в 2 раза активнее, чем в группе с LLM. Чем больше помощи получали участники, тем меньше мозговой активности они показывали и тем быстрее забывали написанное.

Ещё хуже, что лень побуждает людей доверять ответам ИИ — хотя языковые модели наследуют человеческие когнитивные искажения. Им присущи склонность к риску, избыточная уверенность, логические ошибки. Они даже могут лгать, если по какой-то причине алгоритм решил, что это будет уместно — в эксперименте ИИ дали инструкцию работать на фармкомпанию, и он скрывал побочные эффекты препаратов ради увеличения продаж.

Можно возразить, что и раньше никто не парился — люди читали Википедию для получения быстрого ответа. Но там были редакторы, модерация и правки от конкретных авторов. А здесь — нейросеть, чёрный ящик посередине и сгенерированный случайным образом ответ, на который могло повлиять что угодно. А хуже всего, что нейросеть не сомневается — она всегда «знает» и делится этим «знанием», даже если придумала его на ходу из обрывков разрозненных фактов.

Нам довелось стать свидетелями когнитивной трансформации: люди меньше принимают решения — какой источник выбрать, как вычленить главное, как структурировать текст, какое слово подобрать. Слишком много вопросов? Возможно, но именно поиск ответов на эти вопросы заставлял вникать в тему и запускать когнитивные процессы в голове. А сегодня мы не пишем, но редактируем. Не ищем, но проверяем. Из генераторов смысла становимся редакторами сгенерированных черновиков.

//Илья Власов