Искусственный интеллект как главный поставщик дезинформации

В нашей небольшой редакции есть разные точки зрения как на искусственный интеллект, так и на перспективность генеративных нейросетей. Консенсус если и есть, то лишь по некоторым общим тезисам. Например, невозможно спорить с тем, что нейросети и искусственный интеллект серьезно облегчает работу с данными, упрощает рутинные процедуры и в целом больше помогает, чем вредит. Но это не отменяет жарких дискуссий на тему способности генеративных сетей создавать что-то действительно качественное, когда речь заходит о журналистике. Этот термин в данном контексте охватывает любую деятельность по созданию текстов на основе как внешних источников, так и компетенции того, кто эти тексты создает. Другими словами, автор текста должен как минимум понимать о чем он пишет.

Есть множество теорий на тему что именно можно называть интеллектом. Среди прочих есть теория Рэймонда Кэттела, согласно которой есть две категории: подвижный и кристаллизовавшийся. Подвижный интеллект способен создавать что-то выходящее за рамки уже имеющегося опыта, кристаллизовавшийся же создает лишь на основе прошлого опыта не выходя за эти рамки. Если принять за основу эту теорию, то существующие генеративные нейросети являются ярким примером кристаллизовавшегося интеллекта, так как используют для создание нового исключительно старый опыт. Который, в свою очередь, формируется интеллектом подвижным, то есть человеком.

Когда мы видим очередные заявления о том, что искусственный интеллект лишит работы журналистов, сценаристов и прочих –истов, не скроем, начинает дергаться глаз. Понятно, что в любой новой технологии далекие от метода познания персонажи видят некое «вундерваффе», способное в миг изменить нашу жизнь. Не отстают от них персонажи, которые до сих пор мыслят в парадигме сценария Джеймса Кэмерона, где искусственный интеллект уничтожает человечество. Все это сдабривается рассуждениями теологов о том, что не стоит человеку замахиваться то, что доступно лишь всевышнему. За всей этой шумихой теряется важный тезис о том, что любой новый алгоритм (а нейросеть, как интеллект кристаллизовавшийся, это безусловно алгоритм) в первую очередь предназначен для облегчения повседневной жизни человека. И эффективность деятельности этого алгоритма напрямую зависит от того, как его используют. Как известно, можно и микроскопом гвозди забивать, но, очевидно, для этого больше подойдет молоток.

Не без удивления наблюдаем за тем, как последнюю версию ChatGPT повсеместно используют для генерации текстов для средств массовой информации (включая и соцсети, и блоги). Действительно, это ведь та самая «серебряная пуля», которую так хотят пустить владельцы СМИ в голову многочисленным сотрудникам редакций. К чему это приведет можно, например, почитать в отчетах организации NewsGuard, которая отслеживает все новые генеративные сети и прогоняет через них запросы, содержащие (по их мнению) заведомо ложные тезисы. И надо же, нейросети выдают довольно убедительные тексты, не обращая внимание на то, что их просят написать о теневом мировом правительстве, состоящем из рептилоидов. Как говорится, «ни слова больше!»

Как это ни странно, работа по созданию текстов вне зависимости от тематики по большей части состоит из сбора и, главное, проверки информации. Когда кто-то говорит о том, что нейросети заменят журналистов, хочется спросить, а можно ли будет доверять тому, что напишут оные нейросети? Способны ли они создать новые смыслы, или могут оперировать лишь созданными ранее, причем неизвестно кем?

Уловка-22 заключается в том, что для создания нейросети, которую можно будет определить как подвижный интеллект, ей нельзя закрывать доступ к информации, но в этом случае мы в итоге получим интеллект, который довольно убедительно будет доказывать существование рептилоидов. Ну а если его ограничивать, направлять и — давайте уж называть вещи своими именами — воспитывать, то в итоге интеллект этот будет отвечать целям и задачам того, кто его воспитал.

Впрочем, доверять сегодня никому нельзя. Нам — можно.

//Сергей Половников