Чем должен заниматься искусственный интеллект генеративная алгоритмическая модель?

Фото Alexandra_Koch/pixabay.com (Pixabay License)
Чем бодрее развивают генеративные алгоритмические языковые модели, которые для упрощения (ну а как в наше время без него?) называют искусственным интеллектом (которым алгоритмы, разумеется, не являются), тем больше возникает вопросов к их использованию. В основном в информационном поле резвятся любители генерировать рефераты и дипломные работы, а так же простейшие информационные тексты. Но почему-то никто из этих индивидов не может ответить на вопрос — а что с проверкой полученной информации? Ну это так, традиционная наша духота.

Есть и другие примеры того, как генеративные алгоритмы в совокупности с другими технологиями действительно могут увеличить эффективность работы с информацией. В Яндекс Лавке сделали такую связку — технология распознавания текста OCR распознает информацию на этикетке продукта, а YandexGPT генерирует его описание. Ранее контент-менеджеру нужно было забивать все данные вручную, что попросту долго, не говоря об ошибках и опечатках (попробуйте заполнить карточку о продукте с двумя десятками характеристик), а после этого еще и придумывать задорное описание, иначе продукт (если это не что-то массовое) попросту не найдут и не купят.

И здесь мы возвращаемся к тому, зачем вообще создаются алгоритмы, роботы, вот это все? Романтики в прошлом веке рассуждали довольно конкретно — вкалывают роботы, а не человек. Человек созидает. Написание сложных текстов, которыми несомненно являются курсовые работы и рефераты, это как раз созидание.

Впрочем, путь саморегулирования и самоцензуры, на которые встали отечественные генеративные языковые модели, будь то Gigachat Сбера или YandexGPT Яндекса, постепенно приведет к тому, что ничего кроме описания продуктов для карточек в базе данных применять их уже не получится. Может оно и к лучшему, ибо западные коллеги давно уже бьют в набат по поводу того, что слишком активно стали плодиться и размножаться сайты, контент которых генерирует какой-нибудь ChatGPT, а вторичность этих текстов (и, соответственно, количество фактических ошибок и прочей конспирологии) уже вышла на третий-четвертый уровень.