Осадок #51: умные колонки шпионят, школьников пытаются защитить, FaceApp пугает

Настало время вспомнить, о чем мы писали в рубрике «Утренняя реплика» в нашем Telegram-канале на этой неделе.


Не стоит бояться FaceApp

Смотреть на YouTube
Слушать в mp3

Два года назад бывший сотрудник «Яндекса» Ярослав Гончаров создал собственную компанию Wireless Lab. Основным продуктом нового стартапа стало приложение FaceApp. Эта программа позволяет делать очень реалистичные преобразования лиц на фотографиях. Очередная волна интереса к приложению возникла после добавления нового фильтра, позволяющего состарить лицо на фотографии. Этот фильтр стал популярным среди западных знаменитостей, что, как водится, привело к цунами из однотипных публикаций.

Сначала это были сообщения о том, какая очередная звезда опубликовала обработанный снимок в Instagram. Далее в дело вступили эксперты. Разумеется, они рассказали об угрозах. Так как в этом сезоне модно пугать русскими хакерами, то комментарии экспертов можно было предсказать заранее. Разработчики русские, программе нужен доступ к фотографиям, для работы ей нужно соединение с облаком. Конечно же, это опасно. Правда, облако, которое выполняет обработку изображений, состоит из серверов арендованных у Amazon и Google — но кого это волнует?

Никаких опасений у тех же самых экспертов не вызывают мобильные приложения Фейсбука или Инстаграма, с помощью которых и публикуются полученные из FaceApp фото. Что тоже вполне понятно. Страшит ведь неизвестное, а на счёт Фейсбука вряд ли хоть у кого-то остались какие-то сомнения. Подобные комментарии и туманные намёки стали настолько предсказуемы, что напрашивается идея создать нейросеть, которая будет в любой новости находить русский след.

Вместо смешных фотографий в Instagram куда как интересней было бы увидеть практическое применение подобных технологий. Например, в кино и сериалах. Возможность выбирать актёра могла бы серьёзно снизить количество претензий к индустрии развлечений от борцов за социальную справедливость.

Впрочем, тот факт, что подобные технологии становятся все более доступными, делает по-настоящему важными совсем другие вопросы. Уже сейчас большая часть общества не способна адекватно ориентироваться в существующих информационных потоках, и ситуация продолжает ухудшаться.

Собственно, вспыхнувшая повсеместно борьба с fake news — это и есть реакция на обостряющуюся проблему. На наш взгляд, самой большой проблемой являются не фейки и созданные нейросетями картинки, а предлагаемые средства борьбы с ними. Людям нужно помогать формировать культуру восприятия информации, учить оценивать достоверность публикаций, учить самостоятельно ограждать себя от нежелательной или опасной информации. В современном мире это такой же навык как умение писать и читать.

Попытки использовать некие алгоритмы, которые будут автоматически фильтровать всю информацию без участия пользователя — не сделают человека сильнее или свободнее. Он просто будет зависеть от тех, в чьих руках будут находиться эти фильтры. И чем больше люди будут полагаться на подобные технологии, тем более уязвимыми они будут. А значит тем сильнее будет соблазн этим воспользоваться.

Поэтому бояться нейросетей, фейков и тем более русских хакеров не стоит. Реальную опасность представляет собой невежество и побороть его можно только с помощью образования. Как это уже не раз случалось в истории человечества.

К оглавлению

Подписывайтесь на канал Content Review в Telegram и читайте свежие «утренние реплики» ежедневно, а не раз в неделю. Приглашаем вас и в новый канал «Телеком поток», куда транслируются все новые публикации с сайта Content Review без авторских комментариев.