Осадок #51: умные колонки шпионят, школьников пытаются защитить, FaceApp пугает

Настало время вспомнить, о чем мы писали в рубрике «Утренняя реплика» в нашем Telegram-канале на этой неделе.


Умные колонки шпионят за вами

Смотреть на YouTube
Слушать в mp3

Совсем недавно «Яндекс» подозревали и даже обвиняли в том, что компания записывает все происходящее вокруг устройства с установленной на него «Алисой» и отправляет полученные записи на Лубянку, напрямую товарищу майору. При этом, авторов заметок, позволивших себе усомниться в безопасности использования «Яндекса», часто пытаются поднять на смех. В отличие от бельгийских журналистов, обнаруживших похожие проблемы у Google. В коротком репортаже, который вы без проблем сможете найти на YouTube, они не только беседуют с реальным сотрудником, прослушивающим реплики пользователей голосового помощника Google, но и разыскали тех, кто эти реплики произносил.

Все началось с того, что журналистам сдался один из фрилансеров, работающих на Google. Как оказалось — и в ролике видны интерфейсы системы — Google передаёт аудиозаписи на расшифровку. Эти люди слушают все, что им присылает Google, сравнивают услышанное с автоматической расшифровкой, сделанной Google, и вносят коррективы. Человек, согласившийся на разговор с журналистами, упомянул, что помимо проверки правильности распознавания речи ему нужно было отмечать пол говорящего. Проблема заключается даже не в том, что Google записывает все, до чего сможет дотянуться микрофон умной колонки или смартфона, к этому, как оказалось, человечество готово. Но вот то, что эти аудиозаписи будет слушать кто-то, кроме бездушных серверов Гугла, оказалось сюрпризом для многих.

В Google подтвердили, что качество распознавания аудиозаписей искусственным интеллектом действительно проходит проверку живыми людьми. Но по уверениям корпорации, это касается небольшого количества записей — всего 0,2%. В это легко поверить, так как для того, что отслушивать хотя бы половину запросов потребуется невероятное число сотрудников. При этом Google утверждает, что никакой личной информации они не раскрывают. Но журналисты, получившие от своего источника аудиозаписи, проверили их и проехались по адресам, упомянутым в них. Люди, проживающие там, подтвердили, что действительно это их голос на записи. И если пожилая пара сказала, что не видит в этом ничего страшного, то более молодой бизнесмен неприятно удивился. Источник журналистов рассказал, что помимо записей, содержащих обсуждение сделки, ему попадались свидетельства домашнего насилия. И тут возникает довольно много юридический коллизий.

К примеру, если что-то подобное услышал человек — необходимо ли сообщать в полицию? Если нет, то считать ли такие случаи укрывательством преступления? А если это не человек, а робот, то нужно ли обучать машину распознавать такие инциденты и доносить в правоохранительные органы? Допустимо ли вмешательство голосового ассистента в домашний скандал? Рано или поздно маркетологи дадут ответ на эти вопросы. И этот ответ будет — «да».

Спецслужбы и полиция давно используют данные, записанные голосовыми помощниками. К примеру, записи с Amazon Echo помогли раскрыть убийство совершенное в январе 2017 в небольшом городке штата Нью-Мексико. Публику в США возмутило, что колонка передаёт на серверы Amazon немного больше, чем предполагают владельцы. И ещё больше — что эти записи хранятся после выполнения запросов. И если бы не суд над убийцей, где были продемонстрированы доказательства, то многие так бы и продолжали жить в счастливом неведении. А ведь это не единственный такой случай, подобные прецеденты были и ранее, достаточно вспомнить похожий скандал в 2015 году в Арканзасе.

Для тех, кто следит за индустрией, удивительным в бельгийском расследовании может показаться только то, что в 2019 году такие факты могут быть для кого-то новостью.

К оглавлению

Школьники нуждаются в защите от технологий

Смотреть на YouTube
Слушать в mp3

Спикер Совета Федерации Валентина Матвиенко продолжает борьбу со смартфонами в школах. Она ссылается на многочисленные жалобы родителей и учителей, недовольных тем, что ученики пользуются телефонами и планшетами в учебное время. По мнению Валентины Ивановны, это отвлекает детей от занятий, а кроме того, наличие разных по уровню смартфонов у школьников приводит к «возникновению социального неравенства». Решением проблемы может быть перевод школьников на кнопочные телефоны, которые, по мнению Матвиенко недороги и доступны для каждого.

Конечно, такие методы борьбы с социальным неравенством, особенно с учётом контекста, способны спровоцировать немало ехидных комментариев. Но мы от них удержимся и обратим свой взор на немецкие образовательные учреждения земли Гессен, руководство которых пришло к выводу, что использование облачной платформы Office 365 в школах незаконно.

Нарушение закона заключается в том, что операционная система Windows 10 и сервис Microsoft Office 365 отправляет в США телеметрическую информацию, в которой могут содержаться конфиденциальные и персональные данные. А это прямо запрещено правилами обработки персональных данных, введённых Евросоюзом в мае прошлого года.

По мнению комиссара по защите данных и свободе информации, использование облачных приложений само по себе не является проблемой. Однако, оно возможно только если получено согласие учеников и гарантирована безопасность обработки данных. Поскольку же школьники не могут дать своего согласия в силу возраста, то и обработка их персональных данных законом не допускается. В Microsoft уже заявили, что компания начала поиск решения этой проблемы. А пока оно не найдено, школам предложено использовать альтернативные офисные пакеты, которые хранят данные локально, а не в облаках.

Казалось бы, перед нами две совсем разные истории. В одной из них комиссар, выступающий за защиту персональной информации, в другой спикер Совета Федерации, объявивший войну социальному неравенству. Но по большому счету, их действия, вне зависимости от реальных мотивов, способны привести к одному результату — созданию в школе пространства, куда не могут дотянуть свои щупальца ни Google, ни Microsoft.

Сложно сказать, насколько эти шаги осознанны. Но оба случая можно рассматривать как попытку соответствовать запросам общества, которое желает оградить своих детей от корпораций и их стремления отменить понятия «частная жизнь» и «персональные данные» как факт. И трудно не согласится с тем, что школа это именно то место, где стоит начинать это противодействие. Но гораздо правильнее было бы называть вещи своими именами, не прикрываясь борьбой с «социальным неравенством» и «нарушением регламента GDPR».

К оглавлению

Не стоит бояться FaceApp

Смотреть на YouTube
Слушать в mp3

Два года назад бывший сотрудник «Яндекса» Ярослав Гончаров создал собственную компанию Wireless Lab. Основным продуктом нового стартапа стало приложение FaceApp. Эта программа позволяет делать очень реалистичные преобразования лиц на фотографиях. Очередная волна интереса к приложению возникла после добавления нового фильтра, позволяющего состарить лицо на фотографии. Этот фильтр стал популярным среди западных знаменитостей, что, как водится, привело к цунами из однотипных публикаций.

Сначала это были сообщения о том, какая очередная звезда опубликовала обработанный снимок в Instagram. Далее в дело вступили эксперты. Разумеется, они рассказали об угрозах. Так как в этом сезоне модно пугать русскими хакерами, то комментарии экспертов можно было предсказать заранее. Разработчики русские, программе нужен доступ к фотографиям, для работы ей нужно соединение с облаком. Конечно же, это опасно. Правда, облако, которое выполняет обработку изображений, состоит из серверов арендованных у Amazon и Google — но кого это волнует?

Никаких опасений у тех же самых экспертов не вызывают мобильные приложения Фейсбука или Инстаграма, с помощью которых и публикуются полученные из FaceApp фото. Что тоже вполне понятно. Страшит ведь неизвестное, а на счёт Фейсбука вряд ли хоть у кого-то остались какие-то сомнения. Подобные комментарии и туманные намёки стали настолько предсказуемы, что напрашивается идея создать нейросеть, которая будет в любой новости находить русский след.

Вместо смешных фотографий в Instagram куда как интересней было бы увидеть практическое применение подобных технологий. Например, в кино и сериалах. Возможность выбирать актёра могла бы серьёзно снизить количество претензий к индустрии развлечений от борцов за социальную справедливость.

Впрочем, тот факт, что подобные технологии становятся все более доступными, делает по-настоящему важными совсем другие вопросы. Уже сейчас большая часть общества не способна адекватно ориентироваться в существующих информационных потоках, и ситуация продолжает ухудшаться.

Собственно, вспыхнувшая повсеместно борьба с fake news — это и есть реакция на обостряющуюся проблему. На наш взгляд, самой большой проблемой являются не фейки и созданные нейросетями картинки, а предлагаемые средства борьбы с ними. Людям нужно помогать формировать культуру восприятия информации, учить оценивать достоверность публикаций, учить самостоятельно ограждать себя от нежелательной или опасной информации. В современном мире это такой же навык как умение писать и читать.

Попытки использовать некие алгоритмы, которые будут автоматически фильтровать всю информацию без участия пользователя — не сделают человека сильнее или свободнее. Он просто будет зависеть от тех, в чьих руках будут находиться эти фильтры. И чем больше люди будут полагаться на подобные технологии, тем более уязвимыми они будут. А значит тем сильнее будет соблазн этим воспользоваться.

Поэтому бояться нейросетей, фейков и тем более русских хакеров не стоит. Реальную опасность представляет собой невежество и побороть его можно только с помощью образования. Как это уже не раз случалось в истории человечества.

К оглавлению

Подписывайтесь на канал Content Review в Telegram и читайте свежие «утренние реплики» ежедневно, а не раз в неделю. Приглашаем вас и в новый канал «Телеком поток», куда транслируются все новые публикации с сайта Content Review без авторских комментариев.

Присоединяйтесь к нашему каналу в Telegram, группам ВКонтакте и Facebook!
comments powered by Disqus