21 сентября 2020Технологии

Нейросеть Твиттера на превью чаще показывает лица людей со светлой кожей


Пользователи Твиттера провели новый эксперимент. Оказалось, что нейросеть, создающая превью картинок, отдает предпочтение людям со светлой кожей.

На эксперимент пользователей вдохновила ситуация из конференции в Zoom. Дело в том, что программа не смогла отобразить темнокожего собеседника.

«Один из студентов спрашивает, как остановить Zoom от удаления его головы, когда он использует виртуальный фон. Мы предложили обычный однотонный фон, хорошее освещение и т. д. Но это не сработало. Сегодня я созвонился с ним и понял, почему это происходит. Ваши догадки?».

При использовании фотографий из твитов выше, мобильное приложение соцсети для превью использовало фотографию светлокожего участника конференции.

«Боже… любые догадки почему Твиттер в мобильном приложении по умолчанию использует только правую часть изображения?»

История получила резонанс в соцсети: более 15 тысяч лайков и 3 тысяч ретвитов стартового треда. После этого в эксперименте использовали фотографию бывшего президента США Барака Обамы и сенатора Митча МакКонелла. Прикрепляя большие картинки к твитам, пользователи смотрели, что выберет соцсеть для превью: фото белокожего сенатора или первого темнокожего президента. Оказалось, что фото МакКонелла почти всегда было на превью. Рекомендуем кликнуть на картинку из твита, чтобы увидеть конкретный пример.

Иронично, что МакКонелл во время президентства Обамы, был критиком политики президента.

«Попробую ужасный эксперимент… Что выберут алгоритмы Твиттера [для создания превью]: Митча МакКонелла или Барака Обамы?»

В ответах к твиту предположили, что все дело в красном галстуке МакКонелла, в то время как у Обамы на фото он синий. Галстуки поменяли местами, но это не сработало: для превью соцсеть также выбрала лицо МакКонелла.

«„Это из-за красного галстука! Очевидно, алгоритмы предпочитают красные галстуки!“ Окей, давайте посмотрим…»

Пользователи пробовали увеличить количество фото Обамы. Результат не изменился.

«Интересно, что получится если мы увеличим количество фото Обамы?»

Когда оказалось, что дело не в количестве фото и не в цвете галстуков, пользователи решили инвертировать цвета фотографий и получить изображение в нейтральных цветах. И только тогда лицо Обамы попало на превью одной из картинок.

«Давайте попробуем цвета в негативе…»

Такой же результат достигался и при осветлении/отемнении кожи: Обаму сделали светлее, а МакКонелла — более темным. Для превью Твиттер выбрал лицо уже светлокожего Обамы.

Алгоритмы делали выбор в пользу белокожих людей не только в примере с двумя политиками. Второй эксперимент показал, что подобным образом превью выбиралось и у других картинок с людьми.

«Ну вот»

Потом пользователи изменили лица местами и сделали одинаковый фон. И уже после этого алгоритм использовал лицо темнокожего человека для превью.

«Я поменял их лица местами». «Тот же тест, но с одинаковым фоном картинки».

Эксперимент повторили с другими подобными изображениями людей. Результат не менялся.

Пользователи пошли дальше: они использовали персонажей мультфильма «Симпсоны». При использовании картинок Ленни (светлокожий) и Карл (темнокожий) алгоритмы отдали предпочтение Ленни.

«Интересно, как поступит Твиттер с вымышленными персонажами?»

Главный дизайнер Твиттера Дэнтли Дэвис тоже провел «ненаучный эксперимент» и пришел к подобным результатам.

«Вот еще один пример того, с чем я экспериментировал. Это ненаучный тест, поскольку это изолированный пример, но он указывает на некоторые переменные, которые нам необходимо изучить. У обоих мужчин теперь одинаковые костюмы, и я прикрыл им руки. Мы все еще изучаем нейросеть».

Лиз Келли из отдела по связям с общественностью Твиттера, сообщила, что команда провела некий тест на предвзятость, но не нашли «расовой или гендерной предвзятости», однако разработчикам «ясно, что необходимо провести дополнительные тесты». Также Келли пообещала раскрыть исходный код, по которым работают отвечающие за это алгоритмы.

«Спасибо всем, кто обратил внимание на это. Перед использованием мы протестировали алгоритмы на расовую или гендерную предвзятость, но ничего не нашли. Но ясно, что необходимо сделать больше тестов. Также, мы откроем исходный код, чтобы любой мог повторить или проверить его».

Технический директор Твиттера Параг Агравал сообщил, что они провели дополнительный анализ и алгоритмы будут постоянно улучшаться.

«Это очень важный вопрос. Чтобы решить эту проблему, мы провели анализ нашей модели при ее использовании. Но модель все еще требует постоянного улучшения.

Я рад этому публичному, открытому и тщательному тесту — и я хочу извлечь из него уроки».

Комментарии 3
Чтобы оставить комментарий, Войдите или Зарегистрируйтесь
Артем Шамбурский.qki17
Артем Шамбурский.qki17
Ваша нейросеть оскорбляет негров! На самом деле, на светлой физиономии легче определить точки для считывания. Вот нейросеть и пошла путем наименьшего сопротивления.
2MON
2MON
Да кому не насрать-то?
s_ta_s
s_ta_s
Даже нейросеть ненавидит негров?