Искусственный интеллект «выступил» против феминизма
Английские журналисты обнаружили, что алгоритмы искусственного интеллекта по блокировке порнографии определяют женщин более сексуальными, чем мужчин, сообщила 8 февраля газета The Guardian.
Крупнейшие IT-компании, такие как Meta (организация, деятельность которой запрещена в РФ), Google, Amazon используют искусственный интеллект для фильтрации порнографического контента и блокировки его для показа пользователям.
Для этого алгоритмы оценивают «непристойность» и «сексуальную соблазнительность» фотографий. Как оказалось, фотографии женщин в купальниках алгоритм оценивает с гораздо более высоким уровнем «непристойности», чем мужчин в плавках.
Более того, по пояс голый мужчина оценивается всего в 22% «непристойности», но в случае если на фото появится женский бюстгальтер, то уровень «непристойности» увеличивается до 99%.
Авторы делают предположение, что причина этого явления вызвана тем, что обучающую выборку для машинного обучения делают «неправильные» люди.
«Фотографии, используемые для обучения этих алгоритмов, вероятно, были помечены гетеросексуальными мужчинами, которые могут ассоциировать мужчин, занимающихся спортом, с фитнесом, а фотографию женщины, занимающейся спортом, считают непристойным. Также возможно, что эти рейтинги кажутся предвзятыми по признаку пола в США и Европе, потому что авторы ярлыков могли быть из мест с более консервативной культурой», — пишут авторы статьи.
Напомним, для формирования в ChatGPT представления о токсичности высказываний OpenAI отправила десятки тысяч фрагментов текста аутсорсинговой фирме в Кении, которая платила местным работникам за чтение и маркировку вредных выходных данных.