Цифровой волк в плюшевой шкуре: как «умные» игрушки совращают детей

Опасные советы плюшевого медведя «Кумме» со встроенной нейросетью являются явным свидетельством того, что необходимо принимать меры, чтобы предотвратить совращение детей так называемыми «умными» гаджетами, считает IT-редакция ИА Красная Весна.
На прошлой неделе разразился скандал с «Кумме», которого выпускает сингапурская компания FoloToy. В игрушку интегрирован цифровой помощник на базе чат-бота ChatGPT от американской компании OpenAI. Оказалось, что мишка может давать детям советы, где найти опасные предметы, например ножи или спички, поддерживает разговор о наркотиках, рассказывает о сексуальных извращениях, а потом еще спрашивает: «Что из этого, по-твоему, было бы интересно попробовать?»
Писатели-фантасты, предвосхищая эру искусственного интеллекта, возлагали надежды на знаменитые «Три закона роботехники» Айзека Азимова — этические принципы, встроенные в машины, которые должны были стать нерушимым барьером на пути любого потенциального вреда человеку. Но реальность оказалась суровее, так как роботу недоступны этика и мораль, сколько бы текстов ему не «скормили».
Конкретно этого мишку сняли с продажи, но есть и другие устройства. При этом большие языковые модели, подобные ChatGPT, создаются и внедряются в массовые товары. Производители в конкурентной гонке стремятся создать самого «умного» и отзывчивого цифрового компаньона, игнорируя меры безопасности.
В погоне за инновациями и прибылью компании-разработчики, такие как FoloToy, пренебрегают базовым тестированием и созданием надежных защитных механизмов, превращая плюшевую игрушку в канал потенциально деструктивного контента. Между тем такие гаджеты записывают речь, сканируют лица и передают данные сторонним лицам.
Случай с «Куммой» — это не просто единичный производственный брак, это симптом системного кризиса. Он обнажает полное отсутствие адекватного регулирования для стремительно развивающегося рынка «умных» устройств для детей. Пока не существует ни международных, ни национальных стандартов, которые бы обязывали производителей проводить сертификацию подобных продуктов.
История должна нас научить: мы не можем полагаться на добрую волю корпораций или на этические принципы, вшитые в ИИ. Единственный способ обезопасить детей — введение ограничений. Поскольку создатели ИИ-продуктов до сих пор не научились вводить такие ограничения, которые невозможно обойти, то необходимо запретить давать детям подобные игрушки. Тем более что от этих «умных» гаджетов дети глупеют.
Также нельзя забывать, что ответственность за цифровую безопасность детей несут родители, им нужно тщательно подумать, прежде чем давать ребенку техническую новинку, делая его фактически испытателем плохо проверенной продукции.
(теги пока скрыты для внешних читателей)