Эксперты обсудили методы контроля искусственного интеллекта человеком

Эжен де Блаас. Непринуждённая беседа. 1905
Эжен де Блаас. Непринуждённая беседа. 1905

Искусственный интеллект вызвал дискуссии о необходимости его контроля, говорится 25 января в материале «Российской газеты».

Автор задается вопросом, что современные разработки ИИ вызывают опасения из-за сложности их внутренней работы, которую сами разработчики часто не могут полностью объяснить. Это создает риск непредсказуемых последствий использования технологий, особенно в случае дальнейшего усложнения нейросетей. Специалисты подчеркивают, что без прозрачности механизмов работы искусственного интеллекта человек рискует оказаться лишним в управлении системами будущего.

Одним из предложенных решений является мониторинг активности нейросетей, который сравнивают с применением магнитно-резонансной томографии для изучения мозга. Другой подход — анализ логических цепочек принятия решений ИИ, что позволяет выявлять расхождения между действиями систем и заданными целями. Скептики, однако, считают эти методы недостаточно эффективными и призывают к разработке более жестких средств контроля, иначе будущее искусственного интеллекта и человечества окажется под угрозой.

Отметим, исследования 2025–2026 годов выявили несколько ключевых сфер, где применение ИИ негативно сказывается на обществе. В области психологии отмечается феномен «когнитивной разгрузки», когда передача мыслительных функций машинам приводит к снижению критического мышления и ухудшению памяти.

Среди специалистов интеллектуального труда фиксируется так называемый «цифровой Альцгеймер» — снижение способности самостоятельно решать сложные задачи. В сфере образования массовое использование ИИ способствует списыванию, что ведет к потере базовых навыков обучения. Избыточное взаимодействие с ИИ у подростков связано с ростом тревожности и социальной изоляцией.

В области кибербезопасности прогнозируется резкий рост преступлений с использованием ИИ: до 90% кибергруппировок перейдут на нейросети. Распространение дипфейков ведет к увеличению случаев шантажа и кражи данных. Автоматизированные атаки с помощью ИИ способны создавать масштабные фишинговые кампании, что к концу 2025 года может нанести ущерб мировой экономике на сумму около 10,5 трлн долларов (795 трлн руб.).

В сфере рынка труда влияние ИИ уже привело к сокращению около 55 000 рабочих мест в США в 2025 году, а на глобальном уровне под угрозой трансформации находятся до 3,5% рабочих мест в развитых странах. Повышается уровень стресса и «выгорания» у IT-специалистов и работников творческих профессий, вызванный страхом потери актуальности на рынке из-за автоматизации.

Кроме того, развитие ИИ связано с большими экологическими рисками, так как обучение моделей требует огромных вычислительных мощностей и значительного потребления электроэнергии, что создает угрозу для глобальных инициатив по снижению нагрузки на энергосети и достижению устойчивого развития.

Отметим, что проблема контроля искусственного интеллекта обсуждается с момента появления первых нейросетей, а современный этап характеризуется поиском баланса между развитием технологий и обеспечением безопасности общества.