Эксперты требуют остановить разработку мощного ИИ
Группа видных специалистов в области технологий, включая соучредителя Apple Стива Возняка, выступила с открытым письмом, призывающим к немедленной приостановке разработки систем искусственного интеллекта. Они утверждают, что текущая гонка в создании ИИ несет непредсказуемые и потенциально катастрофические последствия для общества.
В документе подробно излагаются ключевые риски, связанные с бесконтрольным развитием нейросетей. Авторы письма выделили три основные угрозы:
- Массовое сокращение рабочих мест из-за автоматизации.
- Серьезная угроза гражданским свободам и частной жизни.
- Потенциальный риск уничтожения человечества.
Мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем, более мощных, чем GPT-4. Такую паузу следует сделать публичной и проверяемой, — говорится в обращении.
Этот призыв стал одним из самых резких предупреждений от самих создателей технологий. Эксперты настаивают, что за время паузы должны быть разработаны и внедрены строгие протоколы безопасности для всех будущих разработок в сфере искусственного интеллекта.