Эксперты требуют остановить разработку мощного ИИ

Группа видных специалистов в области технологий, включая соучредителя Apple Стива Возняка, выступила с открытым письмом, призывающим к немедленной приостановке разработки систем искусственного интеллекта. Они утверждают, что текущая гонка в создании ИИ несет непредсказуемые и потенциально катастрофические последствия для общества.

В документе подробно излагаются ключевые риски, связанные с бесконтрольным развитием нейросетей. Авторы письма выделили три основные угрозы:

  • Массовое сокращение рабочих мест из-за автоматизации.
  • Серьезная угроза гражданским свободам и частной жизни.
  • Потенциальный риск уничтожения человечества.

Мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем, более мощных, чем GPT-4. Такую паузу следует сделать публичной и проверяемой, — говорится в обращении.

Этот призыв стал одним из самых резких предупреждений от самих создателей технологий. Эксперты настаивают, что за время паузы должны быть разработаны и внедрены строгие протоколы безопасности для всех будущих разработок в сфере искусственного интеллекта.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *