top of page
  • Фото автораehodkin

Сотрудники OpenAI предупреждают о потенциальных угрозах ИИ


Угрозы ИИ

Недавно группа текущих и бывших сотрудников OpenAI и других компаний ИИ опубликовала письмо, в котором подчеркиваются экзистенциальные угрозы, связанные с передовыми системами ИИ, включая риск исчезновения человечества.


Подписанты призывают к усилению государственного надзора и общественной ответственности, критикуя недостаточную прозрачность и слабое корпоративное управление в сфере ИИ.


В письме отмечается, что ИИ может усугубить существующие неравенства, способствовать манипуляциям и дезинформации, а также привести к потере контроля над автономными системами, что потенциально может привести к исчезновению человечества. Подобные риски признаются не только ИИ-компаниями, но и правительствами по всему миру, а также другими экспертами.


Основные принципы, предлагаемые сотрудниками OpenAI:

  1. Запрет на соглашения о неразглашении: Компании должны отказаться от соглашений, запрещающих критику, и не мстить за критику, связанную с рисками.

  2. Анонимное уведомление: Организовать процесс, позволяющий сотрудникам анонимно сообщать о рисках в совет директоров, регулирующие органы и независимые организации.

  3. Культура открытой критики: Поощрять сотрудников к открытой критике технологий компании, защищая при этом коммерческую тайну.

  4. Защита информаторов: Не преследовать сотрудников, которые публично раскрывают конфиденциальную информацию о рисках, если другие методы не работают.


Инициатива была поддержана такими известными личностями в сфере ИИ, как Йошуа Бенжио, Джеффри Хинтон и Стюарт Рассел. Они подчеркивают, что необходимы скоординированные усилия научного сообщества, политиков и общественности для адекватного смягчения рисков, связанных с ИИ.


Тем не менее, финансовые стимулы ИИ-компаний могут препятствовать эффективному надзору, и поэтому корпоративного управления недостаточно для решения этих проблем. Существующие системы защиты информаторов также недостаточны, так как они ориентированы на незаконную деятельность, в то время как многие риски, связанные с ИИ, еще не регулируются.


C оригиналом письма вы можете ознакомиться по ссылке.

Comments


bottom of page