
Недавно группа текущих и бывших сотрудников OpenAI и других компаний ИИ опубликовала письмо, в котором подчеркиваются экзистенциальные угрозы, связанные с передовыми системами ИИ, включая риск исчезновения человечества.
Подписанты призывают к усилению государственного надзора и общественной ответственности, критикуя недостаточную прозрачность и слабое корпоративное управление в сфере ИИ.
В письме отмечается, что ИИ может усугубить существующие неравенства, способствовать манипуляциям и дезинформации, а также привести к потере контроля над автономными системами, что потенциально может привести к исчезновению человечества. Подобные риски признаются не только ИИ-компаниями, но и правительствами по всему миру, а также другими экспертами.
Основные принципы, предлагаемые сотрудниками OpenAI:
Запрет на соглашения о неразглашении: Компании должны отказаться от соглашений, запрещающих критику, и не мстить за критику, связанную с рисками.
Анонимное уведомление: Организовать процесс, позволяющий сотрудникам анонимно сообщать о рисках в совет директоров, регулирующие органы и независимые организации.
Культура открытой критики: Поощрять сотрудников к открытой критике технологий компании, защищая при этом коммерческую тайну.
Защита информаторов: Не преследовать сотрудников, которые публично раскрывают конфиденциальную информацию о рисках, если другие методы не работают.
Инициатива была поддержана такими известными личностями в сфере ИИ, как Йошуа Бенжио, Джеффри Хинтон и Стюарт Рассел. Они подчеркивают, что необходимы скоординированные усилия научного сообщества, политиков и общественности для адекватного смягчения рисков, связанных с ИИ.
Тем не менее, финансовые стимулы ИИ-компаний могут препятствовать эффективному надзору, и поэтому корпоративного управления недостаточно для решения этих проблем. Существующие системы защиты информаторов также недостаточны, так как они ориентированы на незаконную деятельность, в то время как многие риски, связанные с ИИ, еще не регулируются.
C оригиналом письма вы можете ознакомиться по ссылке.
Commentaires