Кейтлин Калиновски, возглавлявшая направление робототехники в OpenAI, подала в отставку в знак протеста против недавно объявленного партнерства компании с Министерством обороны США. Этот шаг подчеркивает растущую внутреннюю и внешнюю обеспокоенность этическими последствиями внедрения продвинутого ИИ в контексте национальной безопасности.
Суть проблемы: Скорость против гарантий безопасности
Калиновски, ранее возглавлявшая разработку AR в Meta, присоединилась к OpenAI в конце 2024 года. Она заявила, что ее уход связан с спешкой, с которой была заключена сделка с Пентагоном, в частности, с отсутствием четко определенных гарантий против внутренней слежки и полностью автономных систем вооружений.
“ИИ играет важную роль в национальной безопасности, но наблюдение за американцами без судебного надзора и летальная автономия без санкции человека – это границы, которые заслуживали большего обдумывания, чем им было уделено”. – Кейтлин Калиновски
Главная проблема заключается не столько в самой сделке, сколько в том, как она была заключена. Калиновски подчеркивает, что это «проблема управления», то есть процесс не имел достаточного надзора и планирования до публичного объявления.
Почему это важно: Гонка вооружений в области ИИ
Пентагон изначально пытался заключить сделку с Anthropic, прежде чем обратиться к OpenAI. Anthropic, по сообщениям, колебалась, пытаясь добиться более надежных гарантий против злоупотреблений – в частности, предотвратить использование их ИИ для массовой внутренней слежки или в полностью автономных системах вооружений. Затем Пентагон объявил Anthropic «риском для цепочки поставок».
Это подчеркивает более широкую тенденцию: правительства агрессивно ищут партнерства в области ИИ, даже если это означает давление на компании с целью компромисса с этическими нормами. Быстрое согласие OpenAI на сделку, несмотря на заявления о наличии «красных линий», вызывает вопросы о том, насколько надежны эти защиты на практике.
Ответ OpenAI и будущие последствия
OpenAI утверждает, что в соглашении предусмотрены гарантии против внутренней слежки и автономных вооружений. Однако отставка Калиновски свидетельствует о внутреннем скептицизме относительно того, смогут ли эти меры удержаться в долгосрочной перспективе. Зависимость компании как от договорных положений, так и от технических гарантий рассматривается некоторыми как попытка создать впечатление большей ответственности, не внося существенных изменений в свои основные практики.
Эта ситуация ставит критический вопрос: Возможно ли ответственное внедрение ИИ в национальную безопасность без ущерба для основных прав и этических принципов? Стремительный темп заключения этих сделок предполагает, что ответ остается неопределенным, и дальнейший контроль со стороны регулирующих органов, гражданского общества и даже сотрудников OpenAI будет иметь решающее значение в будущем.
Уход ключевого руководителя служит суровым предупреждением: гонка за милитаризацией ИИ ускоряется, и гарантий безопасности может быть недостаточно.


























