Администрация Трампа представила в пятницу законодательную основу, призванную установить единую национальную политику в отношении искусственного интеллекта (ИИ) в Соединенных Штатах. План предполагает отмену законов об ИИ на уровне штатов, консолидируя власть в Вашингтоне и потенциально подрывая недавние усилия штатов по регулированию быстро развивающейся технологии.

Основной аргумент в пользу этой централизации заключается в том, что фрагментированная нормативная база препятствует американским инновациям. Согласно заявлению Белого дома, «Разрозненные противоречивые законы штатов подорвут американские инновации и нашу способность лидировать в глобальной гонке ИИ». В рамках предложенного подхода предполагается федеральный подход, который отменяет более строгие правила штатов, отдавая приоритет масштабированию и развитию ИИ.

Перенос Ответственности: Родители Вместо Платформ

Ключевым элементом данной политики является заметный перенос ответственности. Вместо того чтобы возлагать жесткие обязательства на компании, занимающиеся ИИ, она делает акцент на родительском контроле в отношении таких вопросов, как безопасность детей. В предложении призывается к тому, чтобы Конгресс предоставил родителям инструменты для управления цифровой средой их детей, такие как контроль учетных записей и ограничения использования устройств. Хотя в нем признается необходимость снижения рисков сексуальной эксплуатации и нанесения себе вреда, он не предусматривает введения конкретных, принудительных требований для платформ.

Этот подход отражает более широкую тенденцию к легкому регулированию, пропагандируемую такими фигурами, как куратор Белого дома по вопросам ИИ Дэвид Сакс, венчурный капиталист, известный своими взглядами, направленными на рост и «ускорение». Цель данной политики — создание «минимально обременительного национального стандарта», ускоряющего внедрение ИИ в различных отраслях.

Отмена Законов Штатов и Защита от Ответственности

В рамках предложенной политики активно предлагается отменить законы штатов об ИИ, сохранив полномочия штатов только в отношении общих законов, таких как мошенничество, защита детей, зонирование и использование ИИ на уровне штата. В нем четко проводится грань против регулирования штатами разработки ИИ как таковой, рассматривая это как «по своей сути межштатное» дело, связанное с национальной безопасностью и внешней политикой.

Важно отметить, что в рамках предложенной политики предлагается оградить разработчиков ИИ от ответственности за незаконные действия, связанные с их моделями. Это положение не позволяет штатам наказывать разработчиков за неправомерное использование их технологий третьими сторонами, что является ключевым требованием со стороны индустрии ИИ.

Реакция Индустрии: Поддержка Национальных Стандартов

Многие представители индустрии ИИ приветствуют данную политику, считая ее путем к более быстрым инновациям. Тереза Карлсон, президент General Catalyst Institute, заявила, что стартапы именно этого и ждали: «Четкого национального стандарта, чтобы они могли быстро создавать и масштабировать». Данная политика устраняет препятствие в виде необходимости соблюдения противоречивых законов штатов, снижая нормативное бремя для компаний, занимающихся ИИ.

Опасения по Поводу Подотчетности и Надзора

Критики утверждают, что такая централизация уменьшает роль штатов в качестве ранних регуляторов, подавляя эксперименты и надзор. Брендан Штайнхаузер, генеральный директор The Alliance for Secure AI, обвинил администрацию в том, что она «выполняет приказы Big Tech в ущерб обычным, трудолюбивым американцам». В рамках данной политики отсутствуют положения, обеспечивающие независимый надзор, механизмы обеспечения соблюдения или рамки ответственности за новые виды ущерба, причиненного ИИ.

Позиция администрации по вопросам авторского права и свободы слова еще больше осложняет ситуацию. Хотя в ней признается добросовестное использование для обучения ИИ, также подчеркивается предотвращение правительственной цензуры, что потенциально может затруднить регулирование дезинформации или вмешательства в выборы.

Судебный Иск Anthropic: Столкновение с Первой Поправкой

Акцент в рамках предложенной политики на защите «законного политического выражения» совпадает с подачей компанией Anthropic иска против правительства, в котором утверждается о нарушении Первой поправки после того, как Министерство обороны обозначило ее как фактор риска в цепочке поставок за отказ разрешить приложения военного наблюдения. Это столкновение подчеркивает более широкое стремление администрации бороться с «пробужденным ИИ», поскольку Трамп публично критиковал Anthropic за идеологический нейтралитет.

В заключение следует отметить, что предложенная администрацией Трампа политика в отношении ИИ отдает приоритет национальной стандартизации и росту индустрии над регулированием на уровне штатов и всесторонним надзором. Перенос ответственности на родителей и защита разработчиков от ответственности вызывают опасения по поводу подотчетности и потенциала неконтролируемого развития ИИ.