Коннектикут SB 5: самый полный закон об ИИ в истории США
Коннектикут работает над Senate Bill 5 — амбициозным 97-страничным законодательством, которое многие эксперты в области права и технологии называют наиболее всеобъемлющим законом об искусственном интеллекте в истории Соединенных Штатов. На фоне растущей волны из 78 законопроектов в 27 штатах, закон Коннектикута выделяется своей масштабностью и комплексностью.
Масштаб амбиций: 97 страниц регулирования
Когда говорят, что закон содержит 97 страниц, это не просто длинный текст — это свидетельство того, насколько комплексной предполагается система регулирования. Для сравнения, большинство отдельных законопроектов об ИИ в других штатах содержат 5-15 страниц и сосредоточены на одном или двух аспектах (например, безопасность чат-ботов или использование ИИ при трудоустройстве).
«SB 5 Коннектикута — это не просто закон; это попытка создать полноценную правовую базу для регулирования всех аспектов ИИ в обществе»
Закон был внесен в Генеральную ассамблею Коннектикута и получил публичные слушания в начале марта 2026 года. Его прохождение, вероятно, займет несколько месяцев, но уже сейчас он привлекает внимание правоведов, технологов и политиков во всей стране.
Структура закона: пять основных разделов
Хотя полный текст SB 5 содержит множество деталей, его можно разбить на пять основных областей регулирования:
| Раздел | Фокус | Ключевые положения |
|---|---|---|
| 1. Катастрофические риски | Определение и мониторинг | Четкое определение, требования к докладам, тестирование |
| 2. Бюро ИИ политики | Государственное управление | Создание регуляторного органа под DECD |
| 3. Обучение рабочей силы | Connecticut AI Academy | Расширение программы подготовки и образования |
| 4. Безопасность чат-ботов | Защита потребителей | Раскрытие, детектирование суицида, защита несовершеннолетних |
| 5. Трудовые отношения | Защита работников | Запрет дискриминационных ИИ-решений |
Раздел 1: Определение и управление катастрофическими рисками
Одно из инновационных положений SB 5 — это четкое определение того, что считается «катастрофическим риском» в контексте ИИ. Это не случайно — различные законодатели и эксперты предлагали разные определения, и отсутствие унифицированной терминологии затрудняет правоприменение.
Закон определяет катастрофические риски как системы ИИ, способные вызвать серьезный вред человеку в масштабе, который может повлиять на национальную безопасность, критическую инфраструктуру или здоровье населения. Примеры включают ИИ, управляющие критическими системами (энергосеть, водоснабжение), или системы, используемые при судебных решениях с тяжелыми последствиями.
Закон требует, чтобы разработчики ИИ, работающих с потенциально катастрофическими рисками, проводили строгое тестирование и регулярно докладывали о результатах новому Бюро ИИ политики. Это, по сути, создает систему уведомления для системно опасных применений ИИ.
Раздел 2: Бюро ИИ политики
Чтобы осуществить все эти требования, SB 5 предусматривает создание новой государственной структуры — Бюро ИИ политики, которое будет работать под управлением Департамента экономического и общественного развития (DECD).
Бюро будет отвечать за: разработку стандартов для ИИ, получение уведомлений о катастрофических рисках, проведение аудитов, координацию с федеральными регуляторами и международными партнерами.
Это создаст специализированный орган, сосредоточенный именно на вопросах ИИ, в отличие от попыток применить существующие регуляторные органы (занятые другими вопросами) к новой технологии. Идея заимствована из европейской модели, где появляются специализированные регуляторы для различных технологий.
Раздел 3: Connecticut AI Academy и обучение рабочей силы
Признавая, что образование и профессиональное развитие являются критическими для успешного внедрения ИИ, SB 5 требует расширения Connecticut AI Academy — существующей программы обучения, которая готовит рабочих к эпохе ИИ.
«Хороший закон о технологии не просто регулирует опасности; он также инвестирует в будущее, подготавливая людей к пользованию технологией»
Программа будет расширена для охвата:
- Основные знания ИИ-грамотности для всех граждан
- Профессиональное обучение для работников, чьи рабочие места затронуты ИИ
- Подготовку специалистов для работы с ИИ-системами
- Переподготовку людей, вытесненных ИИ-автоматизацией
Это позитивный, проактивный подход: вместо того, чтобы просто запрещать ИИ, государство инвестирует в подготовку своих граждан для работы в мире ИИ.
Раздел 4: Безопасность чат-ботов и защита потребителей
Одна из наиболее конкретных и применимых частей SB 5 касается безопасности чат-ботов — систем ИИ, взаимодействующих напрямую с потребителями.
- Раскрытие: Чат-бот ДОЛЖЕН явно указывать, что это не человек, а искусственный интеллект. Нельзя имитировать человека.
- Протоколы суицида: Система должна обнаруживать признаки суицидального намерения в беседах и предоставлять ресурсы помощи (горячие линии, контакты психотерапевтов).
- Защита несовершеннолетних: Дополнительные механизмы для предотвращения обращения чат-ботов в целях эксплуатации или манипулирования молодежи.
- Прозрачность данных: Четкое объяснение того, какие данные собираются, как они используются и с кем делятся.
Эти требования отражают уроки, извлеченные из реальных проблем: неправильно раскрытые чат-боты, которые имитируют людей; системы, которые не смогли распознать людей в кризисных состояниях и оказать им помощь; системы, которые использовались для манипуляции молодежью.
Раздел 5: ИИ и трудовое право
Возможно, самый спорный раздел SB 5 касается использования ИИ при принятии решений о трудоустройстве, продвижении по службе и увольнении.
| Сценарий | Требование |
|---|---|
| Использование ИИ для найма | Система должна пройти проверку на дискриминацию и предвзятость |
| ИИ-скрининг кандидатов | Кандидат должен быть уведомлен о использовании ИИ |
| ИИ при оценке производительности | Запрещено использовать ИИ как единственный фактор в решениях |
| Автоматизированные увольнения | Требует человеческого пересмотра и одобрения |
Закон, по сути, запрещает полностью автоматизированные решения о трудоустройстве, которые основаны только на ИИ-оценке. Это отражает понимание того, что решения, влияющие на жизни людей (работа, зарплата, карьера), требуют человеческого суждения и ответственности.
Рассмотрение в комитетах: публичные слушания в марте
SB 5 получил публичные слушания в марте 2026 года в соответствующих комитетах Генеральной ассамблеи Коннектикута. На слушаниях присутствовали представители технологической индустрии, защиты потребителей, трудовых организаций, органов безопасности и гражданского общества.
«Публичные слушания показали одно: все согласны, что ИИ нуждается в регулировании, но эксперты сильно расходятся во мнениях о том, как именно это делать»
Технологические компании выступили против некоторых положений, утверждая, что они могут замедлить инновации. Защитники потребителей и рабочих требовали еще более жестких правил. Такая полярность предложений типична для технологического регулирования в эпоху быстрых изменений.
Дополнительные инициативы: SB 86 и SB 4
SB 5 — это не единственный законопроект об ИИ в Коннектикуте. Параллельно рассматриваются и другие инициативы:
- SB 86: Предложение губернатора об «AI Regulatory Sandbox» — специальной зоне, где компании могут тестировать ИИ-системы под государственным надзором
- SB 4: Законопроект о приватности данных — новые требования к защите личной информации, собираемой ИИ-системами
Такой комплексный подход указывает на то, что Коннектикут рассматривает ИИ не изолированно, а как часть более широкой сети регулирования технологии, приватности и защиты потребителей.
Сравнение с другими штатами
Что выделяет SB 5 среди других законопроектов об ИИ?
- Масштабность: 97 страниц против типичных 10-20 других штатов
- Комплексность: Охватывает катастрофические риски, потребителей, рабочих, образование
- Проактивность: Включает инвестиции в обучение, а не только ограничения
- Структурированность: Создает специализированный регуляторный орган (Бюро)
- Сбалансированность: Попытается сбалансировать инновации и защиту
Влияние на технологическую индустрию
Если SB 5 будет принят в его нынешнем виде, это будет иметь серьезные последствия для ИИ-компаний, работающих в Коннектикуте или обслуживающих его жителей. Компании будут вынуждены пройти сертификацию для систем, работающих с потенциально катастрофическими рисками, раскрывать использование ИИ в контексте трудоустройства и реализовать протоколы безопасности для чат-ботов.
Это может ускорить инновации в области безопасности ИИ, но может также создать барьеры для входа для стартапов, которые не имеют ресурсов для соответствия всем требованиям.
Перспектива национального стандарта
Эксперты предполагают, что если SB 5 будет успешно принят и реализован, он может стать прецедентом для других штатов и даже федерального правительства. Коннектикут уже показал, что возможно разработать комплексное законодательство об ИИ, которое одновременно регулирует опасности и инвестирует в будущее.
«SB 5 Коннектикута может стать чертежом для национального регулирования ИИ в США»
Заключение
Senate Bill 5 Коннектикута представляет собой амбициозную попытку создать всеобъемлющую правовую базу для регулирования ИИ. С его 97 страницами, он охватывает все — от катастрофических рисков до защиты несовершеннолетних в чат-ботах, от трудовых отношений до инвестиций в образование. Хотя закон может столкнуться с конституционными вызовами и политическими препятствиями в процессе принятия, его концепция и подход к регулированию уже вдохновляют законодателей в других штатах и на федеральном уровне. 2026 год может стать годом, когда ИИ-регулирование в США начало обретать четкие контуры.
Изучите будущее ИИ и регулирования
Курс «AI-грамотность» охватывает политику, право и практику применения ИИ
Начать обучение →Теги:
Коннектикут SB 5 Закон об ИИ Регулирование Чат-боты Трудовое право Катастрофические риски AI Academy