• bitcoinBitcoin (BTC) $ 88,035.00
  • ethereumEthereum (ETH) $ 2,949.60
  • tetherTether (USDT) $ 0.998545
  • usd-coinUSDC (USDC) $ 0.999573
  • tronTRON (TRX) $ 0.294097
  • dogecoinDogecoin (DOGE) $ 0.121714
  • cardanoCardano (ADA) $ 0.349335
  • bitcoin-cashBitcoin Cash (BCH) $ 580.05
  • moneroMonero (XMR) $ 464.84
  • leo-tokenLEO Token (LEO) $ 9.22
  • chainlinkChainlink (LINK) $ 11.60
  • stellarStellar (XLM) $ 0.206546
  • zcashZcash (ZEC) $ 365.54
  • litecoinLitecoin (LTC) $ 67.93
  • hedera-hashgraphHedera (HBAR) $ 0.104358
  • daiDai (DAI) $ 0.999791
  • crypto-com-chainCronos (CRO) $ 0.089168
  • okbOKB (OKB) $ 103.55
  • ethereum-classicEthereum Classic (ETC) $ 11.28
  • kucoin-sharesKuCoin (KCS) $ 10.73
  • algorandAlgorand (ALGO) $ 0.122479
  • cosmosCosmos Hub (ATOM) $ 2.18
  • vechainVeChain (VET) $ 0.009952
  • dashDash (DASH) $ 55.64
  • tezosTezos (XTZ) $ 0.524065
  • true-usdTrueUSD (TUSD) $ 0.998478
  • iotaIOTA (IOTA) $ 0.083817
  • decredDecred (DCR) $ 18.19
  • basic-attention-tokenBasic Attention (BAT) $ 0.165660
  • neoNEO (NEO) $ 3.46
  • qtumQtum (QTUM) $ 1.23
  • ravencoinRavencoin (RVN) $ 0.006708
  • 0x0x Protocol (ZRX) $ 0.125484
  • wavesWaves (WAVES) $ 0.637704
  • iconICON (ICX) $ 0.052090
  • ontologyOntology (ONT) $ 0.059558
  • paxos-standardPax Dollar (USDP) $ 0.999289
  • liskLisk (LSK) $ 0.170808
  • huobi-tokenHuobi (HT) $ 0.197693
  • bitcoin-goldBitcoin Gold (BTG) $ 0.568659
  • nemNEM (XEM) $ 0.000856
  • augurAugur (REP) $ 0.825630
Регулирование

«Внимание, контент сгенерирован»: в Южной Корее вступил в силу закон о регулировании ИИ

Южная Корея ввела в действие Framework Act on the Development of Artificial Intelligence and Establishment of Trust, известный как AI Basic Act, который вступил в силу 22 января 2026 года. Закон устанавливает всеобъемлющие правила для регулирования искусственного интеллекта и становится одним из первых подобных актов в мире.

Высокорискованный ИИ под строгим контролем

Закон вводит понятие «высокорискованного ИИ» и включает в него все системы, способные существенно влиять на жизнь, безопасность и фундаментальные права человека. В категорию попадают системы в сферах энергоснабжения, производства питьевой воды, здравоохранения, ядерной безопасности, анализа биометрических данных для уголовных расследований, оценки занятости и кредитов, транспорта, государственных решений и образования. В этих областях операторы ИИ обязаны обеспечивать контроль человека и надзор.

Требования к прозрачности и маркировке

AI Basic Act требует от операторов ИИ заранее уведомлять пользователей о том, что продукт или услуга основаны на искусственном интеллекте. Особые требования действуют для генеративного ИИ — необходимо уведомлять, что контент сгенерирован ИИ. Для виртуальных звуков, изображений или видео, трудно отличимых от реальных, требуется четко указывать на их ИИ-происхождение. Исключение может применяться для художественных работ, чтобы не мешать их восприятию.

Операторы должны внедрять комплексные меры по обеспечению безопасности. Среди них — идентификация, оценка и минимизация рисков на протяжении всего жизненного цикла ИИ, создание системы мониторинга инцидентов, планы риск-менеджмента, объяснения выводов ИИ где технически возможно, меры защиты пользователей и хранение документов о мерах безопасности.

Национальный комитет по надзору

Для надзора создан Национальный комитет по ИИ под председательством президента. Орган состоит из до 45 членов, включая глав агентств, экспертов и представителей. Комитет разрабатывает планы, стратегии исследований и разработок, инвестиций и улучшения регуляций. Срок функционирования комитета составляет пять лет с даты вступления закона в силу.

Закон закрепляет принципы этики ИИ, включая безопасность и надежность для предотвращения вреда жизни и здоровью, доступность продуктов ИИ для всех, вклад в благополучие человека. Также предусмотрены меры по созданию доверенной среды использования ИИ, прогнозированию воздействия, поддержке сертификации, образованию и автономным регуляциям.

Штрафы за нарушения

За нарушение требований прозрачности, включая отсутствие уведомлений или маркировки, предусмотрены административные штрафы до 30 млн вон. Правительство может поддерживать верификацию и сертификацию ИИ для обеспечения безопасности. Закон устанавливает основу для развития ИИ, включая мастер-план каждые три года, поддержку исследований и разработок, стандартизацию, создание кластеров и дата-центров, подготовку экспертов.

Глобальный контекст регулирования ИИ

Принятие AI Basic Act происходит на фоне активного развития регулирования ИИ в разных странах. Европейский Союз принял AI Act, который вступил в силу 1 августа 2024 года и определяется как первая всеобъемлющая правовая рамка по ИИ в мире. Закон устанавливает правила для высокорискованных ИИ-систем с обязательной оценкой рисков, прозрачностью и человеческим надзором, с полным внедрением к 2026 году.

Китай ввел временные правила управления услугами генеративного ИИ в июле 2023 года, которые стали первыми глобальными правилами такого рода. Они требуют использования легальных источников данных, маркировки контента и мер по предотвращению дезинформации. В октябре 2025 года Китай внес поправки в закон о кибербезопасности, добавив статью о безопасном развитии ИИ, которая вступает в силу 1 января 2026 года.

Вступление в силу AI Basic Act в Южной Корее отражает растущую глобальную тенденцию к регулированию искусственного интеллекта. Закон фокусируется на балансе между инновациями и безопасностью, устанавливая четкие требования для высокорискованных систем и генеративного ИИ.

Южнокорейский подход к регулированию ИИ может служить примером для других стран, разрабатывающих собственные правовые рамки в этой сфере. Создание специального надзорного органа и системы штрафов демонстрирует серьезность намерений властей в области контроля за развитием технологий искусственного интеллекта.

Мнение ИИ

С точки зрения геополитической стратегии южнокорейский AI Basic Act представляет попытку занять лидирующие позиции в «гонке регулирования» технологий. Европа задала тон с AI Act, Китай сосредоточился на генеративном ИИ, а Южная Корея выбрала более узкий фокус на высокорискованных системах — подход, который может оказаться более практичным для быстрой имплементации.

Анализ закона показывает интересную деталь: штрафы в 30 млн вон (около $22 000) кажутся символическими для крупных корпораций, но могут оказаться критичными для стартапов. Такая асимметрия может непреднамеренно укрепить позиции технологических гигантов, которые легче переносят регуляторные издержки. Получается, что закон о демократизации ИИ рискует привести к его большей концентрации.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»