На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы недели

99 059 подписчиков

Свежие комментарии

  • людмила михайлик
    Выходите за бойцов СВО и рожайтеАвтор видео с при...
  • Игорь Васиков
    Баку и Ереван близко к Британии, а что эти две марионетки сделают - вопрос времени...Ильхам Алиев: Бак...
  • Сергей Олейников
    Мало, нужно еще и общественные туалеты мыть зубными щетками...Автор видео с при...

Госданные могут быть использованы для проверки модели ИИ

Последние новости о планах российского правительства проверить модели ИИ, обученные на госданных, на предмет угроз безопасности, подняли волну дискуссий. Вопрос использования госданных для обучения нейросетей — это не просто техническая задача, а сложная проблема, затрагивающая вопросы нацбезопасности, конфиденциальности и этики.



Идея использовать огромные массивы персональных данных для обучения ИИ кажется заманчивой: совершенствование систем анализа данных, повышение эффективности государственного управления, создание инновационных сервисов. Однако подобный подход чреват серьёзными последствиями, если не обеспечена должная безопасность. Речь идёт не только о потенциальной утечке информации, но и о возможности использования таких моделей для манипулирования, дискриминации или даже прямых атак на государственные структуры.

В настоящее время законодательная база в области использования ИИ и защиты данных в России находится в стадии формирования. Отсутствует чёткий регламент, определяющий допустимые границы использования государственных данных для обучения нейросетей. Это создаёт правовую неопределённость и увеличивает риски. Проверка моделей ИИ на безопасность, запланированная правительством, — это важный, но недостаточный шаг.

Читайте больше новостей в нашем Дзен и Telegram

 

Ссылка на первоисточник
наверх