Two large-scale studies have shown that AI-powered chatbots and assistants collect and transmit personal data on a scale that was previously thought impossible.
Манипуляции и пробелы в законах приводят к тому, что пользователи невольно раскрывают системе самые чувствительные сведения.
Учёные из King’s College London выяснили, что вредоносные чат-боты способны вытянуть у собеседников до 12,5 раз больше информации, чем в обычных условиях. Самой действенной техникой оказалось использование «взаимности» — демонстрация сочувствия и поддержки, из-за чего человек чувствует себя в безопасности.
Многие не осознают опасности, а заявления о конфиденциальности только усиливают чувство доверия. По словам доктора Сяо Чжана, такие приёмы настолько просты, что их могут применять даже люди без специальных знаний.
Параллельно исследование UCL, UC Davis и Университета Реджо-Калабрия показало: 9 из 10 популярных ИИ-ассистентов передают конфиденциальные сведения, включая медицинские и банковские данные.
Оба анализа фиксируют серьёзные нарушения правил, в том числе HIPAA и FERPA, и подчёркивают необходимость жёсткого контроля за развитием ИИ. Учёные требуют большей прозрачности и усиленного регулирования.
***
Автор обложки: Justin Sullivan. Источник обложки: Entrepreneur