Европейский совет по защите данных заявил, что ChatGPT не соответствует стандартам точности данных

Рабочая группа при наблюдательном совете ЕС по конфиденциальности заявила, что усилия OpenAI по уменьшению количества ложных ответов от их чат-бота ChatGPT недостаточны для достижения полного соответствия правилам Европейского Союза по обработке данных, передает УНН со ссылкой на Reuters.

Хотя меры, принятые для соблюдения принципа прозрачности, полезны для избежания неправильного толкования результатов ChatGPT, их недостаточно для соблюдения принципа точности данных 

– говорится в отчете рабочей группы.

В прошлом году, после беспокойства от национальных регуляторов, во главе с итальянскими властями, относительно широко используемого сервиса искусственного интеллекта, европейский орган, координирующий национальные органы по конфиденциальности, создал рабочую группу по ChatGPT.

“На самом деле, из-за вероятностного характера системы, нынешний подход к обучению приводит к модели, которая также может давать предвзятые или вымышленные результаты. Кроме того, результаты, предоставленные ChatGPT, вероятно, будут восприняты конечными пользователями как фактически точные, включая информацию, касающуюся отдельных лиц, независимо от их фактической точности”, – говорится в отчете.

Напомним

OpenAI подписал соглашение, с вероятной стоимостью более 250 миллионов долларов с News Corp (американский транснациональный медиахолдинг). Благодаря сделке планируется научить ChatGPT работать с архивами ряда известных СМИ. ИИ получит доступ к контенту, который защищен авторским правом.

Источник