top of page

Італійський регулятор виявив, що ChatGPT порушує правила захисту даних Європейського Союзу 



Італійський регулятор захисту даних дійшов висновку, що популярний чат-бот ChatGPT, розроблений компанією OpenAI, порушив правила захисту персональних даних Європейського Союзу. Регулятор виявив низку порушень, пов'язаних зі збором та використанням персональних даних користувачів.


Які саме порушення було виявлено?


  • Масовий збір даних: Регулятор стурбований тим, що ChatGPT збирає надмірну кількість персональних даних користувачів, які потім використовуються для навчання алгоритму. Ці дані можуть містити імена, електронні адреси, IP-адреси та навіть тексти повідомлень.


  • Відсутність прозорості: Існує недостатня ясність щодо того, як саме збираються, зберігаються та використовуються дані користувачів. GDPR вимагає від компаній бути прозорими щодо цих процесів.


  • Необґрунтований збір даних: Є сумніви, що для навчання алгоритму необхідна така велика кількість даних. Регулятор вважає, що OpenAI збирає більше даних, ніж потрібно для функціонування ChatGPT.


  • Ризики для дітей: Існує занепокоєння, що чат-бот може генерувати контент, невідповідний для дітей. Наприклад, він може створювати тексти насильницького чи дискримінаційного характеру.


Що буде далі?


OpenAI має 30 днів, щоб відповісти на звинувачення італійського регулятора. Компанія може спробувати оскаржити рішення або погодитися із ним та вжити заходів щодо усунення порушень. Якщо регулятор визнає порушення серйозними, він може накласти на OpenAI штраф у розмірі до 4% від глобального річного обороту.


Чому це важливо?


Це рішення є важливим прецедентом для регулювання штучного інтелекту в ЄС. Воно показує, що компанії, які розробляють чат-боти та інші інструменти штучного інтелекту, повинні дотримуватися правил захисту персональних даних. Це також є нагадуванням про необхідність розробки відповідального штучного інтелекту, який не створює ризиків для дітей та інших вразливих груп населення.


Commentaires


Top Stories

bottom of page