ایتالیا به دلیل نقض قوانین حریم خصوصی، OpenAI را جریمه کرد

مقامات حفاظت از دادههای ایتالیا روز جمعه اعلام کردند که شرکت OpenAI، سازنده ChatGPT، را به دلیل نقض قوانین حریم شخصی کاربران، به پرداخت ۱۵ میلیون یورو (۱۵.۵۸ میلیون دلار) جریمه کرده است.
به گزارش برندسازی به نقل از رویترز، این جریمه پس از آن اعمال شد که مقامات ایتالیایی دریافتند که OpenAI از دادههای شخصی کاربران برای آموزش ChatGPT بدون داشتن پایه قانونی کافی استفاده کرده و اصل شفافیت و تعهدات اطلاعاتی مربوط به کاربران را نقض کرده است.
OpenAI این تصمیم را «نامتناسب» خواند و اعلام کرد که قصد دارد علیه آن تجدید نظر کند.
تحقیقاتی که در سال ۲۰۲۳ آغاز شد، همچنین نتیجه گرفت که این شرکت مستقر در ایالات متحده، سیستم تأیید سن کافی برای جلوگیری از قرار گرفتن کودکان زیر ۱۳ سال در معرض محتوای نامناسب تولید شده توسط هوش مصنوعی را نداشته است.
مقامات ایتالیایی همچنین به OpenAI دستور دادند تا یک کمپین شش ماهه در رسانههای ایتالیا برای افزایش آگاهی عمومی در مورد نحوه عملکرد ChatGPT، به ویژه در مورد جمعآوری دادههای کاربران و غیر کاربران برای آموزش الگوریتمها، راهاندازی کند.
مقامات ایتالیا، معروف به Garante، یکی از فعالترین نهادهای نظارتی اتحادیه اروپا در ارزیابی انطباق پلتفرمهای هوش مصنوعی با رژیم حریم خصوصی این اتحادیه است.
سال گذشته، این نهاد استفاده از ChatGPT را در ایتالیا به دلیل ادعای نقض قوانین حریم خصوصی اتحادیه اروپا به طور موقت ممنوع کرد.
این سرویس پس از اینکه مایکروسافت، حامی مالی OpenAI، مسائل مربوط به حق کاربران برای رد استفاده از دادههای شخصی برای آموزش الگوریتمها را برطرف کرد، دوباره فعال شد.
OpenAI گفت: «آنها از رویکرد پیشرو ما در محافظت از حریم خصوصی در هوش مصنوعی قدردانی کردهاند، اما این جریمه تقریباً بیست برابر درآمدی است که ما در این دوره در ایتالیا کسب کردهایم.» این شرکت افزود که رویکرد Garante «اهداف هوش مصنوعی ایتالیا را تضعیف میکند».
مقامات نظارتی گفتند که میزان جریمه ۱۵ میلیون یورویی با توجه به «موضع همکاری OpenAI» محاسبه شده است و این نشان میدهد که این جریمه میتوانست حتی بیشتر باشد.
طبق مقررات عمومی حفاظت از دادههای اتحادیه اروپا (GDPR) که در سال ۲۰۱۸ معرفی شد، هر شرکتی که تخلف کند، با جریمهای تا ۲۰ میلیون یورو یا ۴ درصد از گردش مالی جهانی خود مواجه میشود.