نگرانی از نقض حریم خصوصی؛ ایتالیا «چت جی‌پی‌تی» را ممنوع می‌کند

یک نهاد نظارتی در ایتالیا روز جمعه ممنوعیت فوری دسترسی به ربات چتِ محبوبِ مبتنی بر هوش مصنوعی ساخته شرکت آمریکایی «اُپن اِی. آی. / OpenAI» به دلیل ادعای نقض حریم خصوصی را صادر کرد.

کد خبر: ۱۴۷۴۰۱
۰۸:۳۲ - ۱۲ فروردين ۱۴۰۲

دیدارنیوز: در بیانیه‌ای «سازمان ملی ایتالیا برای حفاظت از داده‌های شخصی» آمده است که «چت جی. پی. تی. / ChatGPT» «در تاریخ بیستم مارس در خصوص مکالمات کاربران و جزئیات پرداختی مشترکان خدمات پرداخت، دچار نقض داده شده است».

این ناظر گفت که این تصمیم «فورا اجرایی خواهد شد» و منجر به «محدودیت موقت پردازش داده‌های کاربران ایتالیایی از سوی OpenAI [مالک چت جی. پی. تی.]می‌شود.»

«چت جی‌پی‌تی» در نوامبر ۲۰۲۲ راه‌اندازی شد و از آن زمان بسیار محبوب شده است. این ربات توانایی این را دارد تا مسائل پیچیده را به طور واضح و مختصر توضیح دهد، به سبک‌ها و زبان‌های مختلف و با الحان مختلف بنویسد، شعر بسراید و حتی به سوالات امتحان جواب دهد. همچنین «چت جی‌پی‌تی» می‌تواند برای نوشتن کد‌های کامپیوتری بدون داشتن دانش فنی استفاده شود.

دلایل فنی مطرح شده چیست؟

این سازمان مقرراتی ایتالیایی در وهله‌ی اول، «چت جی‌پی‌تی» را به دلیل «عدم ارائه اخطار اطلاعاتی» به کاربرانی که داده‌های آن‌ها توسط OpenAI جمع‌آوری می‌شود واکنش نشان داد؛ و نسبت به «فقدان مبنای قانونی برای جمع‌آوری و ذخیره‌سازی انبوه داده‌های شخصی با هدف آموزش الگوریتم‌هایی که این پلتفرم را اجرا می‌کنند» انتقاد کرد.

علاوه بر این، در حالی که این ربات برای کاربران بالای ۱۳ سال در نظر گرفته شده است، اما به گفته نهاد نظارتی ایتالیا، «عدم وجود فیلتر برای تأیید سن کاربران، خردسالان را در معرض پاسخ‌هایی قرار می‌دهد که مطابق با سطح رشد آن‌ها نیست.»

این سازمان از OpenAI خواسته است تا برای اصلاح این وضعیت، اقدامات لازم را ظرف ۲۰ روز اعلام کند، در غیر این صورت امکان دارد تا ۴ درصد از گردش مالی سالانه خود در سراسر جهان جریمه می‌شود.

این اعلامیه در حالی منتشر می‌شود که آژانس پلیسی اروپا موسوم به «یوروپل» روز دوشنبه هشدار داد که مجرمان اینترنتی در کمین هستند تا با استفاده از چت ربات‌های هوش مصنوعی برای ارتکاب کلاهبرداری و سایر جرایم سایبری به اهداف خود دست یابند.

یوروپل در گزارشی اعلام کرد که قابلیت رو به رشد چت بات‌ها احتمالا به سرعت توسط افرادی که قصد سوء استفاده دارند به طرق مختلف همچون «فیشینگ / phishing» و درز اطلاعات نادرست و بدافزارها، مورد سوء استفاده قرار می‌گیرند.

ایلان ماسک و صد‌ها کارشناس دیگر در سطح جهان، این هفته هشدار دادند که سامانه‌های هوش مصنوعی «خطرات عمیقی برای جامعه و بشریت» دارند و از شرکت‌ها خواستند که توسعه بیشتر این فناوری را حداقل برای شش ماه متوقف کنند.

ارسال نظرات
نام:
ایمیل:
نظر: