سازمان داده پردازی بریتانیا درباره حفاظت از دیتا های هوش مصنوعی هشدار داد!

دفتر داده پردازی بریتانیا به دیگر سازمان‌ ها یادآوری کرد که قوانین حفاظت از داده‌ ها همچنان در مورد داده‌ های فیلتر نشده مورد استفاده برای آموزش مدل‌ های گسترش زبان* “”large language اعمال می‌ شود.

این دفتر همچنین هشداری به شرکت‌ های فناوری درباره محافظت از اطلاعات شخصی هنگام توسعه و استقرار مدل‌ های هوش مصنوعی تولید شده با “”large language صادر کرده است.

کمتر از یک هفته پس از اینکه تنظیم‌ کننده حریم خصوصی داده ایتالیا، چت جی پی تی را به دلیل نقض حریم خصوصی ممنوع کرد، دفتر کمیسیون اطلاعات یک پست وبلاگی منتشر کرد که به سازمان‌ ها یادآوری می‌ کرد که قوانین حفاظت از داده‌ ها همچنان اعمال می‌ شود و اطلاعات شخصی در حال پردازش از منابع در دسترس عموم هستند.

استفان آلموند، مدیر فناوری و نوآوری در این اطلاعیه گفت: سازمان‌ هایی که هوش مصنوعی مولد را توسعه می‌ دهند یا از آن استفاده می‌ کنند، باید با رویکردی پیش‌ فرض تعهدات حفاظت از داده‌ های خود را از همان ابتدا در نظر بگیرند.

آلموند همچنین گفت که در مورد سازمان‌ هایی که داده‌ های شخصی را به منظور توسعه هوش مصنوعی مولد پردازش می‌ کنند، سؤالات مختلفی وجود دارد که باید از خود بپرسند مبنای قانونی آنها برای پردازش داده‌ های شخصی چیست؟ چگونه می توانند خطرات امنیتی را کاهش دهند؟ و چگونه به درخواست های حقوق فردی پاسخ خواهند داد؟

آلموند گفت: «واقعاً هیچ بهانه‌ای برای خطای غیر مسئولانه و پیامدهای حریم خصوصی هوش مصنوعی مولد وجود ندارد». وی اضافه کرد که خود چت جی پی تی اخیراً به او گفته است که «هوش مصنوعی مولد، مانند هر فناوری دیگری، در صورت عدم نظارت جدی، می تواند خطراتی را برای حریم خصوصی داده ها ایجاد کند».

مدیر فناوری و نوآوری ICO و رگولاتور مرکز داده های ایتالیا تنها مراجعی نیستند که اخیراً نگرانی هایی در مورد خطر بالقوه تولیدات هوش مصنوعی ایجاد شده را برای عموم بازتاب می دهند.

ماه گذشته، استیو وزنیاک، یکی از بنیانگذاران اپل، ایلان ماسک، (مالک توییتر) و گروهی متشکل از 1100 نفر از رهبران و دانشمندان فناوری، خواستار توقف شش ماهه در توسعه سیستم‌های قدرتمندتر از چت جی پی تی شدند.

امضاکنندگان در نامه‌ای سرگشاده، آینده‌ای ویران را به تصویر کشیدند و این سوال را مطرح کردند که آیا هوش مصنوعی پیشرفته می‌ تواند منجر به «از دست دادن کنترل تمدن ما» شود، و در عین حال در مورد تهدید بالقوه دموکراسی در صورتی که چت‌ بات‌ هایی که تظاهر به انسان می‌ کنند، می‌ تواند رسانه‌ های اجتماعی را پر از اخبار جعلی و پروپاگاندا کنند، هشدار دادند.

این گروه همچنین ابراز نگرانی کردند که هوش مصنوعی می‌تواند همه مشاغل را خودکار کند.

چرا مقررات هوش مصنوعی یک چالش است؟

فرانک بویتندیک، تحلیلگر گارتنر، می‌ گوید: «وقتی نوبت به مهار هوش مصنوعی می‌ رسد، بزرگ‌ ترین چالش این است که نوآوری به‌ قدری سریع پیش می‌ رود که اجرای مقررات با مشکل مواجه می‌شود».

وی همچنین ادامه می دهد: «اگر پیشرفت آنها خیلی سریع باشد، کارایی آنها دشوار است، زیرا اطلاعات وارد شده واضح نیستند».

با این حال، بویتندیک اضافه می کند که این مقررات نیست که در نهایت می تواند نوآوری هوش مصنوعی را خفه کند، بلکه در عوض، از دست دادن اعتماد اجتماعی به دلیل اشتباهات است که بسیار پرهزینه خواهد بود.

بویتندیک اضافه می کند: «تنظیمات هوش مصنوعی – بررسی مدل‌ها از نظر انحرافات، و تقاضای الگوریتم‌ها برای شفاف‌تر بودن – باعث نوآوری‌های زیادی نیز می‌ شود تا اطمینان حاصل شود که کج‌گرایی و اشتباهات تشخیص داده شود و شفافیت و توضیح‌پذیری قابل دستیابی باشد.»

……………………………

* مدل‌های گسترش زبان، برنامه‌های رایانه‌ای هستند که امکانات جدیدی را برای درک و تولید متن در سیستم‌های نرم‌افزاری باز تولید می‌کنند.