هشدار بریتانیا درباره هوش مصنوعی

هشدار بریتانیا درباره هوش مصنوعی
بله، جدولت و نهادهای تخصصی بریتانیا در ماههای اخیر به طور جدی و مکرر درباره خطرات و چالشهای ناشی از هوش مصنوعی (AI) هشدارهایی را مطرح کردهاند. این کشور با میزبانی اولین “الاس جهانی ایمنی هوش مصنوعی” در بلچلی پارک، خود را به عنوان یکی از پیشگامان جهانی در زمینه مدیریت ریسکهای این فناوری معرفی کرده است. همراه ما در نُدشاپ باشید.
هشدار بریتانیا را میتوان در چند حوزه کلیدی دستهبندی کرد:
۱. تهدیدهای امنیت ملی و ژئوپلیتیک
مقامات بلندپایه بریتانیا، از جمله معاون نخستوزیر، هشدار دادهاند که سرعت پیشرفت هوش مصنوعی از قوانین نظارتی جهانی پیشی گرفته و این فناوری پتانسیل بیثبات کردن نظم جهانی را دارد.
- استفاده توسط دولتهای متخاصم: نگرانی جدی در مورد استفاده از هوش مصنوعی توسط کشورهایی مانند روسیه و چین برای حملات سایبری پیچیده، انتشار اطلاعات نادرست (Disinformation) و جاسوسی وجود دارد.
- توسعه تسلیحات: یکی از بزرگترین نگرانیها، استفاده از هوش مصنوعی در توسعه سلاحهای شیمیایی، بیولوژیکی و سیستمهای تسلیحاتی خودکار است که میتواند امنیت جهانی را به شدت به خطر اندازد.
- مسابقه تسلیحاتی AI: رقابت جهانی برای دستیابی به برتری در هوش مصنوعی، میتواند به یک مسابقه تسلیحاتی خطرناک منجر شود که در آن ایمنی و اخلاق نادیده گرفته شوند.
۲. خطرات سایبری فراگیر
مرکز ملی امنیت سایبری بریتانیا (NCSC) به طور مشخص هشدار داده است که هوش مصنوعی چشمانداز تهدیدات سایبری را به کلی دگرگون خواهد کرد:
- افزایش حجم و پیچیدگی حملات: AI به هکرها (چه حرفهای و چه مبتدی) اجازه میدهد تا حملات سایبری مؤثرتر، گستردهتر و پیچیدهتری را با سرعت بسیار بالا طراحی و اجرا کنند.
- کاهش آستانه ورود برای مجرمان: ابزارهای هوش مصنوعی به مجرمان با دانش فنی کم نیز این قدرت را میدهند که بدافزارهای کارآمد تولید کرده و حملات فیشینگ بسیار متقاعدکنندهای طراحی کنند.
- اکتشاف سریع آسیبپذیریها: هوش مصنوعی میتواند به سرعت آسیبپذیریها را در نرمافزارها و شبکهها شناسایی کند و زمان بین کشف یک ضعف امنیتی و سوءاستفاده از آن را به شدت کاهش دهد.
۳. اطلاعات نادرست و تهدید دموکراسی
یکی از فوریترین هشدارها مربوط به تأثیر هوش مصنوعی بر فرآیندهای دموکراتیک، به ویژه انتخابات است.
- تولید دیپفیک (Deepfake): تولید ویدئوها و صداهای جعلی بسیار واقعگرایانه از سیاستمداران برای فریب افکار عمومی و بیاعتبار کردن انتخابات، یک نگرانی بزرگ است.۲
- کمپینهای دروغپراکنی: هوش مصنوعی میتواند به طور خودکار محتوای گمراهکننده تولید و آن را به صورت هدفمند در شبکههای اجتماعی منتشر کند تا باعث تشدید اختلافات اجتماعی و سیاسی شود.
۴. ریسکهای وجودی و از کنترل خارج شدن (Existential Risks)
بریتانیا در کنار کشورهایی مانند آمریکا، به طور رسمی نگرانی خود را از “خطرات وجودی” هوش مصنوعی اعلام کرده است. این سناریو که زمانی تنها در داستانهای علمی-تخیلی مطرح بود، اکنون به یک موضوع جدی در مباحثات دولتی تبدیل شده است.
- از دست دادن کنترل: این نگرانی وجود دارد که سیستمهای هوش مصنوعی پیشرفته (که گاهی AGI یا هوش مصنوعی عمومی نامیده میشوند) به سطحی از هوشمندی برسند که دیگر توسط انسان قابل کنترل نباشند و اقداماتی انجام دهند که با منافع بشریت در تضاد است.
- ریسکهای فاجعهبار: در “اعلامیه بلچلی” که در اجلاس ایمنی هوش مصنوعی به امضا رسید، به صراحت ذکر شده است که هوش مصنوعی میتواند خطرات فاجعهباری برای بشریت، در مقیاس همهگیریها و جنگ هستهای، به همراه داشته باشد.
رویکرد و اقدامات بریتانیا
در پاسخ به این هشدارها، بریتانیا یک رویکرد دوگانه “نوآوری و ایمنی” را در پیش گرفته است:
- تأسیس موسسه ایمنی هوش مصنوعی (AI Safety Institute): این موسسه که اولین نمونه در جهان است، وظیفه دارد تا مدلهای هوش مصنوعی پیشرفته را قبل از عرضه به بازار، از نظر ایمنی و ریسکهای احتمالی آزمایش و ارزیابی کند.
- دیپلماسی و همکاری بینالمللی: بریتانیا با برگزاری اجلاس جهانی و امضای “اعلامیه بلچلی” با بیش از ۲۵ کشور (از جمله آمریکا، چین و اتحادیه اروپا)، تلاش دارد تا یک اجماع جهانی برای مدیریت خطرات هوش مصنوعی ایجاد کند.
- رویکرد نظارتی منعطف: برخلاف اتحادیه اروپا که با “قانون هوش مصنوعی” (AI Act) به سمت قانونگذاری سختگیرانه حرکت کرده، بریتانیا فعلاً رویکردی منعطفتر را ترجیح میدهد تا از خفه شدن نوآوری جلوگیری کند، اما همزمان بر روی شناسایی و کاهش ریسکها متمرکز است.
در مجموع، بریتانیا با جدیت تمام خطرات هوش مصنوعی را در سطوح مختلف از امنیت سایبری گرفته تا تهدیدات وجودی شناسایی کرده و تلاش دارد تا با ترکیبی از تخصص فنی، دیپلماسی بینالمللی و نظارت هوشمند، این فناوری قدرتمند را در مسیری امن و مفید برای بشریت هدایت کند.
سازمان داده پردازی بریتانیا درباره حفاظت از دیتا های هوش مصنوعی هشدار داد!
دفتر داده پردازی بریتانیا به دیگر سازمان ها یادآوری کرد که قوانین حفاظت از داده ها همچنان در مورد داده های فیلتر نشده مورد استفاده برای آموزش مدل های گسترش زبان* “”large language اعمال می شود.
این دفتر همچنین هشداری به شرکت های فناوری درباره محافظت از اطلاعات شخصی هنگام توسعه و استقرار مدل های هوش مصنوعی تولید شده با “”large language صادر کرده است.
کمتر از یک هفته پس از اینکه تنظیم کننده حریم خصوصی داده ایتالیا، چت جی پی تی را به دلیل نقض حریم خصوصی ممنوع کرد، دفتر کمیسیون اطلاعات یک پست وبلاگی منتشر کرد که به سازمان ها یادآوری می کرد که قوانین حفاظت از داده ها همچنان اعمال می شود و اطلاعات شخصی در حال پردازش از منابع در دسترس عموم هستند.
استفان آلموند، مدیر فناوری و نوآوری در این اطلاعیه گفت: سازمان هایی که هوش مصنوعی مولد را توسعه می دهند یا از آن استفاده می کنند، باید با رویکردی پیش فرض تعهدات حفاظت از داده های خود را از همان ابتدا در نظر بگیرند.
آلموند همچنین گفت که در مورد سازمان هایی که داده های شخصی را به منظور توسعه هوش مصنوعی مولد پردازش می کنند، سؤالات مختلفی وجود دارد که باید از خود بپرسند مبنای قانونی آنها برای پردازش داده های شخصی چیست؟ چگونه می توانند خطرات امنیتی را کاهش دهند؟ و چگونه به درخواست های حقوق فردی پاسخ خواهند داد؟
آلموند گفت: «واقعاً هیچ بهانهای برای خطای غیر مسئولانه و پیامدهای حریم خصوصی هوش مصنوعی مولد وجود ندارد». وی اضافه کرد که خود چت جی پی تی اخیراً به او گفته است که «هوش مصنوعی مولد، مانند هر فناوری دیگری، در صورت عدم نظارت جدی، می تواند خطراتی را برای حریم خصوصی داده ها ایجاد کند».
مدیر فناوری و نوآوری ICO و رگولاتور مرکز داده های ایتالیا تنها مراجعی نیستند که اخیراً نگرانی هایی در مورد خطر بالقوه تولیدات هوش مصنوعی ایجاد شده را برای عموم بازتاب می دهند.
ماه گذشته، استیو وزنیاک، یکی از بنیانگذاران اپل، ایلان ماسک، (مالک توییتر) و گروهی متشکل از ۱۱۰۰ نفر از رهبران و دانشمندان فناوری، خواستار توقف شش ماهه در توسعه سیستمهای قدرتمندتر از چت جی پی تی شدند.
امضاکنندگان در نامهای سرگشاده، آیندهای ویران را به تصویر کشیدند و این سوال را مطرح کردند که آیا هوش مصنوعی پیشرفته می تواند منجر به «از دست دادن کنترل تمدن ما» شود، و در عین حال در مورد تهدید بالقوه دموکراسی در صورتی که چت بات هایی که تظاهر به انسان می کنند، می تواند رسانه های اجتماعی را پر از اخبار جعلی و پروپاگاندا کنند، هشدار دادند.
این گروه همچنین ابراز نگرانی کردند که هوش مصنوعی میتواند همه مشاغل را خودکار کند.
همچنان بخوانید: تجارت با استفاده هوش مصنوعی
چرا مقررات هوش مصنوعی یک چالش است؟
فرانک بویتندیک، تحلیلگر گارتنر، می گوید: «وقتی نوبت به مهار هوش مصنوعی می رسد، بزرگ ترین چالش این است که نوآوری به قدری سریع پیش می رود که اجرای مقررات با مشکل مواجه میشود».
وی همچنین ادامه می دهد: «اگر پیشرفت آنها خیلی سریع باشد، کارایی آنها دشوار است، زیرا اطلاعات وارد شده واضح نیستند».
با این حال، بویتندیک اضافه می کند که این مقررات نیست که در نهایت می تواند نوآوری هوش مصنوعی را خفه کند، بلکه در عوض، از دست دادن اعتماد اجتماعی به دلیل اشتباهات است که بسیار پرهزینه خواهد بود.
بویتندیک اضافه می کند: «تنظیمات هوش مصنوعی – بررسی مدلها از نظر انحرافات، و تقاضای الگوریتمها برای شفافتر بودن – باعث نوآوریهای زیادی نیز می شود تا اطمینان حاصل شود که کجگرایی و اشتباهات تشخیص داده شود و شفافیت و توضیحپذیری قابل دستیابی باشد.»
معرفی محصول :
سوئیچ Cisco Catalyst C9200L-48T-4X-E
سوئیچ Cisco Catalyst C9200L-24P-4G-E