هشدار بریتانیا درباره هوش مصنوعی

بله، جدولت و نهادهای تخصصی بریتانیا در ماه‌های اخیر به طور جدی و مکرر درباره خطرات و چالش‌های ناشی از هوش مصنوعی (AI) هشدارهایی را مطرح کرده‌اند. این کشور با میزبانی اولین “الاس جهانی ایمنی هوش مصنوعی” در بلچلی پارک، خود را به عنوان یکی از پیشگامان جهانی در زمینه مدیریت ریسک‌های این فناوری معرفی کرده است. همراه ما در نُدشاپ باشید.

هشدار بریتانیا را می‌توان در چند حوزه کلیدی دسته‌بندی کرد:

هشدار بریتانیا درباره هوش مصنوعی

۱. تهدیدهای امنیت ملی و ژئوپلیتیک

مقامات بلندپایه بریتانیا، از جمله معاون نخست‌وزیر، هشدار داده‌اند که سرعت پیشرفت هوش مصنوعی از قوانین نظارتی جهانی پیشی گرفته و این فناوری پتانسیل بی‌ثبات کردن نظم جهانی را دارد.

  • استفاده توسط دولت‌های متخاصم: نگرانی جدی در مورد استفاده از هوش مصنوعی توسط کشورهایی مانند روسیه و چین برای حملات سایبری پیچیده، انتشار اطلاعات نادرست (Disinformation) و جاسوسی وجود دارد.
  • توسعه تسلیحات: یکی از بزرگترین نگرانی‌ها، استفاده از هوش مصنوعی در توسعه سلاح‌های شیمیایی، بیولوژیکی و سیستم‌های تسلیحاتی خودکار است که می‌تواند امنیت جهانی را به شدت به خطر اندازد.
  • مسابقه تسلیحاتی AI: رقابت جهانی برای دستیابی به برتری در هوش مصنوعی، می‌تواند به یک مسابقه تسلیحاتی خطرناک منجر شود که در آن ایمنی و اخلاق نادیده گرفته شوند.

۲. خطرات سایبری فراگیر

مرکز ملی امنیت سایبری بریتانیا (NCSC) به طور مشخص هشدار داده است که هوش مصنوعی چشم‌انداز تهدیدات سایبری را به کلی دگرگون خواهد کرد:

  • افزایش حجم و پیچیدگی حملات: AI به هکرها (چه حرفه‌ای و چه مبتدی) اجازه می‌دهد تا حملات سایبری مؤثرتر، گسترده‌تر و پیچیده‌تری را با سرعت بسیار بالا طراحی و اجرا کنند.
  • کاهش آستانه ورود برای مجرمان: ابزارهای هوش مصنوعی به مجرمان با دانش فنی کم نیز این قدرت را می‌دهند که بدافزارهای کارآمد تولید کرده و حملات فیشینگ بسیار متقاعدکننده‌ای طراحی کنند.
  • اکتشاف سریع آسیب‌پذیری‌ها: هوش مصنوعی می‌تواند به سرعت آسیب‌پذیری‌ها را در نرم‌افزارها و شبکه‌ها شناسایی کند و زمان بین کشف یک ضعف امنیتی و سوءاستفاده از آن را به شدت کاهش دهد.

۳. اطلاعات نادرست و تهدید دموکراسی

یکی از فوری‌ترین هشدارها مربوط به تأثیر هوش مصنوعی بر فرآیندهای دموکراتیک، به ویژه انتخابات است.

  • تولید دیپ‌فیک (Deepfake): تولید ویدئوها و صداهای جعلی بسیار واقع‌گرایانه از سیاستمداران برای فریب افکار عمومی و بی‌اعتبار کردن انتخابات، یک نگرانی بزرگ است.۲
  • کمپین‌های دروغ‌پراکنی: هوش مصنوعی می‌تواند به طور خودکار محتوای گمراه‌کننده تولید و آن را به صورت هدفمند در شبکه‌های اجتماعی منتشر کند تا باعث تشدید اختلافات اجتماعی و سیاسی شود.

۴. ریسک‌های وجودی و از کنترل خارج شدن (Existential Risks)

بریتانیا در کنار کشورهایی مانند آمریکا، به طور رسمی نگرانی خود را از “خطرات وجودی” هوش مصنوعی اعلام کرده است. این سناریو که زمانی تنها در داستان‌های علمی-تخیلی مطرح بود، اکنون به یک موضوع جدی در مباحثات دولتی تبدیل شده است.

  • از دست دادن کنترل: این نگرانی وجود دارد که سیستم‌های هوش مصنوعی پیشرفته (که گاهی AGI یا هوش مصنوعی عمومی نامیده می‌شوند) به سطحی از هوشمندی برسند که دیگر توسط انسان قابل کنترل نباشند و اقداماتی انجام دهند که با منافع بشریت در تضاد است.
  • ریسک‌های فاجعه‌بار: در “اعلامیه بلچلی” که در اجلاس ایمنی هوش مصنوعی به امضا رسید، به صراحت ذکر شده است که هوش مصنوعی می‌تواند خطرات فاجعه‌باری برای بشریت، در مقیاس همه‌گیری‌ها و جنگ هسته‌ای، به همراه داشته باشد.

رویکرد و اقدامات بریتانیا

در پاسخ به این هشدارها، بریتانیا یک رویکرد دوگانه “نوآوری و ایمنی” را در پیش گرفته است:

  1. تأسیس موسسه ایمنی هوش مصنوعی (AI Safety Institute): این موسسه که اولین نمونه در جهان است، وظیفه دارد تا مدل‌های هوش مصنوعی پیشرفته را قبل از عرضه به بازار، از نظر ایمنی و ریسک‌های احتمالی آزمایش و ارزیابی کند.
  2. دیپلماسی و همکاری بین‌المللی: بریتانیا با برگزاری اجلاس جهانی و امضای “اعلامیه بلچلی” با بیش از ۲۵ کشور (از جمله آمریکا، چین و اتحادیه اروپا)، تلاش دارد تا یک اجماع جهانی برای مدیریت خطرات هوش مصنوعی ایجاد کند.
  3. رویکرد نظارتی منعطف: برخلاف اتحادیه اروپا که با “قانون هوش مصنوعی” (AI Act) به سمت قانون‌گذاری سخت‌گیرانه حرکت کرده، بریتانیا فعلاً رویکردی منعطف‌تر را ترجیح می‌دهد تا از خفه شدن نوآوری جلوگیری کند، اما همزمان بر روی شناسایی و کاهش ریسک‌ها متمرکز است.

در مجموع، بریتانیا با جدیت تمام خطرات هوش مصنوعی را در سطوح مختلف از امنیت سایبری گرفته تا تهدیدات وجودی شناسایی کرده و تلاش دارد تا با ترکیبی از تخصص فنی، دیپلماسی بین‌المللی و نظارت هوشمند، این فناوری قدرتمند را در مسیری امن و مفید برای بشریت هدایت کند.

رویکرد و اقدامات بریتانیا

سازمان داده پردازی بریتانیا درباره حفاظت از دیتا های هوش مصنوعی هشدار داد!

دفتر داده پردازی بریتانیا به دیگر سازمان‌ ها یادآوری کرد که قوانین حفاظت از داده‌ ها همچنان در مورد داده‌ های فیلتر نشده مورد استفاده برای آموزش مدل‌ های گسترش زبان* “”large language اعمال می‌ شود.

این دفتر همچنین هشداری به شرکت‌ های فناوری درباره محافظت از اطلاعات شخصی هنگام توسعه و استقرار مدل‌ های هوش مصنوعی تولید شده با “”large language صادر کرده است.

کمتر از یک هفته پس از اینکه تنظیم‌ کننده حریم خصوصی داده ایتالیا، چت جی پی تی را به دلیل نقض حریم خصوصی ممنوع کرد، دفتر کمیسیون اطلاعات یک پست وبلاگی منتشر کرد که به سازمان‌ ها یادآوری می‌ کرد که قوانین حفاظت از داده‌ ها همچنان اعمال می‌ شود و اطلاعات شخصی در حال پردازش از منابع در دسترس عموم هستند.

استفان آلموند، مدیر فناوری و نوآوری در این اطلاعیه گفت: سازمان‌ هایی که هوش مصنوعی مولد را توسعه می‌ دهند یا از آن استفاده می‌ کنند، باید با رویکردی پیش‌ فرض تعهدات حفاظت از داده‌ های خود را از همان ابتدا در نظر بگیرند.

آلموند همچنین گفت که در مورد سازمان‌ هایی که داده‌ های شخصی را به منظور توسعه هوش مصنوعی مولد پردازش می‌ کنند، سؤالات مختلفی وجود دارد که باید از خود بپرسند مبنای قانونی آنها برای پردازش داده‌ های شخصی چیست؟ چگونه می توانند خطرات امنیتی را کاهش دهند؟ و چگونه به درخواست های حقوق فردی پاسخ خواهند داد؟

آلموند گفت: «واقعاً هیچ بهانه‌ای برای خطای غیر مسئولانه و پیامدهای حریم خصوصی هوش مصنوعی مولد وجود ندارد». وی اضافه کرد که خود چت جی پی تی اخیراً به او گفته است که «هوش مصنوعی مولد، مانند هر فناوری دیگری، در صورت عدم نظارت جدی، می تواند خطراتی را برای حریم خصوصی داده ها ایجاد کند».

مدیر فناوری و نوآوری ICO و رگولاتور مرکز داده های ایتالیا تنها مراجعی نیستند که اخیراً نگرانی هایی در مورد خطر بالقوه تولیدات هوش مصنوعی ایجاد شده را برای عموم بازتاب می دهند.

ماه گذشته، استیو وزنیاک، یکی از بنیانگذاران اپل، ایلان ماسک، (مالک توییتر) و گروهی متشکل از ۱۱۰۰ نفر از رهبران و دانشمندان فناوری، خواستار توقف شش ماهه در توسعه سیستم‌های قدرتمندتر از چت جی پی تی شدند.

امضاکنندگان در نامه‌ای سرگشاده، آینده‌ای ویران را به تصویر کشیدند و این سوال را مطرح کردند که آیا هوش مصنوعی پیشرفته می‌ تواند منجر به «از دست دادن کنترل تمدن ما» شود، و در عین حال در مورد تهدید بالقوه دموکراسی در صورتی که چت‌ بات‌ هایی که تظاهر به انسان می‌ کنند، می‌ تواند رسانه‌ های اجتماعی را پر از اخبار جعلی و پروپاگاندا کنند، هشدار دادند.

این گروه همچنین ابراز نگرانی کردند که هوش مصنوعی می‌تواند همه مشاغل را خودکار کند.

همچنان بخوانید: تجارت با استفاده هوش مصنوعی

چرا مقررات هوش مصنوعی یک چالش است؟

فرانک بویتندیک، تحلیلگر گارتنر، می‌ گوید: «وقتی نوبت به مهار هوش مصنوعی می‌ رسد، بزرگ‌ ترین چالش این است که نوآوری به‌ قدری سریع پیش می‌ رود که اجرای مقررات با مشکل مواجه می‌شود».

وی همچنین ادامه می دهد: «اگر پیشرفت آنها خیلی سریع باشد، کارایی آنها دشوار است، زیرا اطلاعات وارد شده واضح نیستند».

با این حال، بویتندیک اضافه می کند که این مقررات نیست که در نهایت می تواند نوآوری هوش مصنوعی را خفه کند، بلکه در عوض، از دست دادن اعتماد اجتماعی به دلیل اشتباهات است که بسیار پرهزینه خواهد بود.

بویتندیک اضافه می کند: «تنظیمات هوش مصنوعی – بررسی مدل‌ها از نظر انحرافات، و تقاضای الگوریتم‌ها برای شفاف‌تر بودن – باعث نوآوری‌های زیادی نیز می‌ شود تا اطمینان حاصل شود که کج‌گرایی و اشتباهات تشخیص داده شود و شفافیت و توضیح‌پذیری قابل دستیابی باشد.»

معرفی محصول :

سوئیچ شبکه C9200L-48T-4G-E

سوئیچ Cisco Catalyst C9200L-48T-4X-E

سوئیچ Cisco Catalyst C9200L-24P-4G-E