هوش مصنوعی

رهبران فناوری بدنبال توقف هوش مصنوعی: خطر پایان دنیا توسط هوش مصنوعی!

هوش مصنوعی را فوراً متوقف کنید پیش از آن که خیلی دیر شود!

چندی پیش جمعی از رهبران فناوری دنیا نامه‌ای سرگشاده امضا کردند که در آن خواستار توقف آزمایش‌های هوش مصنوعی شدند. آن‌ها معتقدند که پیشرفت روزافزون هوش مصنوعی، می‌تواند منتهی به بروز خطرات بزرگ حتی در سطح جهانی شود. اما آیا تاکنون به هشدارهای آن‌ها توجه شده است؟ آیا هوش مصنوعی (AI) خطر بالقوه‌ای برای بشریت محسوب می‌شود؟ این دیدگاه موسسه FLI است.

موسسه FLI در سال 2014 تاسیس شد و برروی سه حوزه اصلی خطر در سطح تمدن بشری کار می‌کند: هوش مصنوعی، بیوتکنولوژی و سلاح‌های هسته‌ای. این موسسه شش ماه پیش نامه‌ای سرگشاده منتشر کرد و در آن خواستار توقف فوری آزمایش‌های عظیم هوش مصنوعی شد.

این نامه در میان انبوهی از اقبال عمومی به هوش مصنوعی منتشر شد و از آن زمان توجه همگان را به خود جلب کرده است. درحالی‌که برنامه‌هایی مانند ChatGPT و Midjourney نشان می‌دهند که چگونه هوش مصنوعی روز به روز به کسب توانایی‌های انسان در نوشتن و هنر نزدیک‌تر می‌شود، این موسسه سمت تاریک داستان هوش مصنوعی را هدف قرار می‌دهد.

چه کسانی خواستار توقف هوش مصنوعی هستند؟

چه کسانی خواستار توقف هوش مصنوعی هستند؟

در بین امضاکنندگان نامه توقف هوش مصنوعی، نام‌های بسیار مطرحی شامل ایلان ماسک، مدیرعامل تسلا و اسپیس ایکس و استیو وازنیاک بنیانگذار اپل دیده می‌شود! آن‌ها می‌گویند ظهور ناگهانی هوش مصنوعی نیاز به کمی مکث و تأمل دارد. بنابراین از شرکت‌هایی مانند OpenAI که صاحب هوش مصنوعی مطرح ChatGPT است و همچنین از شرکت Google می‌خواهند تا «خطرات عمیق برای جامعه و بشریت» که ممکن است هوش مصنوعی آن‌ها را ایجاد کند، در نظر بگیرند.

البته بازیکنان اصلی دنیای هوش مصنوعی اصلاً به دکمه توقف هوش مصنوعی فکر نمی‌کنند. بلکه آن‌ها با تمام توان با مدل‌های زبان بزرگ خود (LLM) به مسابقه هوش مصنوعی ملحق شده‌اند. چندی پیش شرکت متا مدل Llama 2 را منتشر کرد و شرکت Anthropic، سازنده رقیب ChatGPT، نسخه دوم هوش مصنوعی Claude خود را به نمایش گذاشت.

صرف نظر از اینکه غول‌های فناوری به هشدارها توجه کرده‌اند یا خیر، نامه موسسه FLI یک نقطه عطف در سال 2023 است. مارک براکل، مدیر سیاستگزاری این مؤسسه، می‌گوید که آن‌ها انتظار نداشتند پاسخ نامه خود را دریافت کنند. اما با پوشش گسترده مطبوعاتی و توجه دولت‌ها، خیلی سریع همه نگران شدند که باید برای بررسی درمورد پیشرفت روزافزون هوش مصنوعی چه کاری انجام دهند. حتی در یک جلسه مجلس سنای ایالات متحده به این نامه استناد شده بود که باعث پاسخ رسمی پارلمان اروپا شد.

آقای براکل می‌گوید که تاکنون افکار جهان برروی هوش مصنوعی وابسته به انسان‌ها بوده است. اما ممکن است به زودی ما شاهد یک هوش مصنوعی مستقل باشیم. جایی‌که هوش مصنوعی می‌تواند واقعاً تصمیم بگیرد و به طور مستقل اقدام کند!

آیا توسعه هوش مصنوعی به یک فاجعه منتهی می‌شود؟

آیا توسعه هوش مصنوعی به یک فاجعه منتهی می‌شود؟

این موسسه یک ویدیو به‌خصوص در وب‌سایت خود دارد. در میان تنش‌های بین تایوان و چین، اتکای نظامی به هوش مصنوعی، منجر به یک جنگ هسته‌ای تمام عیار می‌شود. در این سناریو، سیاره ما با نور سلاح‌های هسته‌ای کاملاً روشن می‌شود و فیلم به پایان می‌رسد. شاید کمی تخیلی باشد، اما آن‌ها این روایت تخیلی را از فاجعه فرضی جهانی در سال 2032 ساخته‌اند!

آقای براکل معتقد است که ما هر روز به این سناریو نزدیک‌تر می‌شویم. ادغام هوش مصنوعی در فرماندهی و کنترل نظامی، به ویژه در کشورهای ابر قدرت، درحال افزایش است. با این وجود در سمت دیگر ماجرا، هر روز تمایل بیشتری نیز از سوی کشورها برای تنظیم مقررات درباره هوش مصنوعی مشاهده می‌شود. این مقررات به‌ویژه وقتی اهمیت پیدا می‌کنند که دنیا در آستانه تولید سربازانی از جنس هوش مصنوعی است.

لزوم تنظیم مقررات برای جلوگیری از آسیب های آینده

لزوم تنظیم مقررات برای جلوگیری از خطرات هوش مصنوعی

شرکت‌های بزرگ هوش مصنوعی، آزمایش‌های خود را متوقف نمی‌کنند؛ اما رهبران آن‌ها آشکارا خطرات بزرگ هوش مصنوعی و اتوماسیون را برای بشریت تایید می‌کنند!

سام آلتمن، مدیر عامل OpenAI، در اوایل سال جاری از سیاستمداران ایالات متحده خواست تا مقررات دولتی برای هوش مصنوعی ایجاد کنند. او گفت بدترین ترس آن‌ها این است که با پیشرفت فناوری هوش مصنوعی، آسیب قابل توجهی به جهان وارد کنند. این آسیب می‌تواند به طرق مختلفی بروز کند. بنابراین او خواستار ایجاد یک آژانس آمریکایی یا جهانی شد که مجوز فعالیت سیستم‌های هوش مصنوعی را صادر کند.

با این‌حال، اروپا ممکن است در تنظیم مقررات هوش مصنوعی پیشرو باشد. آن‌ها درحال کار برروی قانون شاخص هوش مصنوعی هستند. جزئیات نهایی این قوانین هنوز بین نهادها و کشورهای اتحادیه اروپا در‌حال بررسی است.

بر اساس این قانون، سیستم‌های هوش مصنوعی بنابر سطح ریسک به لایه‌های مختلفی دسته‌بندی می‌شوند که پرخطرترین انواع آن ممنوع است. سیستم‌های کم ریسک‌تر نیز به سطوح خاصی از شفافیت و نظارت نیاز دارند.

سناریو آخرالزمانی رشد هوش مصنوعی
تمامی تصاویر این مقاله توسط هوش مصنوعی تولید شده‌اند

ایالات متحده نیز مانند اتحادیه اروپا نگران است. تاکنون فقط کاربران سیستم‌های هوش مصنوعی و توسعه دهندگان آن می‌دانستند که درحال انجام چه کاری با آن هستند. اما دولت‌ها خواستار نظارت بر هوش مصنوعی هستند تا از بروز خطرات احتمالی آن جلوگیری کنند.

آقای براکل مثالی از بیمارستانی می‌زند که در آن از چت‌بات برای تماس با بیمار استفاده می‌‌شود. مسئولین بیمارستان فقط چت‌بات را از شرکت OpenAi می‌خرند و آن‌را نمی‌سازند. بنابراین اگر به دلیل توصیه‌های پزشکی اشتباهی رخ داد، چه‌کسی مسئول آن است؟ مسئولین بیمارستان، هوش مصنوعی، یا شرکت OpenAi؟ به عقیده او بخشی از این مسئولیت واقعاً باید تقسیم شود.

درحالی‌که کشورهای اروپایی منتظر تدوین نهایی قانون هوش مصنوعی در اتحادیه اروپا هستند، اجلاس جهانی ایمنی هوش مصنوعی در 1 نوامبر باید رویداد بزرگ بعدی در جهت مهار هوش مصنوعی باشد. این رویداد می‌تواند نحوه نزدیک شدن رهبران سراسر جهان به تنظیم مقررات هوش مصنوعی در آینده را تعیین کند.

مهمترین ترند های هوش مصنوعی در 2024: آماده انقلاب هوش مصنوعی شوید!

آیا باید هوش مصنوعی را محدود یا متوقف کرد؟ یا یک هوش مصنوعی آزاد بهتر است؟ دیدگاه خود را به ما بگویید!

منبع: Euronews

گرد آورنده
نیونیوز1
مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا