رهبران فناوری بدنبال توقف هوش مصنوعی: خطر پایان دنیا توسط هوش مصنوعی!
هوش مصنوعی را فوراً متوقف کنید پیش از آن که خیلی دیر شود!
چندی پیش جمعی از رهبران فناوری دنیا نامهای سرگشاده امضا کردند که در آن خواستار توقف آزمایشهای هوش مصنوعی شدند. آنها معتقدند که پیشرفت روزافزون هوش مصنوعی، میتواند منتهی به بروز خطرات بزرگ حتی در سطح جهانی شود. اما آیا تاکنون به هشدارهای آنها توجه شده است؟ آیا هوش مصنوعی (AI) خطر بالقوهای برای بشریت محسوب میشود؟ این دیدگاه موسسه FLI است.
موسسه FLI در سال 2014 تاسیس شد و برروی سه حوزه اصلی خطر در سطح تمدن بشری کار میکند: هوش مصنوعی، بیوتکنولوژی و سلاحهای هستهای. این موسسه شش ماه پیش نامهای سرگشاده منتشر کرد و در آن خواستار توقف فوری آزمایشهای عظیم هوش مصنوعی شد.
این نامه در میان انبوهی از اقبال عمومی به هوش مصنوعی منتشر شد و از آن زمان توجه همگان را به خود جلب کرده است. درحالیکه برنامههایی مانند ChatGPT و Midjourney نشان میدهند که چگونه هوش مصنوعی روز به روز به کسب تواناییهای انسان در نوشتن و هنر نزدیکتر میشود، این موسسه سمت تاریک داستان هوش مصنوعی را هدف قرار میدهد.
فهرست دسترسی به سرفصلهای این مطلب
چه کسانی خواستار توقف هوش مصنوعی هستند؟
در بین امضاکنندگان نامه توقف هوش مصنوعی، نامهای بسیار مطرحی شامل ایلان ماسک، مدیرعامل تسلا و اسپیس ایکس و استیو وازنیاک بنیانگذار اپل دیده میشود! آنها میگویند ظهور ناگهانی هوش مصنوعی نیاز به کمی مکث و تأمل دارد. بنابراین از شرکتهایی مانند OpenAI که صاحب هوش مصنوعی مطرح ChatGPT است و همچنین از شرکت Google میخواهند تا «خطرات عمیق برای جامعه و بشریت» که ممکن است هوش مصنوعی آنها را ایجاد کند، در نظر بگیرند.
البته بازیکنان اصلی دنیای هوش مصنوعی اصلاً به دکمه توقف هوش مصنوعی فکر نمیکنند. بلکه آنها با تمام توان با مدلهای زبان بزرگ خود (LLM) به مسابقه هوش مصنوعی ملحق شدهاند. چندی پیش شرکت متا مدل Llama 2 را منتشر کرد و شرکت Anthropic، سازنده رقیب ChatGPT، نسخه دوم هوش مصنوعی Claude خود را به نمایش گذاشت.
صرف نظر از اینکه غولهای فناوری به هشدارها توجه کردهاند یا خیر، نامه موسسه FLI یک نقطه عطف در سال 2023 است. مارک براکل، مدیر سیاستگزاری این مؤسسه، میگوید که آنها انتظار نداشتند پاسخ نامه خود را دریافت کنند. اما با پوشش گسترده مطبوعاتی و توجه دولتها، خیلی سریع همه نگران شدند که باید برای بررسی درمورد پیشرفت روزافزون هوش مصنوعی چه کاری انجام دهند. حتی در یک جلسه مجلس سنای ایالات متحده به این نامه استناد شده بود که باعث پاسخ رسمی پارلمان اروپا شد.
آقای براکل میگوید که تاکنون افکار جهان برروی هوش مصنوعی وابسته به انسانها بوده است. اما ممکن است به زودی ما شاهد یک هوش مصنوعی مستقل باشیم. جاییکه هوش مصنوعی میتواند واقعاً تصمیم بگیرد و به طور مستقل اقدام کند!
آیا توسعه هوش مصنوعی به یک فاجعه منتهی میشود؟
این موسسه یک ویدیو بهخصوص در وبسایت خود دارد. در میان تنشهای بین تایوان و چین، اتکای نظامی به هوش مصنوعی، منجر به یک جنگ هستهای تمام عیار میشود. در این سناریو، سیاره ما با نور سلاحهای هستهای کاملاً روشن میشود و فیلم به پایان میرسد. شاید کمی تخیلی باشد، اما آنها این روایت تخیلی را از فاجعه فرضی جهانی در سال 2032 ساختهاند!
آقای براکل معتقد است که ما هر روز به این سناریو نزدیکتر میشویم. ادغام هوش مصنوعی در فرماندهی و کنترل نظامی، به ویژه در کشورهای ابر قدرت، درحال افزایش است. با این وجود در سمت دیگر ماجرا، هر روز تمایل بیشتری نیز از سوی کشورها برای تنظیم مقررات درباره هوش مصنوعی مشاهده میشود. این مقررات بهویژه وقتی اهمیت پیدا میکنند که دنیا در آستانه تولید سربازانی از جنس هوش مصنوعی است.
لزوم تنظیم مقررات برای جلوگیری از خطرات هوش مصنوعی
شرکتهای بزرگ هوش مصنوعی، آزمایشهای خود را متوقف نمیکنند؛ اما رهبران آنها آشکارا خطرات بزرگ هوش مصنوعی و اتوماسیون را برای بشریت تایید میکنند!
سام آلتمن، مدیر عامل OpenAI، در اوایل سال جاری از سیاستمداران ایالات متحده خواست تا مقررات دولتی برای هوش مصنوعی ایجاد کنند. او گفت بدترین ترس آنها این است که با پیشرفت فناوری هوش مصنوعی، آسیب قابل توجهی به جهان وارد کنند. این آسیب میتواند به طرق مختلفی بروز کند. بنابراین او خواستار ایجاد یک آژانس آمریکایی یا جهانی شد که مجوز فعالیت سیستمهای هوش مصنوعی را صادر کند.
با اینحال، اروپا ممکن است در تنظیم مقررات هوش مصنوعی پیشرو باشد. آنها درحال کار برروی قانون شاخص هوش مصنوعی هستند. جزئیات نهایی این قوانین هنوز بین نهادها و کشورهای اتحادیه اروپا درحال بررسی است.
بر اساس این قانون، سیستمهای هوش مصنوعی بنابر سطح ریسک به لایههای مختلفی دستهبندی میشوند که پرخطرترین انواع آن ممنوع است. سیستمهای کم ریسکتر نیز به سطوح خاصی از شفافیت و نظارت نیاز دارند.
ایالات متحده نیز مانند اتحادیه اروپا نگران است. تاکنون فقط کاربران سیستمهای هوش مصنوعی و توسعه دهندگان آن میدانستند که درحال انجام چه کاری با آن هستند. اما دولتها خواستار نظارت بر هوش مصنوعی هستند تا از بروز خطرات احتمالی آن جلوگیری کنند.
آقای براکل مثالی از بیمارستانی میزند که در آن از چتبات برای تماس با بیمار استفاده میشود. مسئولین بیمارستان فقط چتبات را از شرکت OpenAi میخرند و آنرا نمیسازند. بنابراین اگر به دلیل توصیههای پزشکی اشتباهی رخ داد، چهکسی مسئول آن است؟ مسئولین بیمارستان، هوش مصنوعی، یا شرکت OpenAi؟ به عقیده او بخشی از این مسئولیت واقعاً باید تقسیم شود.
درحالیکه کشورهای اروپایی منتظر تدوین نهایی قانون هوش مصنوعی در اتحادیه اروپا هستند، اجلاس جهانی ایمنی هوش مصنوعی در 1 نوامبر باید رویداد بزرگ بعدی در جهت مهار هوش مصنوعی باشد. این رویداد میتواند نحوه نزدیک شدن رهبران سراسر جهان به تنظیم مقررات هوش مصنوعی در آینده را تعیین کند.
مهمترین ترند های هوش مصنوعی در 2024: آماده انقلاب هوش مصنوعی شوید!
آیا باید هوش مصنوعی را محدود یا متوقف کرد؟ یا یک هوش مصنوعی آزاد بهتر است؟ دیدگاه خود را به ما بگویید!
منبع: Euronews