کنترل هوش مصنوعی به دست چه کسی خواهد افتاد؟ بحث داغ روزهای اخیر!
آیا باید هوش مصنوعی را محدود کرد؟ این کار را چه کسی انجام خواهد داد؟!
بهار امسال، مدیران عامل سه عدد از برجستهترین آزمایشگاههای هوش مصنوعی، یعنی گوگل OpenAI ،DeepMind و Anthropic، بیانیهای را امضا کردند که هشدار عجیبی میداد! هوش مصنوعی میتواند به اندازه بیماریهای همهگیر و جنگ هستهای برای بشریت خطرناک باشد! این اقدام آغاز بحثهای داغ درمورد کنترل و محدود کردن هوش مصنوعی بود. اما نهایتاً افسار هوش مصنوعی به دست چه گروهی سپرده خواهد شد؟!
برای جلوگیری از فاجعه در آینده، بسیاری از شرکتها و محققان هوش مصنوعی درمورد محدودیتهایی برای اینکه چهکسی میتواند به قدرتمندترین مدلهای هوش مصنوعی دسترسی داشته باشد و چهکسی میتواند آنها را توسعه دهد بحث میکنند.
آنها نگران هستند که افراد سودجو بتوانند از مدلهای هوش مصنوعی برای ایجاد مقادیر زیادی اطلاعات نادرست استفاده کنند. هوش مصنوعی میتواند نتایج انتخابات را تغییر دهد. ولی این تمام ماجرا نیست. مدلهای قویتر هوش مصنوعی در آینده، حتی میتوانند به حملات سایبری یا ایجاد سلاحهای زیستی کمک کنند!
همه شرکتهای هوش مصنوعی موافق این صحبت از ایجاد محدودیت نیستند. یکی از بزرگترین نمونههای آن، شرکت متا به مدیریت مارک زاکربرگ است. روز پنجشنبه، شرکت متا یک تولید کننده کد هوش مصنوعی به نام Code Llama را معرفی کرد.
Code Llama بزرگترین و تواناترین مدل هوش مصنوعی متا است که نتایج آن تقریباً با GPT-4، تواناترین مدل زبان بزرگ OpenAI، برابری میکند. مانند سایر مدلهای هوش مصنوعی که متا توسعه میدهد، مدلهای زبان Code Llama برای دانلود عموم در دسترس و برای استفاده تجاری و یا تحقیقاتی رایگان هستند. در مقابل، بیشتر توسعهدهندگان برجسته هوش مصنوعی، مانند OpenAI و Anthropic، تنها به کسبوکارها و توسعهدهندگان تاییدشده اجازه دسترسی محدود و پولی به مدلهایشان را میدهند. آنها معتقدند که اینکار باعث جلوگیری از سوء استفاده از هوش مصنوعی شده و به درآمدزایی نیز کمک میکند. اما متا مسیر بسیار متفاوتی را برای خود و سایر شرکتهای بزرگ هوش مصنوعی طراحی کرده است!
فهرست دسترسی به سرفصلهای این مطلب
محدود کردن هوش مصنوعی: آری یا خیر؟!
در ماه ژوئن، سناتورهای آمریکایی، ریچارد بلومنتال و جاش هاولی، رئیس و عضو عالیرتبه کمیته قضایی سنای آمریکا در خصوص حریم خصوصی و ایجاد قوانین، نامهای به مارک زاکربرگ مدیرعامل متا نوشتند. آنها خاطرنشان کردند که «به نظر میرسد متا حتی به پیامدهای اخلاقی انتشار عمومی این تکنولوژی فکر نکرده است!» آنها از مديرعامل متا پرسیدند که آیا متا نحوه انتشار مدلهای هوش مصنوعی خود را در آینده تغییر خواهد داد یا خیر؟!
و البته یک ماه بعد، متا نیز با انتشار عمومی و آزاد مدل Llama 2 با قاطعیت به درخواست آنها پاسخ داد! متا هیچ تلاشی برای محدود کردن دسترسی انجام نداد و هرکسی میتواند این مدل را دانلود کند.
اختلاف بین متا و سناتورهای آمریکایی تنها آغاز بحث بزرگی است که میگوید: چه کسی باید کنترل هوش مصنوعی را در دست بگیرد؟! این هوش افسارگسیخته اگر کنترل نشود پیامدهای گستردهای خواهد داشت. از یک طرف، بسیاری از شرکتهای برجسته هوش مصنوعی و دغدغهمندان، نگران خطرات ناشی از سیستمهای هوش مصنوعی قدرتمند هستند. آنها نگران انگیزههای تجاری استفاده از هوش مصنوعی هستند. کسانیکه میتوانند قویترین سیستمهای هوش مصنوعی را بسازند، در آینده میتوانند کنترل اجتماع را نیز در دست بگیرند! بنابراین اینروزها به صاحبان هوش مصنوعی فشار زیادی برای محدود کردن آن وارد میشود. از سوی دیگر، ائتلاف متا، و بسیاری از روشنفکران، آزادیخواهان و لیبرالها نیز درحال شکلگیری است. آنها برای یک رویکرد باز و شفاف در توسعه هوش مصنوعی مبارزه میکنند.
گوگل و OpenAI قوانین سختگیرانهای برای کنترل هوش مصنوعی پیشنهاد میکنند!
در مقالهای که در ماه ژوئیه در وبسایت OpenAI منتشر شد، گروهی از دانشگاهیان و محققان از شرکتهایی از جمله OpenAI و DeepMind گوگل، پیشنهاد کنترل و نظارت بر هوش مصنوعی را مطرح کردند. آنها راههایی را ارائه کردند که از طریق آن سیاستگذاران میتوانند به این هدف دست یابند. این مقاله بهطور عمده دو پیشنهاد مهم دارد. اولین پیشنهاد تدوین استانداردهای ایمنی برای توسعه هوش مصنوعی است. دومین موضوع نیز اطمینان از دید کافی تنظیمکنندهها برروی هوش مصنوعی است. این مقاله را میتوان به عنوان یک بیانیه برای حمایت از رویکرد کنترل سختگیرانه هوش مصنوعی قلمداد کرد.
بنابراین تنظیمکنندهها میتوانند اطمینان حاصل کنند که شرکتهای هوش مصنوعی از استانداردهای ایمنی و همچنین ارائه اطلاعات به آنها پیروی میکنند. یکی از راههای اینکار اجبار توسعهدهندگان هوش مصنوعی به دریافت مجوز قبل از آموزش و استفاده از قویترین مدلهای هوش مصنوعی است. در سمت مقابل، آنهایی که از رویکرد منبع باز حمایت میکنند، استدلال میکنند که صدور مجوز میتواند این صنعت را کوچک کند و به نوآوری آسیب برساند.
حتی در میان شرکتهای هوش مصنوعی که نگران خطرات شدید این فناوری هستند، الزام به کسب مجوز برای توسعه هوش مصنوعی نظر فراگیر و محبوبی نیست.
ایلان ماسک و مارک زاکربرگ یک هوش مصنوعی آزاد را میپسندند!
در یک پست وبلاگی که همراه با انتشار مدل Llama 2 بود، متا توضیح داد که آنها طرفدار یک رویکرد آزادانه هستند. این رویکرد احتمال بیشتری برای ارتقای نوآوری دارد. آنها حتی میگویند اینکار خطرات را کاهش میدهد. استدلال آنها این است که مدلهای منبع باز هوش مصنوعی باعث میشوند تا توسعه دهندگان و محققان، به عنوان یک جامعه بزرگ، سریعتر معایب و خطرات را شناسایی کنند و آنها را گزارش دهند.
البته رویکرد متا در کنترل هوش مصنوعی نیز کاملاً آزادانه نیست، زیرا این شرکت استفاده از محصولات خود در مقیاس تجاری و بسیار بزرگ را ممنوع میکند. درواقع متا از این رویکرد به لحاظ تجاری سود میبرد. این شرکت یک جمعیت بزرگ برای عیبیابی و همچنین توسعه مدل هوش مصنوعی خود پیدا کرده است که هیچ هزینهای برای آن نمیپردازد!
مدیرعامل متا، مارک زاکربرگ، میگوید سناریوهای آخرالزمانی هوش مصنوعی پذیرفتنی نیست. او میگوید کسانیکه این سناریوها را میسازند بسیار غیرمسئول هستند. یکی از دانشمندان ارشد هوش مصنوعی در شرکت متا میگوید:
ترس از خطرات شدید هوش مصنوعی به طرز عجیبی احمقانه است!
معاون تحقیقات هوش مصنوعی متا میگوید که دسترسی آزاد به این معنی است که متا خود را با استانداردهای بهتری تطبیق میدهد. آنها میتوانند محققان با استعداد بیشتری را جذب کنند. البته او اذعان کرد که مدلهای متا میتوانند مورد سوءاستفاده قرار گیرند، اما تعداد بازیگران خوب در این زمینه بسیار بیشتر از بازیگران بد است.
درصورت اعمال محدودیت و کنترل بر هوش مصنوعی سوال اصلی این است که چه کسی باید اینکار را انجام دهد؟! آیا جمعآوری گروهی که مورد تایید همگان باشد امکانپذیر است؟ حتی برخی معتقدند که محدود کردن دسترسی به سیستمهای هوش مصنوعی، قدرت را تا حدی متمرکز میکند که خطر برگرداندن دستاوردهای عصر روشنگری به گذشتهی تاریک را درپی دارد!
یک نبرد بزرگ برای کنترل هوش مصنوعی در پیش است؟!
مانند سایر قدرتهای بزرگ، اتحادیه اروپا نیز درحال تدوین قانون هوش مصنوعی خود است. آنها آرام آرام درحال جذب توسعه دهندگان مدلهای بنیادی هوش مصنوعی هستند تا اطمینان حاصل کنند که قوانین آینده طیف وسیعی از هوشهای مصنوعی را با استانداردهای ایمنی کامل فرا میگیرد. آنها معتقدند که شرکتهای بزرگی مانند متا باید بتوانند این استانداردهای ایمنی را بهراحتی رعایت کنند.
بسیاری از رهبران هوش مصنوعی خواستار رویکردی متفاوت برای هوش مصنوعی در ایالات متحده هستند. مارک زاکربرگ با شرکت متا، ایلان ماسک با شرکت xAI و سایرین در ائتلافی قدرتمند، طرفدار یک رویکرد آزاد و شفاف برای توسعه هوش مصنوعی هستند. رویکردی که برای توسعه دهندگان منبع باز احترام زیادی قائل است.
اما در سمت دیگر، افرادی مانند چاک شومر، رهبر اکثریت سنای آمریکا، در ماههای گذشته از رویکرد پیشنهادی خود برای تنظیم مقررات هوش مصنوعی پرده برداری کرد. او از کنگره آمریکا خواست که به سرعت عمل کند. کنگره ایالات متحده تنها یکی از میادین نبرد سخت در بحثهای آینده است. طولی نمیکشد که ابعاد این نبرد برای کنترل هوش مصنوعی، بزرگ و بزرگتر شده و به سایر جمعهای سیاسی در نقاط مختلف دنیا سرایت میکند!
خواندن ذهن توسط هوش مصنوعی: به یک آهنگ فکر کنید تا آن را بازتولید کند!
شما با محدود کردن هوش مصنوعی موافق هستید یا مخالف؟ دیدگاه خود را در بخش نظرات به ما بگویید!
منبع: Time