هوش مصنوعی

کنترل هوش مصنوعی به دست چه کسی خواهد افتاد؟ بحث داغ روزهای اخیر!

آیا باید هوش مصنوعی را محدود کرد؟ این کار را چه کسی انجام خواهد داد؟!

بهار امسال، مدیران عامل سه عدد از برجسته‌ترین آزمایشگاه‌های هوش مصنوعی، یعنی گوگل OpenAI ،DeepMind و Anthropic، بیانیه‌ای را امضا کردند که هشدار عجیبی می‌داد! هوش مصنوعی می‌تواند به اندازه بیماری‌های همه‌گیر و جنگ هسته‌ای برای بشریت خطرناک باشد! این اقدام آغاز بحث‌های داغ درمورد کنترل و محدود کردن هوش مصنوعی بود. اما نهایتاً افسار هوش مصنوعی به دست چه گروهی سپرده خواهد شد؟!

هوش مصنوعی باید کنترل شود! اما چرا؟!

برای جلوگیری از فاجعه در آینده، بسیاری از شرکت‌ها و محققان هوش مصنوعی درمورد محدودیت‌هایی برای اینکه چه‌کسی می‌تواند به قدرتمندترین مدل‌های هوش مصنوعی دسترسی داشته باشد و چه‌کسی می‌تواند آن‌ها را توسعه دهد بحث می‌کنند.

آن‌ها نگران هستند که افراد سودجو بتوانند از مدل‌های هوش مصنوعی برای ایجاد مقادیر زیادی اطلاعات نادرست استفاده کنند. هوش مصنوعی می‌تواند نتایج انتخابات را تغییر دهد. ولی این تمام ماجرا نیست. مدل‌های قوی‌تر هوش مصنوعی در آینده، حتی می‌توانند به حملات سایبری یا ایجاد سلاح‌های زیستی کمک کنند!

همه شرکت‌های هوش مصنوعی موافق این صحبت‌ از ایجاد محدودیت نیستند. یکی از بزرگ‌ترین نمونه‌های آن، شرکت متا به مدیریت مارک زاکربرگ است. روز پنجشنبه، شرکت متا یک تولید کننده کد هوش مصنوعی به نام Code Llama را معرفی کرد.

Code Llama بزرگترین و تواناترین مدل هوش مصنوعی متا است که نتایج آن تقریباً با GPT-4، تواناترین مدل زبان بزرگ OpenAI، برابری می‌کند. مانند سایر مدل‌های هوش مصنوعی که متا توسعه می‌دهد، مدل‌های زبان Code Llama برای دانلود عموم در دسترس و برای استفاده تجاری و یا تحقیقاتی رایگان هستند. در مقابل، بیشتر توسعه‌دهندگان برجسته هوش مصنوعی، مانند OpenAI و Anthropic، تنها به کسب‌وکارها و توسعه‌دهندگان تاییدشده اجازه دسترسی محدود و پولی به مدل‌هایشان را می‌دهند. آن‌ها معتقدند که این‌کار باعث جلوگیری از سوء استفاده از هوش مصنوعی شده و به درآمدزایی نیز کمک می‌کند. اما متا مسیر بسیار متفاوتی را برای خود و سایر شرکت‌های بزرگ هوش مصنوعی طراحی کرده است!

محدود کردن هوش مصنوعی: آری یا خیر؟!  

محدود کردن هوش مصنوعی: آری یا خیر؟!  

در ماه ژوئن، سناتورهای آمریکایی، ریچارد بلومنتال و جاش هاولی، رئیس و عضو عالی‌رتبه کمیته قضایی سنای آمریکا در خصوص حریم خصوصی و ایجاد قوانین، نامه‌ای به مارک زاکربرگ مدیرعامل متا نوشتند. آن‌ها خاطرنشان کردند که «به نظر می‌رسد متا حتی به پیامدهای اخلاقی انتشار عمومی این تکنولوژی فکر نکرده است!» آن‌ها از مديرعامل متا پرسیدند که آیا متا نحوه انتشار مدل‌های هوش مصنوعی خود را در آینده تغییر خواهد داد یا خیر؟!

و البته یک ماه بعد، متا نیز با انتشار عمومی و آزاد مدل Llama 2 با قاطعیت به درخواست آن‌ها پاسخ داد! متا هیچ تلاشی برای محدود کردن دسترسی انجام نداد و هرکسی می‌تواند این مدل را دانلود کند.

اختلاف بین متا و سناتورهای آمریکایی تنها آغاز بحث بزرگی است که می‌گوید: چه کسی باید کنترل هوش مصنوعی را در دست بگیرد؟!  این هوش افسارگسیخته اگر کنترل نشود پیامدهای گسترده‌ای خواهد داشت. از یک طرف، بسیاری از شرکت‌های برجسته هوش مصنوعی و دغدغه‌مندان، نگران خطرات ناشی از سیستم‌های هوش مصنوعی قدرت‌مند هستند. آن‌ها نگران انگیزه‌های تجاری استفاده از هوش مصنوعی هستند. کسانی‌که می‌توانند قوی‌ترین سیستم‌های هوش مصنوعی را بسازند، در آینده می‌توانند کنترل اجتماع را نیز در دست بگیرند! بنابراین این‌روزها به صاحبان هوش مصنوعی فشار زیادی برای محدود کردن آن وارد می‌شود. از سوی دیگر، ائتلاف متا، و بسیاری از روشن‌فکران، آزادی‌خواهان و لیبرال‌ها نیز درحال شکل‌گیری است. آن‌ها برای یک رویکرد باز و شفاف در توسعه هوش مصنوعی مبارزه می‌کنند.

گوگل و OpenAI قوانین سخت‌گیرانه‌ای برای کنترل هوش مصنوعی پیشنهاد می‌کنند! 

گوگل و OpenAI قوانین سخت‌گیرانه‌ای برای کنترل هوش مصنوعی پیشنهاد می‌کنند! 

در مقاله‌ای که در ماه ژوئیه در وب‌سایت OpenAI منتشر شد، گروهی از دانشگاهیان و محققان از شرکت‌هایی از جمله OpenAI و DeepMind گوگل، پیشنهاد کنترل و نظارت بر هوش مصنوعی را مطرح کردند. آن‌ها راه‌هایی را ارائه کردند که از طریق آن سیاست‌گذاران می‌توانند به این هدف دست یابند. این مقاله به‌طور عمده دو پیشنهاد مهم دارد. اولین پیشنهاد تدوین استانداردهای ایمنی برای توسعه هوش مصنوعی است. دومین موضوع نیز اطمینان از دید کافی تنظیم‌کننده‌ها برروی هوش مصنوعی است. این مقاله را می‌توان به عنوان یک بیانیه برای حمایت از رویکرد کنترل سخت‌گیرانه هوش مصنوعی قلمداد کرد.

بنابراین تنظیم‌کننده‌ها می‌توانند اطمینان حاصل کنند که شرکت‌های هوش مصنوعی از استانداردهای ایمنی و همچنین ارائه اطلاعات به آن‌ها پیروی می‌کنند. یکی از راه‌های این‌کار اجبار توسعه‌دهندگان هوش مصنوعی به دریافت مجوز قبل از آموزش و استفاده از قوی‌ترین مدل‌ها‌ی هوش مصنوعی است. در سمت مقابل، آن‌هایی که از رویکرد منبع باز حمایت می‌کنند، استدلال می‌کنند که صدور مجوز می‌تواند این صنعت را کوچک کند و به نوآوری آسیب برساند.

حتی در میان شرکت‌های هوش مصنوعی که نگران خطرات شدید این فناوری هستند، الزام به کسب مجوز برای توسعه هوش مصنوعی نظر فراگیر و محبوبی نیست.

ایلان ماسک و مارک زاکربرگ یک هوش مصنوعی آزاد را می‌پسندند!

ایلان ماسک و مارک زاکربرگ یک هوش مصنوعی آزاد را می‌پسندند! 

در یک پست وبلاگی که همراه با انتشار مدل Llama 2 بود، متا توضیح داد که آن‌ها طرفدار یک رویکرد آزادانه هستند. این رویکرد احتمال بیشتری برای ارتقای نوآوری دارد. آن‌ها حتی می‌گویند این‌کار خطرات را کاهش می‌دهد. استدلال آن‌ها این است که مدل‌های منبع باز هوش مصنوعی باعث می‌شوند تا توسعه دهندگان و محققان، به عنوان یک جامعه بزرگ، سریع‌تر معایب و خطرات را شناسایی کنند و آن‌ها را گزارش دهند.

البته رویکرد متا در کنترل هوش مصنوعی نیز کاملاً آزادانه نیست، زیرا این شرکت استفاده از محصولات خود در مقیاس تجاری و بسیار بزرگ را ممنوع می‌کند. درواقع متا از این رویکرد به لحاظ تجاری سود می‌برد. این شرکت یک جمعیت بزرگ برای عیب‌یابی و همچنین توسعه مدل هوش مصنوعی خود پیدا کرده‌ است که هیچ هزینه‌ای برای آن نمی‌پردازد!

مدیرعامل متا، مارک زاکربرگ، می‌گوید سناریوهای آخرالزمانی هوش مصنوعی پذیرفتنی نیست. او می‌گوید کسانی‌که این سناریوها را می‌سازند بسیار غیرمسئول هستند. یکی از دانشمندان ارشد هوش مصنوعی در شرکت متا می‌گوید:

ترس از خطرات شدید هوش مصنوعی به طرز عجیبی احمقانه است!

معاون تحقیقات هوش مصنوعی متا می‌گوید که دسترسی آزاد به این معنی است که متا خود را با استانداردهای بهتری تطبیق می‌دهد. آن‌ها می‌توانند محققان با استعداد بیشتری را جذب کنند. البته او اذعان کرد که مدل‌های متا می‌توانند مورد سوءاستفاده قرار گیرند، اما تعداد بازیگران خوب در این زمینه بسیار بیشتر از بازیگران بد است.

درصورت اعمال محدودیت و کنترل بر هوش مصنوعی سوال اصلی این است که چه کسی باید این‌کار را انجام دهد؟! آیا جمع‌آوری گروهی که مورد تایید همگان باشد امکان‌پذیر است؟ حتی برخی معتقدند که محدود کردن دسترسی به سیستم‌های هوش مصنوعی، قدرت را تا حدی متمرکز می‌کند که خطر برگرداندن دستاوردهای عصر روشنگری به گذشته‌ی تاریک را درپی دارد!

خطر پیشرفت هوش مصنوعی: آیا هوش مصنوعی شغل من را می‌دزدد؟!

یک نبرد بزرگ برای کنترل هوش مصنوعی در پیش است؟!

مانند سایر قدرت‌های بزرگ، اتحادیه اروپا نیز درحال تدوین قانون هوش مصنوعی خود است. آن‌ها آرام‌ آرام درحال جذب توسعه دهندگان مدل‌های بنیادی هوش مصنوعی هستند تا اطمینان حاصل کنند که قوانین آینده طیف وسیعی از هوش‌های مصنوعی را با استانداردهای ایمنی کامل فرا می‌گیرد. آن‌ها معتقدند که شرکت‌های بزرگی مانند متا باید بتوانند این استانداردهای ایمنی را به‌راحتی رعایت کنند.

بسیاری از رهبران هوش مصنوعی خواستار رویکردی متفاوت برای هوش مصنوعی در ایالات متحده هستند. مارک زاکربرگ با شرکت متا، ایلان ماسک با شرکت xAI و سایرین در ائتلافی قدرت‌مند، طرفدار یک رویکرد آزاد و شفاف برای توسعه هوش مصنوعی هستند. رویکردی که برای توسعه دهندگان منبع باز احترام زیادی قائل است.

اما در سمت دیگر، افرادی مانند چاک شومر، رهبر اکثریت سنای آمریکا، در ماه‌های گذشته از رویکرد پیشنهادی خود برای تنظیم مقررات هوش مصنوعی پرده برداری کرد. او از کنگره آمریکا خواست که به سرعت عمل کند. کنگره ایالات متحده تنها یکی از میادین نبرد سخت در بحث‌های آینده است. طولی نمی‌کشد که ابعاد این نبرد برای کنترل هوش مصنوعی، بزرگ و بزرگ‌تر شده و به سایر جمع‌های سیاسی در نقاط مختلف دنیا سرایت می‌کند!

خواندن ذهن توسط هوش مصنوعی: به یک آهنگ فکر کنید تا آن را بازتولید کند!

شما با محدود کردن هوش مصنوعی موافق هستید یا مخالف؟ دیدگاه خود را در بخش نظرات به ما بگویید!

 

منبع: Time

گرد آورنده
نیونیوز1
مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا