هوش مصنوعی

دیپ فیک های هوش مصنوعی: تهدیدی جدید برای افراد و کسب و کارها!

پیشرفت هوش مصنوعی باعث افزایش تولید محتوای جعلی و کلاهبرداری شده است!

گزارش‌های جدید پیامد محتوای جعلی یا دیپ فیک ایجاد شده توسط هوش مصنوعی را بر کسب‌وکارها نشان می‌دهد. خطر کلاهبرداری و حملات هوشمند به‌وسیله هوش مصنوعی بیش از همیشه است! 

این‌روزها غول‌های فناوری برای تشویق عموم به استفاده از هوش مصنوعی و کسب مالکیت در این بازار رو به رشد رقابت می‌کنند. این تلاش‌ها به یک رقابت غیرسازنده به‌وسیله‌ی هوش مصنوعی تبدیل شده است. رقابتی که به افزایش روزافزون ویدیوها و صداهای «دیپ فیک» دامن می‌زند.

محتوای جعلی یا دیپ فیک چیست؟

محتوای جعلی یا دیپ فیک چیست؟

دیپ فیک محتوایی است که اغلب به‌نظر می‌رسد که به‌طور قانع‌کننده‌ای واقعی، اما در واقع یک تقلب تمام‌عیار است! طبق یک گزارش جدید، این محتواهای جعلی یا به عبارتی Deepfake، بر مشاغل نیز تاثیر سوء داشته است.

دیپ فیک‌های هوش مصنوعی خلاقیت‌هایی مانند تصاویر، ویدیوها و صدا هستند که با هوش مصنوعی تولید می‌شوند تا مردم را فریب دهند. کلاهبرداران از Deepfake برای کلاهبرداری، اخاذی یا آسیب رساندن به شهرت افراد مشهور استفاده می‌کنند. گسترش ابزارهای هوش مصنوعی، ساخت محتوای جعلی را برای کلاهبرداران آسان‌تر از همیشه کرده است.

تولید محتوای جعلی توسط هوش مصنوعی

سلبریتی‌ها و دیگر شخصیت‌های عمومی بدون رضایت خود در فیلم‌های تولیدشده توسط هوش مصنوعی قرار می‌گیرند. این فیلم‌های جعلی و حواشی گاهی اوقات به‌سرعت وایرال می‌شوند و حتی می‌توانند باعث وحشت در رسانه‌های اجتماعی شوند. این گزارش جدید اشاره می‌کند که بخش تجاری نیز از تهدیدات دیپ فیک‌های ساخته شده توسط هوش مصنوعی مصون نیست.

منبع‌ می‌نویسد: محتوای Deepfake می‌تواند در حملات مهندسی شده و حملات اجتماعی و انواع دیگر حملات سایبری که شرکت‌ها را هدف قرار می‌دهند مورد استفاده قرار گیرد. چنین محتواهای دروغینی می‌توانند بر رونق مشاغل و شهرت رهبران آن‌ها نیز تاثیر بگذارد. حتی می‌توان از اظهارات نادرست نمایندگان جعلی شرکت که با هوش مصنوعی ساخته شده‌اند، برای کلاهبرداری از مشتریان استفاده کرد. یا با استفاده از آن‌ها کارکنان شرکت را قانع کرد تا اطلاعات سری و یا پول را به اشتباه برای کلاهبرداران منتقل کنند.

کلاهبرداری با Deepfake بلای جان افراد مشهور شده است!

محتوای Deepfake بلای جان شرکتها و افراد مشهور! 

شرکت KPMG به مثالی اشاره می‌کند که یکی از مدیران شعبه هنگ‌کنگ، در سال 2020 فریب داده شد و 35 میلیون دلار را به حساب کلاهبرداران واریز کرد! او معتقد بود که رئیسش با او تلفنی صحبت کرده و به او دستور این‌کار را داده بود. اما این صدا درواقع بخشی از یک طرح پیچیده برای کلاهبرداری و فقط یک بازسازی توسط هوش مصنوعی بود!

پیامدهای حملات سایبری که از محتوای جعلی استفاده می‌کنند می‌تواند گسترده، پرهزینه و دارای اثرات اجتماعی و اقتصادی متنوعی باشد. کافیست به فیلم‌های دیپ‌فیک از دستگیری دونالد ترامپ در اوایل سال میلادی جاری، پاپ فرانسیس و پوشیدن لباس‌های لوکس Balenciaga و ایلان ماسک که کلاهبرداری‌های رمزنگاری را تبلیغ می‌کرد، نگاهی بیاندازید! اینترنت حالا به لطف ابزارهای هوش مصنوعی که درحال پیشرفت هستند، زمین حاصل‌خیزی برای کلاهبرداران شده است.

فراتر از چهره‌های عمومی که در بالا ذکر شد، بسیاری از افراد مشهور یا سلبریتی نیز مورد سوءاستفاده قرار گرفته و در فیلم‌های جعلی وارد شده‌اند. از آن‌ها می‌توان به بازیگر معروف، اما واتسون و موسیقی‌دان و خواننده مشهور، تیلور سویفت اشاره کرد. آیا تمام این تاثیرات بالقوه که روزبه‌روز بیشتر می‌شوند، زنگ خطر را برای کنترل هوش مصنوعی به صدا در می‌آورد؟

خطر پیشرفت هوش مصنوعی: آیا هوش مصنوعی شغل من را می‌دزدد؟!

تولید محتوای جعلی توسط هوش مصنوعی حتی دولت ها را نیز نگران کرده است! 

محتوای Deepfake این‌روزها صرفاً برای افراد عادی یا مشهور در رسانه‌های اجتماعی، سایت‌های دوستیابی و صنعت سرگرمی نگران‌کننده نیست. بلکه اکنون به یک مشکل قابل توجه و بزرگ‌ تبدیل شده است. این فقط مشاغل و افراد مشهور نیستند که با افزایش کیفیت و تعداد ویدیوهای دیپ فیک در اینترنت دست و پنجه نرم می‌کنند. دولت‌ها نیز باید نگران تاثیرات هوش مصنوعی و دیپ فیک بر جامعه و حتی نتایج انتخابات باشند! هفته گذشته، کمیسیون انتخابات فدرال ایالات متحده، با پیش‌بینی امکان استفاده از دیپ فیک و هوش مصنوعی در انتخابات 2024 این کشور، طوماری را برای ممنوعیت استفاده از هوش مصنوعی در کمپین‌های تبلیغاتی ارائه کرد. قانون‌گذاران باید به درک و بررسی تاثیرات دیپ فیک و هوش مصنوعی ادامه دهند. آن‌ها طرحی برای برچسب‌گذاری و واترمارک کردن محتوای تولید شده توسط هوش مصنوعی ارائه کرده‌اند که می‌تواند تاثیر مثبتی در کاهش فریب مردم توسط این هوش جنجالی داشته باشد.

در ماه ژوئیه، محققان MIT با افزودن نشانه‌هایی که به سختی قابل مشاهده، اما برای مواقع لزوم کاربردی هستند، توانستند تصاویری مشابه واقعیت ایجاد کنند که نشانه‌گذاری شده است. آن‌ها می‌خواهند این تغییرات کد را به مدل‌های بزرگ هوش مصنوعی اضافه کنند تا خطر دیپ فیک و هوش مصنوعی را کاهش دهند. در همین حال، متا اخیراً یک ابزار هوش مصنوعی را به دلیل پتانسیل ایجاد محتوای دیپ فیک توسط آن متوقف کرده است.

هیجان در مورد پتانسیل خلاقانه ابزارهای هوش مصنوعی بالاست. اما آن‌ها می‌توانند به‌طور مشابه فرصت‌هایی برای محتوای مخرب نیز ایجاد کنند. در نهایت، در میان پیشرفت‌های سریع برای چنین ابزارهایی، همه باید درمورد پتانسیل محتوای جعلی هوشیار باشند.

 

آیا تاکنون تجربه‌ی فریب خوردن به‌وسیله‌ی محتوای Deepfake را داشته‌اید؟ نظر شما چیست؟

گرد آورنده
نیونیوز1
مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا