دیپ فیک های هوش مصنوعی: تهدیدی جدید برای افراد و کسب و کارها!
پیشرفت هوش مصنوعی باعث افزایش تولید محتوای جعلی و کلاهبرداری شده است!
گزارشهای جدید پیامد محتوای جعلی یا دیپ فیک ایجاد شده توسط هوش مصنوعی را بر کسبوکارها نشان میدهد. خطر کلاهبرداری و حملات هوشمند بهوسیله هوش مصنوعی بیش از همیشه است!
اینروزها غولهای فناوری برای تشویق عموم به استفاده از هوش مصنوعی و کسب مالکیت در این بازار رو به رشد رقابت میکنند. این تلاشها به یک رقابت غیرسازنده بهوسیلهی هوش مصنوعی تبدیل شده است. رقابتی که به افزایش روزافزون ویدیوها و صداهای «دیپ فیک» دامن میزند.
فهرست دسترسی به سرفصلهای این مطلب
محتوای جعلی یا دیپ فیک چیست؟
دیپ فیک محتوایی است که اغلب بهنظر میرسد که بهطور قانعکنندهای واقعی، اما در واقع یک تقلب تمامعیار است! طبق یک گزارش جدید، این محتواهای جعلی یا به عبارتی Deepfake، بر مشاغل نیز تاثیر سوء داشته است.
دیپ فیکهای هوش مصنوعی خلاقیتهایی مانند تصاویر، ویدیوها و صدا هستند که با هوش مصنوعی تولید میشوند تا مردم را فریب دهند. کلاهبرداران از Deepfake برای کلاهبرداری، اخاذی یا آسیب رساندن به شهرت افراد مشهور استفاده میکنند. گسترش ابزارهای هوش مصنوعی، ساخت محتوای جعلی را برای کلاهبرداران آسانتر از همیشه کرده است.
سلبریتیها و دیگر شخصیتهای عمومی بدون رضایت خود در فیلمهای تولیدشده توسط هوش مصنوعی قرار میگیرند. این فیلمهای جعلی و حواشی گاهی اوقات بهسرعت وایرال میشوند و حتی میتوانند باعث وحشت در رسانههای اجتماعی شوند. این گزارش جدید اشاره میکند که بخش تجاری نیز از تهدیدات دیپ فیکهای ساخته شده توسط هوش مصنوعی مصون نیست.
منبع مینویسد: محتوای Deepfake میتواند در حملات مهندسی شده و حملات اجتماعی و انواع دیگر حملات سایبری که شرکتها را هدف قرار میدهند مورد استفاده قرار گیرد. چنین محتواهای دروغینی میتوانند بر رونق مشاغل و شهرت رهبران آنها نیز تاثیر بگذارد. حتی میتوان از اظهارات نادرست نمایندگان جعلی شرکت که با هوش مصنوعی ساخته شدهاند، برای کلاهبرداری از مشتریان استفاده کرد. یا با استفاده از آنها کارکنان شرکت را قانع کرد تا اطلاعات سری و یا پول را به اشتباه برای کلاهبرداران منتقل کنند.
محتوای Deepfake بلای جان شرکتها و افراد مشهور!
شرکت KPMG به مثالی اشاره میکند که یکی از مدیران شعبه هنگکنگ، در سال 2020 فریب داده شد و 35 میلیون دلار را به حساب کلاهبرداران واریز کرد! او معتقد بود که رئیسش با او تلفنی صحبت کرده و به او دستور اینکار را داده بود. اما این صدا درواقع بخشی از یک طرح پیچیده برای کلاهبرداری و فقط یک بازسازی توسط هوش مصنوعی بود!
پیامدهای حملات سایبری که از محتوای جعلی استفاده میکنند میتواند گسترده، پرهزینه و دارای اثرات اجتماعی و اقتصادی متنوعی باشد. کافیست به فیلمهای دیپفیک از دستگیری دونالد ترامپ در اوایل سال میلادی جاری، پاپ فرانسیس و پوشیدن لباسهای لوکس Balenciaga و ایلان ماسک که کلاهبرداریهای رمزنگاری را تبلیغ میکرد، نگاهی بیاندازید! اینترنت حالا به لطف ابزارهای هوش مصنوعی که درحال پیشرفت هستند، زمین حاصلخیزی برای کلاهبرداران شده است.
فراتر از چهرههای عمومی که در بالا ذکر شد، بسیاری از افراد مشهور یا سلبریتی نیز مورد سوءاستفاده قرار گرفته و در فیلمهای جعلی وارد شدهاند. از آنها میتوان به بازیگر معروف، اما واتسون و موسیقیدان و خواننده مشهور، تیلور سویفت اشاره کرد. آیا تمام این تاثیرات بالقوه که روزبهروز بیشتر میشوند، زنگ خطر را برای کنترل هوش مصنوعی به صدا در میآورد؟
تولید محتوای جعلی توسط هوش مصنوعی حتی دولت ها را نیز نگران کرده است!
محتوای Deepfake اینروزها صرفاً برای افراد عادی یا مشهور در رسانههای اجتماعی، سایتهای دوستیابی و صنعت سرگرمی نگرانکننده نیست. بلکه اکنون به یک مشکل قابل توجه و بزرگ تبدیل شده است. این فقط مشاغل و افراد مشهور نیستند که با افزایش کیفیت و تعداد ویدیوهای دیپ فیک در اینترنت دست و پنجه نرم میکنند. دولتها نیز باید نگران تاثیرات هوش مصنوعی و دیپ فیک بر جامعه و حتی نتایج انتخابات باشند! هفته گذشته، کمیسیون انتخابات فدرال ایالات متحده، با پیشبینی امکان استفاده از دیپ فیک و هوش مصنوعی در انتخابات 2024 این کشور، طوماری را برای ممنوعیت استفاده از هوش مصنوعی در کمپینهای تبلیغاتی ارائه کرد. قانونگذاران باید به درک و بررسی تاثیرات دیپ فیک و هوش مصنوعی ادامه دهند. آنها طرحی برای برچسبگذاری و واترمارک کردن محتوای تولید شده توسط هوش مصنوعی ارائه کردهاند که میتواند تاثیر مثبتی در کاهش فریب مردم توسط این هوش جنجالی داشته باشد.
در ماه ژوئیه، محققان MIT با افزودن نشانههایی که به سختی قابل مشاهده، اما برای مواقع لزوم کاربردی هستند، توانستند تصاویری مشابه واقعیت ایجاد کنند که نشانهگذاری شده است. آنها میخواهند این تغییرات کد را به مدلهای بزرگ هوش مصنوعی اضافه کنند تا خطر دیپ فیک و هوش مصنوعی را کاهش دهند. در همین حال، متا اخیراً یک ابزار هوش مصنوعی را به دلیل پتانسیل ایجاد محتوای دیپ فیک توسط آن متوقف کرده است.
هیجان در مورد پتانسیل خلاقانه ابزارهای هوش مصنوعی بالاست. اما آنها میتوانند بهطور مشابه فرصتهایی برای محتوای مخرب نیز ایجاد کنند. در نهایت، در میان پیشرفتهای سریع برای چنین ابزارهایی، همه باید درمورد پتانسیل محتوای جعلی هوشیار باشند.
آیا تاکنون تجربهی فریب خوردن بهوسیلهی محتوای Deepfake را داشتهاید؟ نظر شما چیست؟