تکنولوژی وحشتناک؛ دیگر به چشم و گوش خود هم اعتماد نکنید!
تاریخ انتشار: ۲۶ اسفند ۱۴۰۱ | کد خبر: ۳۷۳۴۹۳۷۷
«دیپ فیک» یا جعل عمیق تکنولوژی مبتنی بر هوش مصنوعی است که استفاده از منجر به تولید ویدئو و اصوات جعلی میشود، فایلهایی که سبب میشود دیگر انسان به راحتی حتی توان اعتماد به گوش و چشم خود را هم نداشته باشد.
گروه علمی و فناوری خبرگزاری برنا- علی پژوهش؛ فناوریهای مرتبط با هوش مصنوعی بعد از معرفی چتباتها توسط مایکروسافت بار دیگر بر سر زبانها افتادند، کاربران مختلف هیجانزده از صحبت با موجوداتی هستند که واقعیت وجودی ندارند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
چتباتها البته برای همۀ جهان خوشایند نبودهاند، برای مثال گوگل به عنوان بزرگترین موتور جستجوی جهان نسبت به این فناوری حالت تدافعی گرفته است؛ چرا که پیشبینی میکند، این محصول جدید در آینده تهدیدی وجودی برای موتورهای جستجو باشند.
هوش مصنوعی و فناوریهای وابسته به آن محدود به چتباتها نیستند، یکی از مهمترین و البته خطرناکترین پدیدههای حاصل از هوش مصنوعی، تکنولوژی جعل عمیق یا «دیپ فیک» است، این فناوری در نگاه اول جذاب به نظر میرسد و کاربران عادی فضای وب سعی میکنند با ساخت ویدئوهای سرگرمکننده از دیپ فیکها لذت ببرند، ساخت ویدئوهای سرگرمکننده از افراد مشهور مانند بازیگران از جمله پرکاربردترین زمینههای استفاده از «دیپفیکها» است.
«نمونه دیپ فیک ساخته شده از بازیگران مشهور»
گروهی دیگر از کاربران هم برای سرگرم شدن به ساخت ویدئوهای فیک از سایر افراد مشهور جهان مانند سرمایهداران بزرگ همچون ایلان ماسک استفاده میکنند.
«نمونه دیپ فیک ساخته شده از ایلان ماسک»
موضوع اما به همین جا ختم نمیشود و نباید سادهاندیشانه از کنار «دیپ فیک» به عنوان یک فناوری صرفاً سرگرم کننده عبور کنیم، این تکنولوژی در کنار همۀ وجوه سرگرمی خود، خطرات جدی هم همراه با خود دارد که برخی از آنها را در زیر مرور میکنیم.
الف ـ جعل ویدئو یا صوت از سیاستمداران معروفامروز هوش مصنوعی محدود به تولید ویدئوهای جعلی نیست و فناوری توان ساخت صوتهای مجعول از افراد معروف را هم دارد، یکی از زمینههای چالش بر انگیز برای تولید فایلهای چندرسانهای جعلی، تولید ویدئو یا صوت با فناوری «جعل عمیق» دربارۀ یک کشور از زبان سیاستمدارانش است.
«نمونه دیپ فیک ساخته شده از سیاستمداران معروف جهان»
تصور کنید به یک باره سخنرانی ویدئویی از پوتین (رئیس جمهور روسیه)، شی (رئیس جمهور چین) یا بایدن (رئیس جمهور آمریکا) در فضای مجازی پخش شود که حاوی پیامی برای مردم جهان با این مضمون است؛ «امروز جنگ جهانی سوم با فرمان من شروع میشود، دستور حملۀ اتمی به تمام کشورهای متخاصم را میدهم!» حتی تصورش هم رعب آور است که چطور باید جلوی پخش این شایعۀ را گرفت؟!
مثال برای این شکل از بحرانها کم نیست، فرض کنید، در یک روز صد ویدئو از مسئولین مختلف کشور خودمان دربارۀ یک موضوع چالش برانگیز پخش شود و پیامی نگران کننده برای افکار عمومی به همراه داشته باشد، برای مثال پیام این باشد که قیمت یک کالای اساسی از روز بعد ده برابر میشود، چطور باید افکار عمومی را در چنین شرایطی آرام کرد، در حالی که صد ویدئو از تصدیق چنین موضوعی از زبان مسئولان مختلف کشور شنیدهاند؟!
البته نگرانی از خطرات دیپفیک محدود به یک جغرافیای محدود نیست، باراک اوباما رئیس جمهور سابق آمریکا هم نگران تبعات این فناوری ترسناک است، وی مدتی پیش در گفتگویی رسانهای عنوان کرده بود: افراد قادر به تکثیر من و تغییر سخنهایم هستند و این کار بهاندازهای دقیق انجام میشود که گویی نسخه تکثیرشده، بهواقع من هستم و آن صحبتها از زبان من گفته میشود؛ درحالیکه همهچیز کاملاً ساختگی است. اگر به مرحلهای برسیم که نتوان مرز بین حقیقت و دروغ را تشخیص داد، پایههای دموکراسی ما که برمبنای حقیقت بنا شده، به لرزه خواهد افتاد.
«نمونه دیپ فیک ساخته شده از باراک اوباما»
پیش از معرفی این فناوری، مردم جهان برای پذیرفتن واقعی یا غیرواقعی بودن یک موضوع، خصوصاً در مسائل حساس سیاسی و امنیتی به دنبال پیدا کردن یک صوت یا ویدئو از سوی افراد مرتبط با ماجرا بودند اما حالا دستگاههای امنیتی و اپوزیسونهای کشورهای مختلف برای رسیدن به اهداف خود قادر به تولید و انتشار ساعتها ویدئو و صوتی جعلی هستند.
متاسفانه فعلاً راهکار قطعی و عمومی هم برای تشخیص ویدئوی درست از نادرست وجود ندارد، البته دستگاههای نظامی و امنیتی با استفاده از فناوری «یادگیری عمیق» به کمک ماشین قادر هستند که نادرست بودن، یک ویدئو را تشخیص دهند اما این فناوری در حال حاضر در اختیار عموم نیست.
راهکار اساسی برای مواجهه با دیپفیکها تلاش دولتها برای ارتقاء سواد رسانهای و آموختن این مهم به افکار عمومی است که برای قضاوت دربارۀ یک ویدئو یا صوت باید اظهارات شنیده شده را با مواضع گذشته فرد تطبیق دهند.
سالها قبل انگارهای در فرهنگ عامۀ ما وجود داشت با این مضمون که انسان تا چیزی را نشنیده یا ندیده، نباید باور کند اما حالا به نظر میرسد که باید فرهنگ عامه را هم تغییر داد، «انسان دیگر قادر نیست به گوش و چشم خود هم اعتماد کند!» به عبارت دیگر نابینایی و ناشنوایی در حال فراگیری در جهان است؛ چرا که اگر چارهاندیشی انجام نشود، رسانههای غیر موثق به راحتی توان تخدیر ذهنی مخاطب خود را پیدا خواهند کرد!
ب ـ کلاهبرداری و سوء استفادۀ مالی از افراد
گروهی دیگر از افراد این فناوری را برای کلاهبرداری به کار میگیرند، آنها از تصویر نمایۀ کاربران عادی شبکههای اجتماعی، ویدئوهای جعلی میسازند و قربانی را وادار میکنند که «باج» پرداخت کند!
کلاهبرداران امکان ساخت و انتشار ویدئوهای جعلی با موضوعات مختلفی را دارند که کاربران ناآگاه را بدل به قربانی بالقوه برای آنها کند، فریب دادن مردم و دریافت اطلاعات حسابهای بانکی یکی از محتملترین اهداف کلاهبرداران اینترنتی در استفاده از دیپ فیک است.
ج ـ اخاذی از افراد با تولید ویدئوهای غیر اخلاقی!یکی از بحثبرانگیزترین و غیراخلاقیترین زمینههای فعالیت دیپفیک، تولید محتوای ویدئویی بزرگسالانه است. سال ۲۰۱۷ میلادی، کاربری در وبسایت ردیت؛ ویدئویی غیراخلاقی و دروغین از بازیگری با نام Gal Gadot منتشر کرد که وی را درحال ایفای نقش در فیلمهای غیراخلاقی نشان میداد. اگرچه این ویدئو توسط فناوری دیپفیک ساخته شده بود اما نوع مونتاژ بهگونهای بود که در نگاه نخست کمتر کسی میتوانست متوجه جعلیبودن ویدئو شود.
طولی نکشید که اتفاقات مشابه با همین مضمون برای دیگر بازیگران مطرحِ سینما رخ داد؛ بدینگونه، افرادی که در ابتداییترین جنبههای زندگی روزمره خود جانب احتیاط را پیشه میکنند، خود را در ویدئوهایی دیدند که پیشتر تصور آن نیز از ذهنها دور بواسکارلت جوهانسون، یکی از بازیگران مطرح سینمای هالیوود که خود قربانی این ویدئوها بوده است، میگوید:
البته فقط افراد مشهور نیستند که قربانی چنین محتوایی میشوند، فراگیری فناوری «جعل عمیق» میتواند منجر به انتشار هزاران ویدئو به قصد اخاذی از افراد مختلف جامعه شود همانطور که گفته شد، اساسی ترین راهکار جلوگیری از این مشکل در کنار تلاش برای فراگیر شدن ابزارهای مرتبط با «یادگیری عمیق» بین مردم جهت بررسی فایلهای مختلف، ارتقاء سواد رسانهای در میان آنها است.
انتهای پیام/
آیا این خبر مفید بود؟نتیجه بر اساس رای موافق و رای مخالف
منبع: خبرگزاری برنا
کلیدواژه: اوباما ایران چین آمریکا گوش ناشنوا اعتماد چشم نابینا سواد رسانه ای بایدن ایلان ماسک ویدئوی جعلی یادگیری عمیق دیپ فیک صوت جعلی جعل عمیق تولید ویدئو رئیس جمهور هوش مصنوعی رسانه ای جعل عمیق
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.borna.news دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری برنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۳۴۹۳۷۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
نقش آزمایشگاههای پزشکی هوشمند در تشخیص بیماریها
به گزارش انجمن دکترای علوم آزمایشگاهی تشخیص طبی ایران، سید محمود تارا نائب رئیس کارگروه سلامت دیجیتال فرهنگستان علوم پزشکی ایران و مسئول پنل پیش نیازهای شکل گیری آزمایشگاه پزشکی هوشمند در بیست و یکمین کنگره کشوری و پانزدهمین کنگره بین المللی ارتقای کیفیت خدمات آزمایشگاهی تشخیص پزشکی ایران که در روزهای ۱۱ الی ۱۴ اردیبهشت ماه ۱۴۰۳ در مرکز همایشهای برج میلاد برگزار میشود، اظهار داشت: آزمایشگاههای بالینی و پزشکی هوشمند امروزه یکی از پایههای مهم در تشخیص و مدیریت بیماریها محسوب میشوند. این آزمایشگاهها با استفاده از تکنولوژیهای هوش مصنوعی، اطلاعات پزشکی را تحلیل کرده و الگوریتمهای پیشرفتهای را به کار میبرند تا بیماریها را سریعتر بهبود بخشند. اهمیت آنها در دنیای امروزی این است که این تکنولوژیها به پزشکان کمک میکنند تا بیماریها را به دقت تشخیص دهند، پیش بینی کنند و درمانهای بهتر و موثرتری را ارائه دهند.
وی افزود: هر چند در سطح جهانی، آزمایشگاههای پزشکی امروزی به طور گستردهای از تکنولوژیهای هوشمند مانند سیستمهای اتوماسیون، تجهیزات تصویری پیشرفته (به ویژه در پاتولوژی و مطالعه لام)، سیستمهای اطلاعات آزمایشگاهی هوشمند، بستر دادههای بزرگ و سیستمهای پشتیبانی تصمیمگیری بر اساس هوش مصنوعی استفاده میکنند ولی این اتفاق، هنوز در کشور ما، در حال طی مراحل اولیه هستند و آزمایشگاههای اندکی وجود دارند که پیشرفتهای قابل ملاحظهای در این زمینه داشته اند.
این متخصص حوزه انفورماتیک سلامت و بالین با اشاره به نیازهای اساسی و مهم در شکل گیری آزمایشگاههای پزشکی هوشمند بیان داشت: برای شکلگیری آزمایشگاههای پزشکی هوشمند، نیازمندیهای اساسی شامل دسترسی به دادههای بزرگ و با کیفیت، تکنولوژیهای پردازش داده قدرتمند، استانداردهای امنیتی برای حفظ حریم خصوصی بیماران و تواناییهای فنی- انسانی همکاری و ارتباطات مؤثر بین تجهیزات و سیستمها هستند. پس از شکل گیری زیرساخت حداقل، بکارگیری تیم خبره این حوزه و تشکیل تیمهای مشترک با کادر بالینی شروع کننده اولین فعالیت هاست.
وی به نقش شرکتهای دانش بنیان ایرانی در برطرف کردن این نیازها تاکید کرد و گفت: شرکتهای دانش بنیان ایرانی با توجه به تواناییها و تخصصهای خود، میتوانند در برطرف کردن نیازهای ذکر شده نقش مهمی داشته باشند. آنها میتوانند به طراحی و توسعه نرمافزارهای پزشکی، تولید تجهیزات آزمایشگاهی پیشرفته و ارائه راهکارهای هوشمند برای مدیریت دادههای پزشکی و اطلاعات بیماریها کمک کنند. این بستر، به خصوص در کشور ما، بستری گسترده و پتانسیل فعالیت فراوان دارد.
باشگاه خبرنگاران جوان علمی پزشکی بهداشت و درمان