Web Analytics Made Easy - Statcounter
به نقل از «خبرگزاری برنا»
2024-04-28@21:33:24 GMT

تکنولوژی وحشتناک؛ دیگر به چشم و گوش خود هم اعتماد نکنید!

تاریخ انتشار: ۲۶ اسفند ۱۴۰۱ | کد خبر: ۳۷۳۴۹۳۷۷

تکنولوژی وحشتناک؛ دیگر به چشم و گوش خود هم اعتماد نکنید!

‍‍‍‍‍‍

«دیپ فیک» یا جعل عمیق تکنولوژی مبتنی بر هوش مصنوعی است که استفاده از منجر به تولید ویدئو و اصوات جعلی می‌شود، فایل‌هایی که سبب می‌شود دیگر انسان به راحتی حتی توان اعتماد به گوش و چشم خود را هم نداشته باشد.

گروه علمی و فناوری خبرگزاری برنا- علی پژوهش؛ فناوری‌های مرتبط با هوش مصنوعی بعد از معرفی چت‌بات‌ها توسط مایکروسافت بار دیگر بر سر زبان‌ها افتادند، کاربران مختلف هیجان‌زده از صحبت با موجوداتی هستند که واقعیت وجودی ندارند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

چت‌بات‌ها البته برای همۀ جهان خوشایند نبوده‌اند، برای مثال گوگل به عنوان بزرگترین موتور جستجوی جهان نسبت به این فناوری حالت تدافعی گرفته است؛ چرا که پیش‌بینی می‌کند، این محصول جدید در آینده تهدیدی وجودی برای موتورهای جستجو باشند.

هوش مصنوعی و فناوری‌های وابسته به آن محدود به چت‌بات‌ها نیستند، یکی از مهم‌ترین و البته خطرناک‌ترین پدیده‌های حاصل از هوش مصنوعی، تکنولوژی جعل عمیق یا «دیپ فیک» است، این فناوری در نگاه اول جذاب به نظر می‌رسد و کاربران عادی فضای وب سعی می‌کنند با ساخت ویدئوهای سرگرم‌کننده از دیپ فیک‌ها لذت ببرند، ساخت ویدئوهای سرگرم‌کننده از افراد مشهور مانند بازیگران از جمله پرکاربردترین زمینه‌های استفاده از «دیپ‌فیک‌ها» است.

«نمونه‌ دیپ فیک ساخته شده از بازیگران مشهور»

گروهی دیگر از کاربران هم برای سرگرم شدن به ساخت ویدئوهای فیک از سایر افراد مشهور جهان مانند سرمایه‌داران بزرگ همچون ایلان ماسک استفاده می‌کنند.

«نمونه‌ دیپ فیک ساخته شده از ایلان ماسک»

موضوع اما به همین جا ختم نمی‌شود و نباید ساده‌اندیشانه از کنار «دیپ فیک» به عنوان یک فناوری صرفاً سرگرم کننده عبور کنیم، این تکنولوژی در کنار همۀ وجوه سرگرمی خود، خطرات جدی هم همراه با خود دارد که برخی از آن‌ها را در زیر مرور می‌کنیم.

الف ـ جعل ویدئو یا صوت از سیاستمداران معروف

امروز هوش مصنوعی محدود به تولید ویدئوهای جعلی نیست و فناوری توان ساخت صوت‌های مجعول از افراد معروف را هم دارد، یکی از زمینه‌های چالش بر انگیز برای تولید فایل‌های چندرسانه‌ای جعلی، تولید ویدئو یا صوت با فناوری «جعل عمیق» دربارۀ یک کشور از زبان سیاستمدارانش است.

«نمونه‌ دیپ فیک ساخته شده از سیاستمداران معروف جهان»

تصور کنید به یک باره سخنرانی ویدئویی از پوتین (رئیس جمهور روسیه)، شی (رئیس جمهور چین) یا بایدن (رئیس جمهور آمریکا) در فضای مجازی پخش شود که حاوی پیامی برای مردم جهان با این مضمون است؛ «امروز جنگ جهانی سوم با فرمان من شروع می‌شود، دستور حملۀ اتمی به تمام کشورهای متخاصم را می‌دهم!» حتی تصورش هم رعب آور است که چطور باید جلوی پخش این شایعۀ را گرفت؟!

مثال برای این شکل از بحران‌ها کم نیست، فرض کنید، در یک روز صد ویدئو از مسئولین مختلف کشور خودمان دربارۀ یک موضوع چالش برانگیز پخش شود و پیامی نگران کننده برای افکار عمومی به همراه داشته باشد، برای مثال پیام این باشد که قیمت یک کالای اساسی از روز بعد ده برابر می‌شود، چطور باید افکار عمومی را در چنین شرایطی آرام کرد، در حالی که صد ویدئو از تصدیق چنین موضوعی از زبان مسئولان مختلف کشور شنیده‌اند؟!

البته نگرانی از خطرات دیپ‌فیک محدود به یک جغرافیای محدود نیست، باراک اوباما رئیس جمهور سابق آمریکا هم نگران تبعات این فناوری ترسناک است، وی مدتی پیش در گفتگویی رسانه‌ای عنوان کرده بود: افراد قادر به تکثیر من و تغییر سخن‌هایم هستند و این کار به‌اندازه‌ای دقیق انجام می‌شود که گویی نسخه تکثیر‌شده، به‌واقع من هستم و آن‌ صحبت‌ها از زبان من گفته می‌شود؛ در‌حالی‌که همه‌چیز کاملاً ساختگی است. اگر به‌ مرحله‌ای برسیم که نتوان مرز بین حقیقت و دروغ را تشخیص داد، پایه‌های دموکراسی ما که برمبنای حقیقت بنا شده، به‌ لرزه خواهد افتاد.

«نمونه‌ دیپ فیک ساخته شده از باراک اوباما»

پیش از معرفی این فناوری، مردم جهان برای پذیرفتن واقعی یا غیرواقعی بودن یک موضوع، خصوصاً در مسائل حساس سیاسی و امنیتی به دنبال پیدا کردن یک صوت یا ویدئو از سوی افراد مرتبط با ماجرا بودند اما حالا دستگاه‌های امنیتی و اپوزیسون‌های کشورهای مختلف برای رسیدن به اهداف خود قادر به تولید و انتشار ساعت‌ها ویدئو و صوتی جعلی هستند.

متاسفانه فعلاً راهکار قطعی و عمومی هم برای تشخیص ویدئوی درست از نادرست وجود ندارد، البته دستگاه‌های نظامی و امنیتی با استفاده از فناوری «یادگیری عمیق» به کمک ماشین قادر هستند که نادرست بودن، یک ویدئو را تشخیص دهند اما این فناوری در حال حاضر در اختیار عموم نیست.

راهکار اساسی برای مواجهه با دیپ‌فیک‌ها تلاش دولت‌ها برای ارتقاء سواد رسانه‌ای و آموختن این مهم به افکار عمومی است که برای قضاوت دربارۀ یک ویدئو یا صوت باید اظهارات شنیده شده را با مواضع گذشته فرد تطبیق دهند.

سال‌ها قبل انگاره‌ای در فرهنگ عامۀ ما وجود داشت با این مضمون که انسان تا چیزی را نشنیده یا ندیده، نباید باور کند اما حالا به نظر می‌رسد که باید فرهنگ عامه را هم تغییر داد، «انسان دیگر قادر نیست به گوش و چشم خود هم اعتماد کند!» به عبارت دیگر نابینایی و ناشنوایی در حال فراگیری در جهان است؛ چرا که اگر چاره‌اندیشی انجام نشود، رسانه‌های غیر موثق به راحتی توان تخدیر ذهنی مخاطب خود را پیدا خواهند کرد!

 

ب ـ کلاهبرداری و سوء استفادۀ مالی از افراد

گروهی دیگر از افراد این فناوری را برای کلاهبرداری به کار می‌گیرند، آن‌ها از تصویر نمایۀ کاربران عادی شبکه‌های اجتماعی، ویدئوهای جعلی می‌سازند و قربانی را وادار می‌کنند که «باج» پرداخت کند!

کلاهبرداران امکان ساخت و انتشار ویدئوهای جعلی با موضوعات مختلفی را دارند که کاربران ناآگاه را بدل به قربانی بالقوه برای آن‌ها کند، فریب دادن مردم و دریافت اطلاعات حساب‌های بانکی یکی از محتمل‌ترین اهداف کلاهبرداران اینترنتی در استفاده از دیپ فیک است.

ج ـ اخاذی از افراد با تولید ویدئوهای غیر اخلاقی!

یکی از بحث‌برانگیز‌ترین و غیراخلاقی‌ترین زمینه‌های فعالیت دیپ‌فیک، تولید محتوای ویدئویی بزرگسالانه است. سال ۲۰۱۷ میلادی، کاربری در وب‌سایت ردیت؛ ویدئویی غیراخلاقی و دروغین از بازیگری با نام Gal Gadot منتشر کرد که وی را درحال ایفای نقش در فیلم‌های غیراخلاقی نشان می‌داد. اگرچه این ویدئو توسط فناوری دیپ‌فیک ساخته شده بود اما نوع مونتاژ به‌گونه‌ای بود که در نگاه نخست کمتر کسی می‌توانست متوجه جعلی‌بودن ویدئو شود.

طولی نکشید که اتفاقات مشابه با همین مضمون برای دیگر بازیگران مطرحِ سینما رخ داد؛ بدین‌گونه، افرادی که در ابتدایی‌ترین جنبه‌های زندگی روزمره خود جانب احتیاط را پیشه می‌کنند، خود را در ویدئو‌هایی دیدند که پیش‌تر تصور آن نیز از ذهن‌ها دور بواسکارلت جوهانسون، یکی از بازیگران مطرح سینمای هالیوود که خود قربانی این ویدئو‌ها بوده است، می‌گوید:

البته فقط افراد مشهور نیستند که قربانی چنین محتوایی می‌شوند، فراگیری فناوری «جعل عمیق»  می‌تواند منجر به انتشار هزاران ویدئو به قصد اخاذی از افراد مختلف جامعه شود همانطور که گفته شد، اساسی ترین‌ راهکار جلوگیری از این مشکل در کنار تلاش برای فراگیر شدن ابزارهای مرتبط با «یادگیری عمیق» بین مردم جهت بررسی فایل‌های مختلف، ارتقاء سواد رسانه‌ای در میان آن‌ها است. 

انتهای پیام/

آیا این خبر مفید بود؟

نتیجه بر اساس رای موافق و رای مخالف

منبع: خبرگزاری برنا

کلیدواژه: اوباما ایران چین آمریکا گوش ناشنوا اعتماد چشم نابینا سواد رسانه ای بایدن ایلان ماسک ویدئوی جعلی یادگیری عمیق دیپ فیک صوت جعلی جعل عمیق تولید ویدئو رئیس جمهور هوش مصنوعی رسانه ای جعل عمیق

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.borna.news دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری برنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۳۴۹۳۷۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

نقش آزمایشگاه‌های پزشکی هوشمند در تشخیص بیماری‌ها

به گزارش انجمن دکترای علوم آزمایشگاهی تشخیص طبی ایران، سید محمود تارا نائب رئیس کارگروه سلامت دیجیتال فرهنگستان علوم پزشکی ایران و مسئول پنل پیش نیاز‌های شکل گیری آزمایشگاه پزشکی هوشمند در بیست و یکمین کنگره کشوری و پانزدهمین کنگره بین المللی ارتقای کیفیت خدمات آزمایشگاهی تشخیص پزشکی ایران که در روز‌های ۱۱ الی ۱۴ اردیبهشت ماه ۱۴۰۳ در مرکز همایش‌های برج میلاد برگزار می‌شود، اظهار داشت: آزمایشگاه‌های بالینی و پزشکی هوشمند امروزه یکی از پایه‌های مهم در تشخیص و مدیریت بیماری‌ها محسوب می‌شوند. این آزمایشگاه‌ها با استفاده از تکنولوژی‌های هوش مصنوعی، اطلاعات پزشکی را تحلیل کرده و الگوریتم‌های پیشرفته‌ای را به کار می‌برند تا بیماری‌ها را سریع‌تر بهبود بخشند. اهمیت آنها در دنیای امروزی این است که این تکنولوژی‌ها به پزشکان کمک می‌کنند تا بیماری‌ها را به دقت تشخیص دهند، پیش بینی کنند و درمان‌های بهتر و موثرتری را ارائه دهند.

وی افزود: هر چند در سطح جهانی، آزمایشگاه‌های پزشکی امروزی به طور گسترده‌ای از تکنولوژی‌های هوشمند مانند سیستم‌های اتوماسیون، تجهیزات تصویری پیشرفته (به ویژه در پاتولوژی و مطالعه لام)، سیستم‌های اطلاعات آزمایشگاهی هوشمند، بستر داده‌های بزرگ و سیستم‌های پشتیبانی تصمیم‌گیری بر اساس هوش مصنوعی استفاده می‌کنند ولی این اتفاق، هنوز در کشور ما، در حال طی مراحل اولیه هستند و آزمایشگاه‌های اندکی وجود دارند که پیشرفت‌های قابل ملاحظه‌ای در این زمینه داشته اند. 

این متخصص حوزه انفورماتیک سلامت و بالین با اشاره به نیاز‌های اساسی و مهم در شکل گیری آزمایشگاه‌های پزشکی هوشمند بیان داشت: برای شکل‌گیری آزمایشگاه‌های پزشکی هوشمند، نیازمندی‌های اساسی شامل دسترسی به داده‌های بزرگ و با کیفیت، تکنولوژی‌های پردازش داده قدرتمند، استاندارد‌های امنیتی برای حفظ حریم خصوصی بیماران و توانایی‌های فنی- انسانی همکاری و ارتباطات مؤثر بین تجهیزات و سیستم‌ها هستند. پس از شکل گیری زیرساخت حداقل، بکارگیری تیم خبره این حوزه و تشکیل تیم‌های مشترک با کادر بالینی شروع کننده اولین فعالیت هاست.

وی به نقش شرکت‌های دانش بنیان ایرانی در برطرف کردن این نیاز‌ها تاکید کرد و گفت: شرکت‌های دانش بنیان ایرانی با توجه به توانایی‌ها و تخصص‌های خود، می‌توانند در برطرف کردن نیاز‌های ذکر شده نقش مهمی داشته باشند. آنها می‌توانند به طراحی و توسعه نرم‌افزار‌های پزشکی، تولید تجهیزات آزمایشگاهی پیشرفته و ارائه راهکار‌های هوشمند برای مدیریت داده‌های پزشکی و اطلاعات بیماری‌ها کمک کنند. این بستر، به خصوص در کشور ما، بستری گسترده و پتانسیل فعالیت فراوان دارد.

باشگاه خبرنگاران جوان علمی پزشکی بهداشت و درمان

دیگر خبرها

  • نخستین سمپوزیوم تکنولوژی درطراحی و بازطراحی برگزار شد
  • (ویدئو) تصاویری عجیب از نجات افراد در حال خودکشی
  • هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد
  • (ویدئو) سقوط وحشتناک یک زن از اتوبوس درون شهری
  • کسانی که اعتمادبه‌نفس آن‌ها نمایشی است، این رفتارها را دارند
  • بر مدار تراشه؛ ریز اما قلب تکنولوژی
  • نقش آزمایشگاه‌های پزشکی هوشمند در تشخیص بیماری‌ها
  • لحظه وحشتناک از منفجر شدن مین در دست سربازان روس + ویدئو | ببینید سرباز چقدر پرتاب شد!
  • (ویدئو) اینجا لندن است؛ اشتباه نکنید پاکستان نیست!
  • شگفتی بزرگ صداوسیما برای مردم ایران؛ صبح بخیر مسئولین!