به گزارش رصد روز به نقل از روابط عمومی بیمه رازی، این روزها بخش بزرگی از محتوای شبکههای اجتماعی و حتی درگاههای رسانهای رسمی را اخباری به خود اختصاص داده اند که به راحتی رد مولفههای مربوط به (فیک نیوز) را میتوان در آنها رصد کرد. اخبار جعلی مرگ چهرههای مشهور، اتفاقات محیرالعقول حول افراد شاخص و مقامات، تحولات بزرگ و جنجالی اجتماعی و اقتصادی، مسائل خصوصی مربوط به زندگی سلبریتیها و….. . از نظر تهیه کنندگان محتوای فیک، همیشه عدهای در حال جنجال به پا کردن و عدهای دیگر در حال غوغا به پا کردنند.
مسألهای که با اهداف سادهای مانند جذب بیننده و مخاطب ولو از طریق دروغ و فریب یا اهداف پیچیده و خطرناکی مانند بازیهای سیاسی برای کسب قدرت یا رقابتهای اقتصادی در سطح کلان بهکار میروند. فیک نیوزها که در شبکههای اجتماعی نیز این روزها فضای مانور بسیار زیادی پیدا کردهاند تا جاییکه به گمان برخی از متخصصان حوزه ارتباطات این روزها درصد غالب خبرها را تشکیل میدهند، بسیار خطرناک و مخرب میتوانند باشند.
برخی از کارشناسان ارتباطات حتی رقابت بر سر ابزارهای تولید فیک نیوز را نوعی رقابت تسلیحاتی عصر حاضر میدانند. این مسأله اما الان و با رشد، ارتقا و پیشرفت روز افزون تکنولوژیهای مربوط به هوش مصنوعی بسیار ابعاد تازه و پیچیدهتری پیدا کرده است. با رشد ابزارهای هوش مصنوعی کم کم مفهوم تازهای به اسم (دیپ فیک) یا واقع نمایی عمیق بر سر زبانها افتاده است. تکنولوژی ترسناکی که بهراحتی و با ابزارهایی بهینهسازی شده میتواند صدا، تصویر یا عکس هر شخصی را در حال گفتن مطلب یا انجام عملی بازسازی کند، رویدادهای خاصی را طراحی و واقع نمایی کند و در قالب یک تصویر خبری ارائه داده و یا متونی در قالب خبر، تحلیل، تاریخ و اطلاعات عمومی بهصورت کاملاً ساختگی و غیر واقعی ارائه دهد.
از سویی اما هوش مصنوعی بهصورت بالقوه توان مقابله با فیک نیوزها را نیز بهخوبی دارد. میتوان با استفاده از ابزارهای هوش مصنوعی بسیار بهتر و بیش از پیش اخبار جعلی را شناسایی و صحت سنجی کرد و کمتر در دام اینگونه اخبار افتاد. در نتیجه دور از انتظار نیست که بحثهای زیادی در محافل علمی و رسانهای حول این موضوع دربگیرد که در این نوشتار نیز به گوشهای از همین موضوعات پرداخته شده است.
هوش مصنوعی و سودای دیگری بودن
میخواهید خودتان را شبیه رئیس جمهور کنید؟ در گذشته، این امر مستلزم تقلید فیزیکی از صدای او، سبک و استایل فیزیکی و حرکات او بود. و حتی اگر در این کار خیلی خوب بودید، تقریباً به طور قطع خطری برای جامعه یا بنیانهای جمهوریت ایجاد نمیکرد. اما تکنولوژی آن را تغییر داده است. اکنون میتوانید به راحتی و با دقت هر کسی را از طریق هوش مصنوعی وادار کنید چیزی که میخواهید بگوید. کافیست از سرویس یک برنامه آنلاین برای ضبط یک جمله استفاده کنید و آنچه را که با صدای یک فرد مشهور گفتید گوش دهید.برنامههایی مانند این اغلب واقع نمایی عمیق یا (دیپ فیک ) نامیده میشوند – سیستمهای هوش مصنوعی که صدا، تصاویر و ویدیوها را به گونهای تطبیق میدهند که افراد را وادار به گفتن و انجام کارهایی کنند که هرگز انجام ندادهاند.
این فناوریها میتوانند عصر جدیدی از اخبار جعلی و اطلاعات غلط آنلاین را آغاز کنند. در سال ۲۰۱۷، هانی فرید، دانشمند کامپیوتر در کالج دارتموث، ایالات متحده، که ویدیوهای جعلی را شناسایی می کند، گفت که گسترش سریع تکنیکهای جدید دستکاری و جعل محتوای رسانهای منجر به «مسابقه تسلیحاتی» شده است. فقط تصور کنید زمانی که دیگر نتوانیم به ویدیو و صدا اعتماد کنیم، در آنصورت در هنگام برگزاری یک انتخابات عمومی با چه چالشهایی روبهرو میشویم. اما برخی از محققان اکنون در حال مبارزه با ابعاد منفی این مسأله و کار بر روی ابعاد مثبت آن هستند تا نشان دهند که هوش مصنوعی میتواند در این زمینه هم کاربردهای مثبت و مفیدی داشته باشد.
فرانچسکو نوچی، مدیر تحقیقات برنامههای کاربردی در گروه مهندسی مستقر در ایتالیا، میگوید: «هوش مصنوعی مشکلات اخلاقی زیادی دارد. اما گاهی اوقات میتواند راهحل هم باشد. میتوانید از هوش مصنوعی به روشهای غیراخلاقی برای ساختن و انتشار اخبار جعلی استفاده کنید، اما همچنین میتوانید از آن برای انجام کارهای خوب، مثلا برای مبارزه با اطلاعات نادرست استفاده کنید.»رصدکنندههای واقعیت نوچی محقق اصلی پروژه Fandango است، که هدف آن انجام همین کار است. او میگوید این تیم در حال ساخت ابزارهای نرمافزاری برای کمک به روزنامهنگاران و بررسیکنندگان واقعیت یا اصطلاحاً (فکت چکرها) هستند که اخبار جعلی را شناسایی و با آن مبارزه میکنند. آنها امیدوارند بتوانند از سه طریق به روزنامهنگاران کمک کنند.
اولین مؤلفه همان چیزی است که نوچی آن را تشخیص مستقل از محتوا با استفاده از ابزارهایی که فرم محتوا را هدف قرار میدهند، مینامد.
نوچی توضیح میدهد که امروزه، تصاویر و ویدیوها را میتوان به راحتی دستکاری کرد، چه از طریق فتوشاپ ساده و چه از طریق تکنیکهای پیچیدهتر مانند دیپ فیک. سیستمهای هوش مصنوعی میتوانند این تغییرات را مهندسی معکوس کنند و از الگوریتمهایی برای کمک به خبرنگاران برای شناسایی محتوای دستکاری شده استفاده کنند.
این ابزارها تصاویر را بررسی میکنند و دیگر بررسی نمی کنند که آیا خود محتوا ادعاهای نادرستی دارد یا خیر. در بخش دوم وظیفه صحت سنجی محتوا با ابزارهای دیگری از هوش مصنوعی انجام میگیرد. این ابزارها مطالب و محتواهایی را رصد و پیدا میکنند که نادرستی آنها توسط بررسیکنندگان حقایق انسانی اثبات شدهاند. سپس به دنبال رد آنها در محتوای مورد بررسی میگردند و درصورت پیدا کردن ادعایی مشابه، آلارم جعلی بودن میدهند. هر دوی این مؤلفهها به شدت بر الگوریتمهای هوش مصنوعی مختلف مانند پردازش زبان طبیعی متکی هستند اما مؤلفه سوم به روزنامه نگاران اجازه می دهد تا به اخبار جعلی پاسخ دهند.
برای مثال، یک داستان جعلی میتواند این ادعا را مطرح کند که درصد بالایی از جنایات در یک کشور اروپایی توسط مهاجران خارجی انجام میشود. از نظر تئوری ممکن است به راحتی ادعای نقض بهدلیل حجم زیادی از دادههای باز موجود باشد، با این حال روزنامهنگاران زمان ارزشمندی را برای یافتن آن دادهها تلف میکنند. بنابراین، ابزارهای هوش مصنوعی انواع منابع داده باز اروپایی را به هم پیوند میدهد و آنها را دستهبندی و تصویرسازی میکند. روزنامهنگاران میتوانند برای مثال از دادههای ملی برای رسیدگی به ادعاهای مربوط به جنایات استفاده کنند و در اندک زمانی به پاسخ برسند. به این ترتیب روزنامه نگاران میتوانند به سرعت به اخبار یا ادعاهای جعلی پاسخ دهند و وقت را نیز تلف نکنند.
.
برخورد غیر معمول با یک معضل معمول
مایکل برونشتاین، استاد دانشگاه لوگانو سوئیس و کالج امپریال لندن میگوید: شناسایی اخبار جعلی نه تنها یک نیاز اساسی برای تشخیص اخبار جعلی و ادعاهای نادرست است. بلکه همچنین برای تجزیه و تحلیل الگوهای اشتراکگذاری محتوا در رسانههای اجتماعی بسیار مهم است. او پروژهای به نام GoodNews را رهبری میکند که از هوش مصنوعی برای اتخاذ رویکردی غیرمعمول برای تشخیص اخبار جعلی استفاده میکند.
پروفسور برونشتاین میگوید: «بیشتر رویکردهای تشخیص محتوای جعلی موجود به محتوا نگاه میکنند.» آنها ویژگیهای معنایی را که مشخصه اخبار جعلی هستند، تحلیل میکنند. که تا حدودی کار میکند، اما با انواع مشکلات روبهرو میشود.