اینترنت علیرغم مزیتهای بسیاری که دارد مکانی ایدهآل برای سوءاستفاده هم است. در صورت استفاده نادرست از اینترنت، میتوان آن را یکی از خطرناکترین ساختههای دست بشر دانست. نظارت و تعدیل محتوای آنلاین یکی از مهم ترین راههایی است که شرکتها از طریق آن میتوانند پلتفرمهای خود را به مکانی امنتر برای کاربرانشان تبدیل کنند. با این حال این کار به راحتی امکانپذیر نیست.
حجم اطلاعات موجود در اینترنت بسیار زیاد است. تشخیص محتوای زننده، توهین آمیز یا غیر قانونی کار بسیار دشواری است. اصطلاح data overload به معنی سربار شدن دادهها به همین موضوع اشاره دارد؛ اینکه حجم دادههای تولید شده توسط کاربران به قدری زیاد است که شناسایی و گروه بندی آنها بسیار سخت است. در این مطلب سیار نیوز به نقش هوش مصنوعی در حل چالشهای این حوزه میپردازیم.
توانایی هوش مصنوعی در تشخیص خودکار
اینجا جایی است که هوش مصنوعی میتواند عرض اندام کند. یکی از جنبههای هوش مصنوعی، استفاده از الگوریتمهای یادگیری ماشین برای تشخیص و دسته بندی انواع محتوا است. شرکتها با استفاده از این الگوریتمها میتوانند محتوای ناامن را به محض ایجاد شدنشان تشخیص دهند.
بنابراین دیگر نیازی به ساعتها انتظار جهت بررسی محتوا به روشهای دیگر نیست. استفاده از هوش مصنوعی به جای افراد، موجب بالا رفتن ضریب اطمینان خروجی حاصل از بررسی محتوای آنلاین هم میشود.
به عنوان مثال، توئیتر از هوش مصنوعی برای تشخیص و حذف تبلیغات تروریستی از پلتفرمش استفاده میکند. در حال حاضر، هوش مصنوعی بیش از نیمی از توئیتها را به دلیل ناسازگاری با شرایط تعریف شده برای آن علامت گذاری میکند. این در حالی است که پاراگ آگراوال، مدیر اجرایی توئیتر، تمرکزش را روی استفاده از هوش مصنوعی برای تشخیص عبارت تنفرآمیز و حاوی اطلاعات نادرست کرده است.
به همین ترتیب، هوش مصنوعی فیسبوک هم حدود ۹۰ درصد محتوای غیرمجاز مثل برهنگی، خشونت و دیگر محتوای زننده را به درستی تشخیص داده و حذف میکند. با این حال، مانند توئیتر، فیسبوک هم راه درازی برای تکمیل هوش مصنوعی خود در پیش دارد.

مشکلات هوش مصنوعی در تشخیص محتوای آنلاین
علیرغم پیشرفتهای قابل توجه، کنترل محتوای آنلاین بر مبنای هوش مصنوعی با چالشهای زیادی مواجه است. یکی از این چالشها علامت گذاری اشتباه محتوای سالم به عوان یک محتوای ناسالم است. این اشتباه، عواقب بسیاری بدی به دنبال دارد.
مثلا فیسبوک در ابتدای دوران آغاز همهگیری، اخبار و مقالاتی مربوط به ویروس کرونا را به عنوان اسپم تشخیص میداد. این اشتباه منجر به بسته شدن برخی از صفحههای پرطرفدار فیسبوک به مدت ۲ ماه شد.
اشتباه در تشخیص محتوای ناسالم میتواند منجر به اتفاقات ناخوشایندتری هم بشود. به عنوان مثال، یک گروه گانگستری در ال پاسو و گیلروی، روزها قبل از انجام یک سری اقدامات خرابکارانه، از قصد خود در شبکههای اجتماعی 8chan و اینستاگرام پرده برداشته بودند.
ولی متاسفانه هیچ اقدامی در این باره انجام نشد و هوش مصنوعی هم محتوای منتشر شده توسط آنها را به عنوان محتوایی غیر قانونی تشخیص نداد. همچنین اطلاعات نادرست در رابطه با جنگ روسیه و اوکراین که به راحتی در فیسبوک، توئیتر، یوتیوب و تیک تاک انتشار پیدا میکنند را هم میتوان به این لیست اضافه کرد.
یکی دیگر از مشکلات سیستمهای هوش مصنوعی تعدیل محتوای آنلاین این است که نمیتوانند به درستی از پس تشخیص عباراتی با منظور و هدف نژادپرستانه بر بیایند. این قبیل مسائل باید حل شوند تا بیش از پیش شاهد محیطی امن و قابل استفاده برای همه در اینترنت باشیم.
پیشرفتهای هوش مصنوعی
برای حل این مشکلات، سیستمهای هوش مصنوعی نیاز به دادههای آموزشی با کیفیتتری دارند. امروزه بسیاری از شرکتها دادههای خود را برای آموزش دادن سیستمهای هوش مصنوعی در کشورهای جهان سوم، برون سپاری میکنند.
دلیل این کار این است که این سیستمها فاقد آشنایی با مهارتهای زبانی و زمینههای فرهنگی لازم جهت تعدیل محتوا به صورت دقیق هستند. در واقع، یک عبارت ممکن است در کشور آمریکا کاملا عادی تلقی شود در حالی که در کشوری دیگر عبارتی توهین آمیز و بسیار زشت محصوب شود.
یک شرکت به نام Surge AI در حال کار برای حل این مشکل است. این شرکت یک پلتفرم برچسب گذاری داده طراحی کرده است که برای آموزش هوش مصنوعی جهت تشخیص تفاوتهای ظریف زبانی به کار میرود. این پلتفرم توسط تیمی از مهندسان و محققانی که پلتفرمهای موجود در فیسبوک، یوتیوب و توئیتر را ساختهاند ایجاد شده است.
به عنوان مثال، فیسبوک با مشکلات بسیار زیادی جهت جمع آوری دادههای با کیفیت برای آموزش سیستمهای هوش مصنوعی به زبانهای محتلف مواجه شده است. علیرغم اندازه این شرکت و گستردگی آن در سطح جهان، باز هم محتوای کافی برای آموزش و تصحیح مدلهای زبانی سیستمهای هوش مصنوعی به زبانهایی چون عربی را در اختیار نداشت.
همچنین عدم برخورداری از لیست کاملی از عبارات ناخوشایند به زبان فارسی، موجب انتشار بسیاری از پستهای خشونت آمیز در کشور افغانستان شده است. همین مشکل به نوعی در دیگر کشورها که از زبان متفاوتی استفاده میکنند هم به وجود آمده است. Surge AI با تمرکز بر این دسته از مسائل، سعی در حل آن با استفاده از قوی کردن دیتابیس خود کرده است.

هرچه دیتابیس قویتر و با کیفیت تری در اختیار داشته باشیم پلتفرمهای شبکه اجتماعی میتوانند از آموزش دقیق تری برای کار با الگوریتمهای تصحیح محتوای آنلاین برخوردار شوند. این مساله در نهایت موجب امنتر شدن این شبکهها خواهد شد.
مدلهای یادگیری ماشین با داشتن دادههای کافی میتوانند با دقت بیشتری به پیدا کردن کلمات نامناسب بپردازند؛ بدون اینکه درگیر مشکلات خطرناکی شبیه آنچه پیش از این مرور کردیم بشوند.
شاید کنترل محتوای آنلاین با کمک هوش مصنوعی راه حل کامل و نهایی نباشد. ولی نمیتوان ارزشمندی و کارآمدی هوش مصنوعی برای کمک به شرکتها جهت امنتر کردن محیط پلتفرم هایشان را نادیده گرفت. با گسترش استفاده از هوش مصنوعی میتوانیم امیدوار باشیم که در آیندهای نزدیک یک محیط آنلاین امن در سرتاسر جهان داشته باشیم.
لینک کوتاه: