نقش هوش مصنوعی در ایجاد محیطی امن در دنیای اینترنت

نقش هوش مصنوعی در ایجاد محیطی امن در دنیای اینترنت

اینترنت علیرغم مزیت‌های بسیاری که دارد مکانی ایده‌آل برای سوء‌استفاده هم است. در صورت استفاده نادرست از اینترنت، می‌توان آن را یکی از خطرناک‌ترین ساخته‌های دست بشر دانست. نظارت و تعدیل محتوای آنلاین یکی از مهم ترین راه‌هایی است که شرکت‌ها از طریق آن می‌توانند پلتفرم‌های خود را به مکانی امن‌تر برای کاربرانشان تبدیل کنند. با این حال این کار به راحتی امکان‌پذیر نیست.

حجم اطلاعات موجود در اینترنت بسیار زیاد است. تشخیص محتوای زننده، توهین آمیز یا غیر قانونی کار بسیار دشواری است. اصطلاح data overload به معنی سربار شدن داده‌ها به همین موضوع اشاره دارد؛ اینکه حجم داده‌های تولید شده توسط کاربران به قدری زیاد است که شناسایی و گروه بندی آن‌ها بسیار سخت است. در این مطلب سیار نیوز به نقش هوش مصنوعی در حل چالش‌های این حوزه می‌پردازیم.

توانایی هوش مصنوعی در تشخیص خودکار

اینجا جایی است که هوش مصنوعی می‌تواند عرض اندام کند. یکی از جنبه‌های هوش مصنوعی، استفاده از الگوریتم‌های یادگیری ماشین برای تشخیص و دسته بندی انواع محتوا است. شرکت‌ها با استفاده از این الگوریتم‌ها می‌توانند محتوای ناامن را به محض ایجاد شدنشان تشخیص دهند.

بنابراین دیگر نیازی به ساعت‌ها انتظار جهت بررسی محتوا به روش‌های دیگر نیست. استفاده از هوش مصنوعی به جای افراد، موجب بالا رفتن ضریب اطمینان خروجی حاصل از بررسی محتوای آنلاین هم می‌شود.

به عنوان مثال، توئیتر از هوش مصنوعی برای تشخیص و حذف تبلیغات تروریستی از پلتفرمش استفاده می‌کند. در حال حاضر، هوش مصنوعی بیش از نیمی از توئیت‌ها را به دلیل ناسازگاری با شرایط تعریف شده برای آن علامت گذاری می‌کند. این در حالی است که پاراگ آگراوال، مدیر اجرایی توئیتر، تمرکزش را روی استفاده از هوش مصنوعی برای تشخیص عبارت تنفرآمیز و حاوی اطلاعات نادرست کرده است.

به همین ترتیب، هوش مصنوعی فیسبوک هم حدود ۹۰ درصد محتوای غیرمجاز مثل برهنگی، خشونت و دیگر محتوای زننده را به درستی تشخیص داده و حذف می‌کند. با این حال، مانند توئیتر، فیسبوک هم راه درازی برای تکمیل هوش مصنوعی خود در پیش دارد.

حجم محتوای آنلاین
حجم محتوای اینترنت آنقدر زیاد است که بررسی آن توسط انسان ممکن نیست

مشکلات هوش مصنوعی در تشخیص محتوای آنلاین

علیرغم پیشرفت‌های قابل توجه، کنترل محتوای آنلاین بر مبنای هوش مصنوعی با چالش‌های زیادی مواجه است. یکی از این چالش‌ها علامت گذاری اشتباه محتوای سالم به عوان یک محتوای ناسالم است. این اشتباه، عواقب بسیاری بدی به دنبال دارد.

مثلا فیسبوک در ابتدای دوران آغاز همه‌گیری، اخبار و مقالاتی مربوط به ویروس کرونا را به عنوان اسپم تشخیص می‌داد. این اشتباه منجر به بسته شدن برخی از صفحه‌های پرطرفدار فیسبوک به مدت ۲ ماه شد.

اشتباه در تشخیص محتوای ناسالم می‌تواند منجر به اتفاقات ناخوشایندتری هم بشود. به عنوان مثال، یک گروه گانگستری در ال پاسو و گیل‌روی، روزها قبل از انجام یک سری اقدامات خرابکارانه، از قصد خود در شبکه‌های اجتماعی 8chan و اینستاگرام پرده برداشته بودند.

ولی متاسفانه هیچ اقدامی در این باره انجام نشد و هوش مصنوعی هم محتوای منتشر شده توسط آن‌ها را به عنوان محتوایی غیر قانونی تشخیص نداد. همچنین اطلاعات نادرست در رابطه با جنگ روسیه و اوکراین که به راحتی در فیسبوک، توئیتر، یوتیوب و تیک تاک انتشار پیدا می‌کنند را هم می‌توان به این لیست اضافه کرد.

یکی دیگر از مشکلات سیستم‌های هوش مصنوعی تعدیل محتوای آنلاین این است که نمی‌توانند به درستی از پس تشخیص عباراتی با منظور و هدف نژادپرستانه بر بیایند. این قبیل مسائل باید حل شوند تا بیش از پیش شاهد محیطی امن و قابل استفاده برای همه در اینترنت باشیم.

پیشرفت‌های هوش مصنوعی

برای حل این مشکلات، سیستم‌های هوش مصنوعی نیاز به داده‌های آموزشی با کیفیت‌تری دارند. امروزه بسیاری از شرکت‌ها داده‌های خود را برای آموزش دادن سیستم‌های هوش مصنوعی در کشورهای جهان سوم، برون سپاری می‌کنند.

دلیل این کار این است که این سیستم‌ها فاقد آشنایی با مهارت‌های زبانی و زمینه‌های فرهنگی لازم جهت تعدیل محتوا به صورت دقیق هستند. در واقع، یک عبارت ممکن است در کشور آمریکا کاملا عادی تلقی شود در حالی که در کشوری دیگر عبارتی توهین آمیز و بسیار زشت محصوب شود.

یک شرکت به نام Surge AI در حال کار برای حل این مشکل است. این شرکت یک پلتفرم برچسب گذاری داده طراحی کرده است که برای آموزش هوش مصنوعی جهت تشخیص تفاوت‌های ظریف زبانی به کار می‌رود. این پلتفرم توسط تیمی از مهندسان و محققانی که پلتفرم‌های موجود در فیسبوک، یوتیوب و توئیتر را ساخته‌اند ایجاد شده است.

به عنوان مثال، فیسبوک با مشکلات بسیار زیادی جهت جمع آوری داده‌های با کیفیت برای آموزش سیستم‌های هوش مصنوعی به زبان‌های محتلف مواجه شده است. علیرغم اندازه این شرکت و گستردگی آن در سطح جهان، باز هم محتوای کافی برای آموزش و تصحیح مدل‌های زبانی سیستم‌های هوش مصنوعی به زبان‌هایی چون عربی را در اختیار نداشت.

همچنین عدم برخورداری از لیست کاملی از عبارات ناخوشایند به زبان فارسی، موجب انتشار بسیاری از پست‌های خشونت آمیز در کشور افغانستان شده است. همین مشکل به نوعی در دیگر کشورها که از زبان متفاوتی استفاده می‌کنند هم به وجود آمده است. Surge AI با تمرکز بر این دسته از مسائل، سعی در حل آن با استفاده از قوی کردن دیتابیس خود کرده است.

محتوای آنلاین نامناسب
تشخیص و برچسب گذاری محتوای نامناسب کار بسیار دشواری است

هرچه دیتابیس قوی‌تر و با کیفیت تری در اختیار داشته باشیم پلتفرم‌های شبکه اجتماعی می‌توانند از آموزش دقیق تری برای کار با الگوریتم‌های تصحیح محتوای آنلاین برخوردار شوند. این مساله در نهایت موجب امن‌تر شدن این شبکه‌ها خواهد شد.

مدل‌های یادگیری ماشین با داشتن داده‌های کافی می‌توانند با دقت بیشتری به پیدا کردن کلمات نامناسب بپردازند؛ بدون اینکه درگیر مشکلات خطرناکی شبیه آنچه پیش از این مرور کردیم بشوند.

شاید کنترل محتوای آنلاین با کمک هوش مصنوعی راه حل کامل و نهایی نباشد. ولی نمی‌توان ارزشمندی و کارآمدی هوش مصنوعی برای کمک به شرکت‌ها جهت امن‌تر کردن محیط پلتفرم هایشان را نادیده گرفت. با گسترش استفاده از هوش مصنوعی می‌توانیم امیدوار باشیم که در آیندهای نزدیک یک محیط آنلاین امن در سرتاسر جهان داشته باشیم.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا