همانطور که احتمالاً میدانید ویکی پدیا یک دانشنامه آزاد است، یعنی هر کاربری میتواند با معرفی منابع مطالبی که میخواهد را منتشر کند. بنابراین شما نمیتوانید به اطلاعات ویکی پدیا چشمبسته اعتماد کنید و باید به منابع اصلی ذکر شده در صفحات آن مراجعه کنید. اما با این حال گاهی اوقات حتی منابع معرفی شده میتواند غیرصحیح و مغرضانه باشد و شما را به بیراهه بکشاند.
هوش مصنوعی به جنگ اطلاعات نادرست در ویکیپدیا میرود
برای رفع این مشکل محققان با استفاده از الگوریتمهای هوش مصنوعی برای شناسایی نقلقولهای مشکوک در وبسایت، مدلی ایجاد کردهاند که بر بهبود قابلیت اطمینان منابع ویکیپدیا متمرکز است.
این برنامه که SIDE نام دارد، دو کار انجام میدهد: 1) بررسی میکند که آیا منبع معرفی شده دقیق است یا خیر؟ 2) منابع جدیدی برای بررسی موضوع پیشنهاد میکند.
با این حال، این هوش مصنوعی با این فرض عمل میکند که ادعای صفحه ویکی پدیا را باید بررسی کند و نمیتواند به صورت جامع جنبههای دیگر را درک کند. این بدان معنی است که این ابزار میتواند اعتبار منبع را بررسی کند اما نمیتواند ادعاهای مطرح شده در یک ورودی را به طور کامل تأیید کند.
در مطالعات صورت گرفته، مردم در 70 درصد مواقع پیشنهاد هوش مصنوعی را به نسخه اصلی ترجیح دادند. محققان دریافتند که در نزدیک به 50 درصد موارد، SIDE منبعی را ارائه کرده است که قبلاً توسط ویکیپدیا به عنوان مرجع برتر استفاده میشده است و 21 درصد مواقع، SIDE پیشنهادی را ارائه میکرد که قبلاً توسط کاربران برتر ویکیپدیا تشخیص داده شده بود،.
محدودیتهای هوش مصنوعی در تشخیص اطلاعات درست
بنابراین به نظر میرسد هوش مصنوعی میتواند به طور مؤثر به ویرایشگر کمک کند تا ادعاهای ویکی پدیا را تأیید کند؛ اما باید درنظر داشت که SIDE گستره اطلاعات محدودی دارد، یعنی این برنامه فقط منابع مربوط به صفحات وب را در نظر میگیرد. اما در واقعیت، ویکیپدیا به کتابهای چاپی، مقالات علمی و اطلاعات ارائهشده از طریق رسانههای دیگر مانند تصاویر و ویدئو، استناد میکند.
اما فراتر از محدودیتهای فنی آن، کل فرض ویکیپدیا این است که هر نویسندهای در هر جایی میتواند مرجعی را به یک موضوع اختصاص دهد. به نظر محققان نوشتههای ویکی پدیا محدود به مطالعات نویسنده است و لزوماً تمام جوانب درنظر گرفته نمیشود. همچنین نویسندگان، بسته به ماهیت موضوعات مورد نظر، ممکن است تعصب داشته باشند و به طور کلی با سوگیری مطلب را جمعآوری کرده باشند.
هوش مصنوعی میتواند پشتیبان نیروی انسانی در شناخت اطلاعات نادرست باشد
هر برنامهای، به ویژه هوش مصنوعی که به آموزش وابسته است، خود نیز میتواند در معرض سوگیریهای برنامهنویس خود قرار گیرد! دادههای مورد استفاده برای آموزش و ارزیابی مدلهای SIDE میتواند در این زمینه محدود باشد. اما با این حال، مزایای استفاده از هوش مصنوعی برای سادهسازی واقعیتسنجی، یا حداقل استفاده از آن بهعنوان یک ابزار حمایتی، میتواند در دیگر برنامههای کاربردی تأثیر شگرفی داشته باشد.
ویکیپدیا و رسانههای اجتماعی باید به طور یکسان با بازیگران بد و رباتهایی که دنیای دیجیتال را با اطلاعات نادرست پر میکنند، مبارزه کنند. این امر به ویژه در حال حاضر بیش از هر زمان دیگری، در پی انتشار اطلاعات دروغین در مورد حوادث دنیا به چشم میآید. نیاز به کاهش اطلاعات نادرست آنلاین را میتوان با ابزارهای هوش مصنوعی، مانند SIDE، که دقیقاً برای این هدف طراحی شده است، تسریع کرد. اما همچنان پیشرفتهای بیشتری از این ابزارها مورد انتظار است.