Web Analytics Made Easy - Statcounter
اخبار و مقالات فناوری هوش مصنوعی

حالا هوش مصنوعی می‌تواند تکالیف دانش‌آموزان را انجام دهد!

قطعا والدین و معلمان در سراسر جهان از بازگشت دانش‌آموزان به کلاس‌های درس، خوشحال هستند! اما دور از چشم آن‌ها، یک تهدید غیرمنتظره موذیانه در صحنه است: هوش مصنوعی ابزارهای جدید و قدرتمند نوشتن خودکار را ایجاد کرده است.

البته، تقلب‌ها همیشه وجود داشته‌اند و یک بازی موش و گربه ابدی بین دانش آموزان و معلمان وجود دارد. اما زمانی دانش‌آموز متقلب مجبور بود به کسی پول بدهد تا برای او مقاله یا تکالیفش بنویسد، یا مقاله‌ای را از وب دانلود کند که به راحتی قابل شناسایی بود و حالا فناوری‌های جدید زبان هوش مصنوعی به راحتی نوشتن مقالات با کیفیت بالا را آسان می‌کنند.

مدل هوش مصنوعی LLM

این فناوری، نوع جدیدی از سیستم یادگیری ماشینی (ML) است که مدل زبان بزرگ (LLM – Large Language Model) نامیده می‌شود. شما می‌توانید به این مدل فرمان بدهید و متن منحصر به فرد را از آن دریافت کنید. این مدل‌ها قادر به تولید انواع خروجی‌ها هستند، اعم از مقاله، پست‌های وبلاگ، شعر، نوشته‌ها، اشعار و حتی کدهای کامپیوتری!

چند سال پیش که این فناوری در ابتدا توسط محققان هوش مصنوعی توسعه داده شد، با احتیاط و نگرانی با آن برخورد شد. OpenAI، اولین شرکتی بود که چنین مدل‌هایی را توسعه داد اما استفاده خارجی از آن‌ها را محدود کرد و کد منبع جدیدترین مدل خود را منتشر نکرد، زیرا نگران چنین سوء استفاده‌های احتمالی بود. OpenAI اکنون یک خط مشی جامع در مورد استفاده‌های مجاز و تعدیل محتوا دارد.

برخی از ابزارهای هوش مصنوعی با مدل LLM
برخی از ابزارهای هوش مصنوعی با مدل LLM

کاربردهای تجاری جلوی احتیاط در هوش مصنوعی را می‌گیرد

اما با شروع مسابقه تجاری‌سازی این فناوری، اکنون این اقدامات احتیاطی در سراسر صنعت هوش مصنوعی اتخاذ نمی‌شود. در شش ماه گذشته، نسخه‌های تجاری با استفاده آسان از این ابزارهای قدرتمند هوش مصنوعی افزایش یافته  که بسیاری از آن‌ها رایگان و بدون محدودیت هستند.

هدف اعلام شده یکی از شرکت‌ها استفاده از فناوری پیشرفته هوش مصنوعی به منظور بی‌دردسر کردن نوشتن است. یکی دیگر اپلیکیشنی را برای گوشی‌های هوشمند منتشر کرد که دقیقا برای دانش‌آموزان ایجاد شده بود. البته ما در اینجا نام هیچ یک از آن شرکت‌ها را نمی‌آوریم، زیرا علاقه‌ای به آسان‌تر کردن کار برای متقلب‌ها نداریم؛ اما یافتن آن‌ها آسان است و حداقل در حال حاضر هیچ هزینه‌ای برای استفاده از آن‌ها نیاز نیست.

اکنون یک دانش آموز دبیرستانی، برای نوشتن یک مقاله انگلیسی و منحصر به فرد در مورد هملت یا نقد و بررسی کوتاه در مورد علل جنگ جهانی اول فقط با چند کلیک فاصله دارد.

با این که مهم است که والدین و معلمان در مورد این ابزارهای جدید تقلب بدانند، اما آن‌ها کار زیادی نمی‌توانند در قبال آن انجام دهند. تقریباً غیرممکن است که بچه‌ها را از دسترسی به این فناوری‌های جدید منع کنید و زمانی که نوبت به استفاده از آن‌ها می‌رسد، آن‌ها پیشی می‌گیرند.

دولت‌ها توانایی قانون‌گذاری دقیق در هوش مصنوعی را ندارند

همچنین این مشکل در سطحی نیست که خود را به مقررات دولتی برساند. در حال حاضر دولت‌های جوامع پیشرفته در حال مداخله اندک برای رسیدگی به سوء استفاده احتمالی از هوش مصنوعی در حوزه های مختلف هستند (به عنوان مثال، در استخدام کارمندان یا تشخیص چهره) و درک بسیار کمتری از مدل‌های زبانی و نحوه رسیدگی به آسیب‌های احتمالی آن‌ها وجود دارد.

در این شرایط، راه‌حل این است که شرکت‌های فناوری و جامعه توسعه‌دهندگان هوش مصنوعی مسئولیت‌پذیری بیشتری اتخاذ کنند. برخلاف حقوق یا پزشکی، هیچ استاندارد پذیرفته‌شده‌ای در فناوری برای رفتار مسئولانه وجود ندارد. الزامات قانونی کمی برای استفاده سودمند از فناوری وجود دارد.

در حوزه پزشکی، استانداردها نتیجه تصمیمات پزشکان پیشرو و صاحب‌نظر، برای اتخاذ نوعی از خود تنظیمی بودند. در هوش مصنوعی هم نیاز است تا شرکت‌ها یک چارچوب مشترک برای توسعه، استقرار یا انتشار مسئولانه مدل‌های هوش مصنوعی ایجاد کنند تا اثرات مضر آن‌ها را به‌ویژه در دست کاربران مهاجم کاهش دهند.

راهکارهای جلوگیری از سوءاستفاده از هوش مصنوعی

اما شرکت‌ها چه کاری می‌توانند انجام دهند که کاربردهای اجتماعی مفید را ترویج کند و از استفاده‌های بدیهی منفی مانند استفاده از یک تولیدکننده متن برای تقلب در مدرسه جلوگیری کند؟

راهکارهایی وجود دارد. شاید تمام متن‌های تولید شده توسط مدل‌های زبان تجاری موجود را بتوان در یک مخزن مستقل قرار داد تا امکان تشخیص سرقت ادبی فراهم شود.

مورد دوم محدودیت‌های سنی و سیستم‌های تأیید سن است تا روشن شود که دانش‌آموزان نباید به نرم‌افزار دسترسی داشته باشند.

در نهایت در یک چشم‌انداز بلندپروازانه‌تر، توسعه‌دهندگان پیشرو هوش مصنوعی می‌توانند یک هیئت بازبینی مستقل ایجاد کنند که اجازه می‌دهد چطور و چگونه مدل‌های زبان را منتشر کنند و به جای سرعت بخشیدن به تجاری‌سازی، دسترسی به محققان مستقلی را که می‌توانند به ارزیابی خطرات کنند، اولویت دهد.

هوش مصنوعی هم نیاز به تضمین کیفیت دارد

از این گذشته، از آنجایی که مدل‌های زبانی را می‌توان با بسیاری از برنامه‌های کاربردی پایین دستی تطبیق داد، هیچ شرکتی نمی‌تواند تمام خطرات (یا مزایای بالقوه) را پیش‌بینی کند. سال‌ها پیش، شرکت‌های نرم‌افزاری متوجه شدند که لازم است محصولات خود را برای مشکلات فنی قبل از عرضه به طور کامل آزمایش کنند؛ فرآیندی که اکنون در صنعت به عنوان تضمین کیفیت (QA) شناخته می‌شود.

زمان آن فرا رسیده است که شرکت‌های فناوری نیز متوجه شوند که محصولات آن‌ها باید قبل از عرضه، فرآیند تضمین اجتماعی را طی کنند تا مشکلات را که ممکن است در جامعه به وجود بیاید، پیش‌بینی کرده و کاهش دهند.

تضمین کیفیت در هوش مصنوعی

در محیطی که فناوری از دموکراسی پیشی می‌گیرد، ما باید اخلاق را در مرزهای فناوری درنظر بگیریم. شرکت‌های قدرتمند فناوری نمی‌توانند پیامدهای اخلاقی و اجتماعی محصولات خود را به‌عنوان یک گزینه اختیاری در نظر بگیرند.

اگر آن‌ها صرفاً برای اشغال بازار عجله کنند و سپس در صورت لزوم بعداً عذرخواهی کنند (داستانی که در سال‌های اخیر بیش از حد با آن مواجه شده‌ایم) جامعه تاوان عدم آینده‌نگری آن‌ها را می پردازد.

نویسنده این مقاله، راب رایش استاد دانشگاه استنفورد است. او و همکارانش، مهران سهامی و جرمی واینستین، این مقاله را با هم در گاردین نوشته‌اند.