چگونه از خود در برابر اطلاعات نادرست محافظت کنیم؟



چت ربات هوش مصنوعی ChatGPT به سوالات کاربران بسیار سریع و با کیفیتی شگفت انگیز پاسخ می دهد، اشعار اصلی یا متن آهنگ ها را می نویسد و حتی کدهای HTML یا ویدیو را برنامه ریزی می کند. بسیاری فکر می کنند که عالی است – دیگران احتیاط را توصیه می کنند. هر دو مناسب هستند.

مشارکت مهمان توسط Kai Gondlach

الکسا و سیری، الگوریتم‌های خرید و هوش مصنوعی در بازی‌های ویدیویی مدت‌هاست که بخشی از زندگی روزمره بوده‌اند. ربات چت ChatGPT که اخیرا منتشر شده است، تکامل بعدی این توسعه هوش مصنوعی است. به لطف تشخیص الگو و اتصال سریع درخواست با مجموعه داده مناسب، چنین مدل‌های زبانی متن‌هایی را ایجاد می‌کنند که به سختی می‌توان آنها را از انسان‌ها متمایز کرد (به مصاحبه GIGA با ChatGPT مراجعه کنید).

چه فرصت هایی در متون تولید شده توسط هوش مصنوعی وجود دارد؟

مدل‌های زبان در حال نوشتن متون استاندارد برای توضیحات محصول، آب و هوا، نتایج ورزشی یا طالع بینی هستند و خدمات مشتری را تسکین می‌دهند. چنین برنامه‌هایی باعث صرفه‌جویی در زمان و هزینه شرکت‌ها می‌شود، به‌ویژه در مواقع فشار هزینه‌ها بر کارفرمایان و کمبود کارگران ماهر.

کیفیت نتایج هوش مصنوعی تا حد زیادی به داده هایی که با آنها آموزش داده شده است بستگی دارد. اینجاست که بزرگترین شرکت‌های فناوری جهان در موقعیت بسیار خوبی قرار دارند: آنها ارزش داده‌ها را زود تشخیص دادند و سیلوهای داده ایجاد کردند.

بیانی که در آن زمان هنوز رویایی بود نیز به همین دوره برمی‌گردد “داده ها روغن جدید هستند” (منبع: اکونومیست). اکنون آلفابت (گوگل)، مایکروسافت، متا (فیس بوک)، اپل، آمازون و دیگران در دو دهه گذشته کوه های عظیمی از داده ها را جمع آوری کرده اند – و بنابراین پیشرو بزرگی در توسعه سیستم های هوش مصنوعی هستند.

درباره نویسنده مهمان
کای گوندلاخ در رشته جامعه شناسی، سیاست/علوم اداری و آینده پژوهی تحصیل کرد. او یک نویسنده آزاد، سخنران کلیدی، میزبان پادکست و مدیر عامل لایپزیگ PROFORE Gesellschaft für Zukunft mbH، یک موسسه جوان برای تحقیقات آینده و مشاوره استراتژی است. او به عنوان یکی از اعضای آینده پژوهی دانشگاهی، در محیط یونسکو و باشگاه رم روی اجرای موضوعات مهم آینده کار می کند.

خطرات متون تولید شده توسط هوش مصنوعی چیست؟

اما از ابزارهایی مانند ChatGPT نیز می توان استفاده کرد کمپین های تبلیغاتی، اطلاعات نادرست یا نفرت حتی تولید و ضرب آن آسان تر است. همانطور که می دانیم، مسیر از یک تهدید مجازی به یک تهدید فیزیکی دور نیست، برای مثال به پرونده Dragon Lord (منبع: RND) یا شکایت علیه متا در ارتباط با جنگ داخلی در اتیوپی (منبع: Handelsblatt) مراجعه کنید.

علاوه بر این، بسیاری از مردم برای دریافت راهنمایی های خانگی یا کمک برنامه نویسی به انجمن های اینترنتی متکی هستند – مورد دوم در بدترین حالت می تواند منجر به کدهای معیوب شود که به خصوص در شرکت های بزرگتر منجر به هزینه های شدید یا حتی می شود. فلج کردن زیرساخت های حیاتی میتوانست. بر این اساس، پلتفرم کدنویس Stack Overflow اخیراً استفاده از ChatGPT را به طور موقت ممنوع کرده است.

در ویدیوی زیر می توانید ببینید که سیستم های هوش مصنوعی چقدر می توانند هنر خلق کنند:

سیستم های هوش مصنوعی چه نقاط ضعفی دارند؟

همانطور که قبلاً ذکر شد، یک ابزار هوش مصنوعی فقط می تواند به اندازه داده هایی باشد که روی آن آموزش داده شده است. اما از نظر آماری، اینها معمولاً ناقص و در بدترین حالت تحریف شده یا حتی تبعیض آمیز هستند. بنابراین بارها و بارها آن هوش مصنوعی اتفاق می افتد افراد با رنگ پوست تیره تر را نمی شناسدبه عنوان مثال در دستگاه پخش صابون (منبع: Deutschlandfunk)، یا در نرم افزارهای امنیتی که اغلب به طور نامتناسبی به عنوان تهدید طبقه بندی می شوند (منبع: اشپیگل).

چت بات مایکروسافت، Tay، یکی از پیشینیان ChatGPT، نیز بلافاصله پس از انتشار نظرات نژادپرستانه خود را بیان کرد (منبع: Die Zeit). بدیهی است که اساس اخلاقی در طول توسعه برای جلوگیری از چنین خطاهایی پیش از استفاده از آنها وجود نداشت – اگرچه اکنون به خوبی بررسی شده است که چگونه داده های آموزشی برای الگوریتم ها می توانند به صورت خنثی تر پردازش شوند.

سیستم‌های خودکار و هوشمند برای ما انسان‌ها راحت هستند، اما این خطر را نیز به همراه دارند که بیش از حد به ذینفعان هوش مصنوعی مربوطه وابسته شویم. از آنجا که هوش مصنوعی هیچ هدفی به خودی خود یا حتی انگیزه ای نوع دوستانه ندارد، بلکه فقط در خدمت آن است. افزایش فروش شرکتکه آنها و جریان های داده آنها را کنترل می کنند.

توجه می کنیم: هرچه افراد بیشتری به اینترنت متصل شوند، مزایای بالقوه بیشتر می شود، اما همچنین مضرات احتمالی ناشی از متون هوش مصنوعی بیشتر است. بیا بازی کنیم یک دور آینه سیاه و به سه سناریو از آینده نه چندان دور نگاه کنید که خطرات مدل های زبان هوش مصنوعی را حتی بیشتر ملموس می کند.

3 سناریو چگونه آسیب توسط چت ربات های هوش مصنوعی وارد می شود

سناریو 1: ریپ آف Tinder

کریس به دنبال عشق است و یک “مطابقت” را در برنامه خود می بیند: تونی عالی به نظر می رسد، سلیقه مناسبی در موسیقی دارد، همسن و سال است و در همان شهر زندگی می کند. که می تواند کار کند! کریس بلافاصله پیامی می نویسد: “سلام تونی، از آشنایی با شما خوشحالم – آلبوم Doors مورد علاقه شما به عنوان یک رکورد اینجا در قفسه من است، چه تصادفی!”

این به یک چت پر جنب و جوش طی چند روز تبدیل شد. کریس دارد پروانه ها در معده و تقریباً از هیجان می ترکندو در اولین قرار واقعی خیلی زود در محل توافق شده نشسته است. ناگهان تونی می نویسد: «متاسفانه، باید قرارمان را لغو کنم – من تازه تصادف کرده ام و بیمه نیستم، به من بگو!» البته، کریس بلافاصله در صورت لزوم با پول کمک می کند. تونی با تشکر قبول می کند، کریس 350 یورو انتقال می دهد، چیزی برای آن وجود ندارد.

آنچه کریس نمی داند: تونی یک هوش مصنوعی است و همین ترفند خیانت آمیز را با 7000 نفر دیگر در سراسر جهان انجام داده است.

ما در ویدیوی زیر چند نکته واقعی دوستیابی را به شما می گوییم:

سناریو 2: شیطان تجارت

با ChatGPT در ترکیب با هوش مصنوعی ویدیویی مانند Dall-E، یک فرد جعلی نیز می تواند به سناریوی اول اضافه شود – و بنابراین می توان جلسات ویدیویی را دستکاری کرد.

تصور کنید که یک قرار ملاقات با بنیانگذاران استارتاپ خود دارید سرمایه گذار برجسته در سانفرانسیسکو، در حالی که در برلین نشسته اید – یک فرصت منحصر به فرد! همه چیز طبق برنامه پیش می رود که ناگهان ارتباط با همتای شما برای مدت کوتاهی قطع می شود. بعد از چند لحظه همه چیز دوباره خوب است و شما به ارائه ادامه می دهید.

طرح شما عالی پیش رفت، اما واکنش طرف مقابل غیرمنتظره است: سرمایه گذار کاملاً ناراحت است، نقاط ضعف طرح تجاری شما را توضیح می دهد و سپس بلافاصله شما را از جلسه بیرون می کند. شما کاملاً گیج شده‌اید، بحثی پیش می‌آید و ایده استارت‌آپ را دفن می‌کنید.

آنچه نمی دانستید: کل عمل بود توسط یک استارت آپ رقیب راه اندازی شد، که زمین خود را به موقع آماده نکرد. حریف شما سرمایه گذار را از جلسه اخراج کرد، یک نسخه جعلی عمیق از مخالفت خود را به شما نشان داد و بعداً سرمایه گذار مناسب را با ایده شما متقاعد کرد.

سناریو 3: وحشت به دلیل ترس از جنگ

از زمان شروع جنگ در اوکراین در فوریه 2022، یک سونامی اخبار جعلی واقعی وجود داشته است. ویدئوهای بی‌شماری منتشر شده است که گفته می‌شود عملیات‌های رزمی ادعایی یا سخنرانی‌های عجیب مقامات عالی رتبه نظامی را نشان می‌دهد. این امر شهروندان و همچنین سیاستمداران را ناآرام می کند، مانند سناریوی زیر.

صدها فیلم های حمله پیشگیرانه با سلاح هسته ای از روسیه گرفته تا پایگاه نظامی در مرز اوکراین و لهستان در تمام پلتفرم های اجتماعی در حال پخش است. برخی نشان می دهند که چگونه تشعشعات افزایش یافته در ایالت ناتو لهستان اندازه گیری می شود. سیاستمداران غربی در تلاش برای درک وضعیت هستند، اما ارتباط با روسیه از آغاز جنگ به شدت محدود شده است. بنابراین تسلیحات هسته ای آمریکا در اروپا در حال استقرار هستند.

در حالی که سیاستمداران و ارتش حقایق را جمع‌آوری می‌کنند و می‌گویند که این حمله هرگز رخ نداده است، آسیب واقعی مدت‌هاست اتفاق افتاده است: یکی در بخش‌هایی از مردم شکست. وحشت عمومی که گاهی خصلت های آشفته و خشونت آمیز به خود می گرفت. کشته ها و مجروحان نتیجه آن هستند – و همه به دلیل ویدیوهای جعلی تولید شده توسط هوش مصنوعی.

چگونه می توانم اخبار جعلی (AI) را تشخیص دهم؟

پس از این سه سناریوی بسیار بدبینانه، این سوال مطرح می شود که چگونه می توانیم از خود و خانواده یا شرکت هایمان در برابر اطلاعات نادرست محافظت کنیم. بنابراین چگونه می توانم متون هوش مصنوعی را تشخیص دهم؟ این کار چندان آسان نیست، زیرا متون تولید شده با هوش مصنوعی امروزی در مورد آن هستند به اندازه متن متوسط ​​انسان، آنقدر بد نیست که بتوانید بلافاصله یا به طور خودکار آنها را تشخیص دهید.

مدل های زبانی مانند ChatGPT نیز به طور مداوم در حال توسعه بیشتر هستند. نرم افزار تشخیص احتمالاً همیشه برای شناسایی آخرین نسخه ها بسیار کند است. به عبارت دیگر: غیرقابل اجتناب است که محتوای بیشتر و بیشتر هوش مصنوعی همه رسانه ها را تحت الشعاع قرار دهد.

پس وقت آن است که کد الزام آور کار روزنامه نگاری، که استفاده از ابزارهای هوش مصنوعی مانند ChatGPT را شفاف می کند. بنابراین قانون مطبوعات در اینجا نیاز به اصلاح دارد. توجه داشته باشید که متنی با پشتیبانی یا به طور کامل با کمک هوش مصنوعی نوشته شده باشد، پس از آن اجباری خواهد بود و در صورت عدم رعایت جریمه های قابل توجهی با آن همراه خواهد بود. درست مثل کد فعلی.

ما به عنوان یک جامعه برای محافظت از خود در برابر کلاهبرداری های هوش مصنوعی به چه چیزی نیاز داریم؟

بیشترین نیاز به اقدام در نظام آموزشی، سیاسی و البته قوه قضائیه است. کارکنان در این ارکان مرکزی جامعه ما نیاز فوری دارند دوره های کرش در برخورد با امکانات دیجیتال در قرن بیست و یکم، اگر نخواهیم با افسانه های توطئه دو قطبی و بیگانه تر شویم.

در آن زمان، حداکثر، مشخص می شود که تقسیم کلاسیک وظایف بین وزارتخانه ها و درون شرکت ها اغلب کوتاهی می کند. صلاحیت رسانه ای موضوعی است برای همه، مهمتر از همیشه و مبنای یک جامعه بالغ.



منبع