تصور کنید که یک قرار ملاقات با بنیانگذاران استارتاپ خود دارید سرمایه گذار برجسته در سانفرانسیسکو، در حالی که در برلین نشسته اید – یک فرصت منحصر به فرد! همه چیز طبق برنامه پیش می رود که ناگهان ارتباط با همتای شما برای مدت کوتاهی قطع می شود. بعد از چند لحظه همه چیز دوباره خوب است و شما به ارائه ادامه می دهید.
در آن زمان، حداکثر، مشخص می شود که تقسیم کلاسیک وظایف بین وزارتخانه ها و درون شرکت ها اغلب کوتاهی می کند. صلاحیت رسانه ای موضوعی است برای همه، مهمتر از همیشه و مبنای یک جامعه بالغ.
مدلهای زبان در حال نوشتن متون استاندارد برای توضیحات محصول، آب و هوا، نتایج ورزشی یا طالع بینی هستند و خدمات مشتری را تسکین میدهند. چنین برنامههایی باعث صرفهجویی در زمان و هزینه شرکتها میشود، بهویژه در مواقع فشار هزینهها بر کارفرمایان و کمبود کارگران ماهر.
سناریو 2: شیطان تجارت
مشارکت مهمان توسط Kai Gondlach
کیفیت نتایج هوش مصنوعی تا حد زیادی به داده هایی که با آنها آموزش داده شده است بستگی دارد. اینجاست که بزرگترین شرکتهای فناوری جهان در موقعیت بسیار خوبی قرار دارند: آنها ارزش دادهها را زود تشخیص دادند و سیلوهای داده ایجاد کردند.
صدها فیلم های حمله پیشگیرانه با سلاح هسته ای از روسیه گرفته تا پایگاه نظامی در مرز اوکراین و لهستان در تمام پلتفرم های اجتماعی در حال پخش است. برخی نشان می دهند که چگونه تشعشعات افزایش یافته در ایالت ناتو لهستان اندازه گیری می شود. سیاستمداران غربی در تلاش برای درک وضعیت هستند، اما ارتباط با روسیه از آغاز جنگ به شدت محدود شده است. بنابراین تسلیحات هسته ای آمریکا در اروپا در حال استقرار هستند.
پس وقت آن است که کد الزام آور کار روزنامه نگاری، که استفاده از ابزارهای هوش مصنوعی مانند ChatGPT را شفاف می کند. بنابراین قانون مطبوعات در اینجا نیاز به اصلاح دارد. توجه داشته باشید که متنی با پشتیبانی یا به طور کامل با کمک هوش مصنوعی نوشته شده باشد، پس از آن اجباری خواهد بود و در صورت عدم رعایت جریمه های قابل توجهی با آن همراه خواهد بود. درست مثل کد فعلی.
ما به عنوان یک جامعه برای محافظت از خود در برابر کلاهبرداری های هوش مصنوعی به چه چیزی نیاز داریم؟
بیانی که در آن زمان هنوز رویایی بود نیز به همین دوره برمیگردد “داده ها روغن جدید هستند” (منبع: اکونومیست). اکنون آلفابت (گوگل)، مایکروسافت، متا (فیس بوک)، اپل، آمازون و دیگران در دو دهه گذشته کوه های عظیمی از داده ها را جمع آوری کرده اند – و بنابراین پیشرو بزرگی در توسعه سیستم های هوش مصنوعی هستند.
درباره نویسنده مهمان
کای گوندلاخ در رشته جامعه شناسی، سیاست/علوم اداری و آینده پژوهی تحصیل کرد. او یک نویسنده آزاد، سخنران کلیدی، میزبان پادکست و مدیر عامل لایپزیگ PROFORE Gesellschaft für Zukunft mbH، یک موسسه جوان برای تحقیقات آینده و مشاوره استراتژی است. او به عنوان یکی از اعضای آینده پژوهی دانشگاهی، در محیط یونسکو و باشگاه رم روی اجرای موضوعات مهم آینده کار می کند.
خطرات متون تولید شده توسط هوش مصنوعی چیست؟
پس از این سه سناریوی بسیار بدبینانه، این سوال مطرح می شود که چگونه می توانیم از خود و خانواده یا شرکت هایمان در برابر اطلاعات نادرست محافظت کنیم. بنابراین چگونه می توانم متون هوش مصنوعی را تشخیص دهم؟ این کار چندان آسان نیست، زیرا متون تولید شده با هوش مصنوعی امروزی در مورد آن هستند به اندازه متن متوسط انسان، آنقدر بد نیست که بتوانید بلافاصله یا به طور خودکار آنها را تشخیص دهید.
همانطور که قبلاً ذکر شد، یک ابزار هوش مصنوعی فقط می تواند به اندازه داده هایی باشد که روی آن آموزش داده شده است. اما از نظر آماری، اینها معمولاً ناقص و در بدترین حالت تحریف شده یا حتی تبعیض آمیز هستند. بنابراین بارها و بارها آن هوش مصنوعی اتفاق می افتد افراد با رنگ پوست تیره تر را نمی شناسدبه عنوان مثال در دستگاه پخش صابون (منبع: Deutschlandfunk)، یا در نرم افزارهای امنیتی که اغلب به طور نامتناسبی به عنوان تهدید طبقه بندی می شوند (منبع: اشپیگل).
آنچه کریس نمی داند: تونی یک هوش مصنوعی است و همین ترفند خیانت آمیز را با 7000 نفر دیگر در سراسر جهان انجام داده است.
با ChatGPT در ترکیب با هوش مصنوعی ویدیویی مانند Dall-E، یک فرد جعلی نیز می تواند به سناریوی اول اضافه شود – و بنابراین می توان جلسات ویدیویی را دستکاری کرد.
سیستمهای خودکار و هوشمند برای ما انسانها راحت هستند، اما این خطر را نیز به همراه دارند که بیش از حد به ذینفعان هوش مصنوعی مربوطه وابسته شویم. از آنجا که هوش مصنوعی هیچ هدفی به خودی خود یا حتی انگیزه ای نوع دوستانه ندارد، بلکه فقط در خدمت آن است. افزایش فروش شرکتکه آنها و جریان های داده آنها را کنترل می کنند.
اما از ابزارهایی مانند ChatGPT نیز می توان استفاده کرد کمپین های تبلیغاتی، اطلاعات نادرست یا نفرت حتی تولید و ضرب آن آسان تر است. همانطور که می دانیم، مسیر از یک تهدید مجازی به یک تهدید فیزیکی دور نیست، برای مثال به پرونده Dragon Lord (منبع: RND) یا شکایت علیه متا در ارتباط با جنگ داخلی در اتیوپی (منبع: Handelsblatt) مراجعه کنید.
الکسا و سیری، الگوریتمهای خرید و هوش مصنوعی در بازیهای ویدیویی مدتهاست که بخشی از زندگی روزمره بودهاند. ربات چت ChatGPT که اخیرا منتشر شده است، تکامل بعدی این توسعه هوش مصنوعی است. به لطف تشخیص الگو و اتصال سریع درخواست با مجموعه داده مناسب، چنین مدلهای زبانی متنهایی را ایجاد میکنند که به سختی میتوان آنها را از انسانها متمایز کرد (به مصاحبه GIGA با ChatGPT مراجعه کنید).
چه فرصت هایی در متون تولید شده توسط هوش مصنوعی وجود دارد؟
چت بات مایکروسافت، Tay، یکی از پیشینیان ChatGPT، نیز بلافاصله پس از انتشار نظرات نژادپرستانه خود را بیان کرد (منبع: Die Zeit). بدیهی است که اساس اخلاقی در طول توسعه برای جلوگیری از چنین خطاهایی پیش از استفاده از آنها وجود نداشت – اگرچه اکنون به خوبی بررسی شده است که چگونه داده های آموزشی برای الگوریتم ها می توانند به صورت خنثی تر پردازش شوند.
توجه می کنیم: هرچه افراد بیشتری به اینترنت متصل شوند، مزایای بالقوه بیشتر می شود، اما همچنین مضرات احتمالی ناشی از متون هوش مصنوعی بیشتر است. بیا بازی کنیم یک دور آینه سیاه و به سه سناریو از آینده نه چندان دور نگاه کنید که خطرات مدل های زبان هوش مصنوعی را حتی بیشتر ملموس می کند.
3 سناریو چگونه آسیب توسط چت ربات های هوش مصنوعی وارد می شود
ما در ویدیوی زیر چند نکته واقعی دوستیابی را به شما می گوییم:
چت ربات هوش مصنوعی ChatGPT به سوالات کاربران بسیار سریع و با کیفیتی شگفت انگیز پاسخ می دهد، اشعار اصلی یا متن آهنگ ها را می نویسد و حتی کدهای HTML یا ویدیو را برنامه ریزی می کند. بسیاری فکر می کنند که عالی است – دیگران احتیاط را توصیه می کنند. هر دو مناسب هستند.
این به یک چت پر جنب و جوش طی چند روز تبدیل شد. کریس دارد پروانه ها در معده و تقریباً از هیجان می ترکندو در اولین قرار واقعی خیلی زود در محل توافق شده نشسته است. ناگهان تونی می نویسد: «متاسفانه، باید قرارمان را لغو کنم – من تازه تصادف کرده ام و بیمه نیستم، به من بگو!» البته، کریس بلافاصله در صورت لزوم با پول کمک می کند. تونی با تشکر قبول می کند، کریس 350 یورو انتقال می دهد، چیزی برای آن وجود ندارد.
در حالی که سیاستمداران و ارتش حقایق را جمعآوری میکنند و میگویند که این حمله هرگز رخ نداده است، آسیب واقعی مدتهاست اتفاق افتاده است: یکی در بخشهایی از مردم شکست. وحشت عمومی که گاهی خصلت های آشفته و خشونت آمیز به خود می گرفت. کشته ها و مجروحان نتیجه آن هستند – و همه به دلیل ویدیوهای جعلی تولید شده توسط هوش مصنوعی.
چگونه می توانم اخبار جعلی (AI) را تشخیص دهم؟
سناریو 1: ریپ آف Tinder
مدل های زبانی مانند ChatGPT نیز به طور مداوم در حال توسعه بیشتر هستند. نرم افزار تشخیص احتمالاً همیشه برای شناسایی آخرین نسخه ها بسیار کند است. به عبارت دیگر: غیرقابل اجتناب است که محتوای بیشتر و بیشتر هوش مصنوعی همه رسانه ها را تحت الشعاع قرار دهد.
علاوه بر این، بسیاری از مردم برای دریافت راهنمایی های خانگی یا کمک برنامه نویسی به انجمن های اینترنتی متکی هستند – مورد دوم در بدترین حالت می تواند منجر به کدهای معیوب شود که به خصوص در شرکت های بزرگتر منجر به هزینه های شدید یا حتی می شود. فلج کردن زیرساخت های حیاتی میتوانست. بر این اساس، پلتفرم کدنویس Stack Overflow اخیراً استفاده از ChatGPT را به طور موقت ممنوع کرده است.
از زمان شروع جنگ در اوکراین در فوریه 2022، یک سونامی اخبار جعلی واقعی وجود داشته است. ویدئوهای بیشماری منتشر شده است که گفته میشود عملیاتهای رزمی ادعایی یا سخنرانیهای عجیب مقامات عالی رتبه نظامی را نشان میدهد. این امر شهروندان و همچنین سیاستمداران را ناآرام می کند، مانند سناریوی زیر.
طرح شما عالی پیش رفت، اما واکنش طرف مقابل غیرمنتظره است: سرمایه گذار کاملاً ناراحت است، نقاط ضعف طرح تجاری شما را توضیح می دهد و سپس بلافاصله شما را از جلسه بیرون می کند. شما کاملاً گیج شدهاید، بحثی پیش میآید و ایده استارتآپ را دفن میکنید.
کریس به دنبال عشق است و یک “مطابقت” را در برنامه خود می بیند: تونی عالی به نظر می رسد، سلیقه مناسبی در موسیقی دارد، همسن و سال است و در همان شهر زندگی می کند. که می تواند کار کند! کریس بلافاصله پیامی می نویسد: “سلام تونی، از آشنایی با شما خوشحالم – آلبوم Doors مورد علاقه شما به عنوان یک رکورد اینجا در قفسه من است، چه تصادفی!”
سناریو 3: وحشت به دلیل ترس از جنگ
بیشترین نیاز به اقدام در نظام آموزشی، سیاسی و البته قوه قضائیه است. کارکنان در این ارکان مرکزی جامعه ما نیاز فوری دارند دوره های کرش در برخورد با امکانات دیجیتال در قرن بیست و یکم، اگر نخواهیم با افسانه های توطئه دو قطبی و بیگانه تر شویم.