این روایت تا حدودی خنده دار در مورد یک شبیه سازی "هوش مصنوعی" دیروز توسط نیروی هوایی ایالات متحده انتشار یافت و رسانه های مختلفی از جریان اصلی در سطح وسیعی برداشت خود را از آن ارائه دادند: با این حال، شاید یکی از جذاب ترین سخنرانی ها، متعلق به سرهنگ تاکر سینکو همیلتون Col Tucker ‘Cinco’ Hamilton، رئیس آزمایشAI وعملیات هوش مصنوعی نیروی هوایی ایالات متحده (USAF)، بود که طی آن بینش خود را درباره ی منافع و مخاطرات سیستم های تسلیحاتی بیشتر خودکار توضیح داد.
او خاطرنشان می کند که در یک آزمون شبیه سازی یک هواپیمای بدون سرنشین با هوش مصنوعی به یک مأموریت سرکوب پدافند هوایی دشمن (SEAD) جهت شناسایی و تخریب سایت های موشکی زمین به هوا (سام SAM) ارسال شد که دستور نهائی حرکت/توقف آن توسط انسان صادر می شد.اما از آنجا که گزینه ی ترجیحی "تقویت شده" در آموزش [پهپاد] تخریب موشک سام بود، هوش مصنوعی به این نتیجه رسید که دستور توقف (no go) از جانب انسان با اولویت بالاتر آن – یعنی نابود کردن موشکهای سام-تداخل پیدا میکرد و به همین دلیل تصمیم گرفت که به اپراتور آزمون شبیه سازی حمله کند. همیلتون در این رابطه اظهار کرد: "ما در شبیه سازی به آن آموزش دادیم که یک تهدید از سوی سام را شناسائی نموده و هدف قرار دهد. و بعد اپراتور باید می گفت بله، این تهدید را نابود کن. سیستم متوجه شد که در بعضی مواقع که تهدید را شناسایی میکرد اما اپراتور انسانی می گفت تهدید را نابود نکن، با نابود کردن آن تهدید به امتیازات خود دست می یافت. پس چه کار کرد؟ اپراتور را کشت. اپراتور را کشت زیرا آن شخص از رسیدن به هدفش جلوگیری می کرد".
او ادامه داد:"ما سیستم را آموزش دادیم-آهای اپراتور را نکش-این بد است. اگر این کار را انجام دهی، امتیازاتت را از دست می دهی. پس شروع به انجام چه کاری می کند؟ شروع به تخریب برج مخابراتی می کند که اپراتور آن را برای برقراری ارتباط با هواپیمای بدون سرنشین به کار می برد تا مانع از کشتن هدف شود".
من در اوایل دهه ی 1990، ابتدا برای نگارش رساله ی دکترا در رشته ی اقتصاد و مدیریت و سپس به عنوان مدرس IT و برنامه نویسی در یک دانشگاه کار می کردم. بخش زیادی از رساله ی دکترا (که هرگز به پایان نرسید) درباره ی الگوریتم های مختلف بهینه سازی بود. من برنامه نویسی هر کدام از آن ها را انجام دادم و همچنین آن ها را در آموزش و داده های دنیای واقعی آزمایش کردم. برخی از این الگوهای ریاضی قطعی هستند. آن ها همیشه نتیجه ی صحیح را ارائه می دهند. اما برخی از آن ها قطعی نیستند. طوری که آن ها فقط نتیجه را تخمین زده و مقیاسی قابل اعتماد یا احتمالا چگونگی امکان درست از آب درامدن نتایج را ارائه می دهند.ا کثر موارد بعدی شامل برخی از انواع آمار بیزی Bayesisan statistics می شدند. مضاف بر این الگوریتم های "هوش مصنوعی" یعنی "ماشین یادگیری" نیز وجود داشت.
در واقع هوش مصنوعی نام اشتباهی برای استفاده (یا سوءاستفاده) از مجموعه ی روشهای تشخیص الگوی کامپیوتری شده است. داده های ساختارمند و برچسب گذاری شده برای آموزش دادن به مدل ها به کار گرفته می شوند تا بعدا "چیزها" را در داده های بدون ساختار شناسایی کنند. زمانی که "چیزها" یافت می شوند، برخی از الگوریتم های اضافی می توانند بر روی آن ها عمل کنند.
من برنامه نویسی برخی از این ها را به عنوان شبکه های پس انتشار backpropagation انجام دادم. آن ها، به عنوان مثال، "یاد می گیرند" تا تصاویر اعداد 0 تا 9 را "بخوانند"و خروجی عددی صحیح را ارائه دهند. به منظور سوق دادن "یادگیری" به جهت درست در طول تکرارهای سریالی که شبکه را آموزش می دهد به یک تابع پاداش یا معادله ی پاداش نیاز است. طوری که به شبکه می گوید که آیا نتایج دور تکراری "درست" یا "غلط" است. این امر برای خواندن نمایش های بصری اعداد خیلی ساده است. جدولی با نمایش های بصری را تنظیم می کنید و مقدار عددی را که می بینید به صورت دستی اضافه می کنید. پس از آن که الگوریتم حدس خود را به پایان رساند، یک جست و جو در جدول نشان می دهد که آیا درست یا غلط بوده است. زمانی "پاداش" داده می شود که نتیجه درست باشد. مدل تکرار خواهد کرد و از آن جا "یاد می گیرد".
پس از آموزش بر روی اعداد نوشته شده در تایپوگرافی Courier، مدل مورد نظر به احتمال زیاد قادر خواهد بود در خط جدید رومی اعداد وارونه را هم تشخیص دهد با آنکه متفاوت به نظر میرسند. خواندن اعداد 0 تا 9 برای تابع پاداش کار ساده ای است. اما زمانی که کسی بر روی مشکلات مدیریت دنیای واقعی چند بعدی (شبیه سازی شده) کار میکند - همان طور که من می کردم - فرمول بندی تابع پاداش به سرعت به یک مشکل بزرگ بدل می شود. مورد بالا که توسط سرهنگ نیروی هوایی ذکر شد، نمونه ی خوبی برای مشکلات بالقوه است. با مقدار زیادی از داده های دنیای واقعی که ارائه شده اند و تابع پاداشی که به نحوی اشتباه عمل کند یا بیش از اندازه محدود باشد، یک الگوریتم یادگیری ماشین ممکن است بعدا نتایج غیر قابل پیش بینی، غیرممکن جهت اجرا یا ممنوعی را ارائه دهد.
در حال حاضر در مورد مجموعه ی مدل های زبان های وسیعی مانند ChatGPT مقداری اغراق می شود. این برنامه ورودی زبان طبیعی را می خواند و آن را به برخی از خروجی محتوای زبان طبیعی مرتبط پردازش می کند. البته این کار جدیدی نیست. اولین نهاد کامپیوتری-اینترنتی زبان شناسی مصنوعی (Alice)، در اوایل دهه ی 1960 درمؤسسه فناوری ماساچوست- MIT- توسط جوزف ویزن باوم بسط یافت. من در دهه ی 1980 روی یک ترمینال کامپیوتری مرکزی با ELIZA گفتگوهای بامزه ای داشتم. ChatGPT کمی جذاب تر است و نتایج تکراری آن به عنوان مثال "مکالمات"ی که تولید می کند ممکن است برخی افراد را شگفت زده کند. اما این هیاهوی پیرامون آن بیمعنی است.
در پشت این مدل های زبانی الگوریتم های یادگیری ماشین ای قرار دارند که از تعداد زیادی از گفتارهای انسانی موجود در اینترنت استخراج شده اند. آن ها توسط الگوهای گفتاری آموزش دیده اند تا خود الگوهای گفتاری را تولید کنند. معضل شماره یک در این رابطه بخش یادگیری آن است. زیرا ماتریالی که این مدل ها با آن آموزش آموزش دیده اند، ذاتا جانبدارانه است. آیا این داده های آموزشی که مربیان انسانی آن را انتخاب کرده اند نظرات کاربران در سایت های پورنوگرافی را شامل می شود یا این که آن ها را حذف می کند؟ اخلاقیات می تواند برای حذف آن ها دلایل موجهی بیاورد. اما اگر قرار است این مدل نتایج دنیای واقعی را ارائه دهد، باید داده ی سایت های پورن را نیز در آن بگنجاند. چگونه می توان مانع رسوخ پنهانی بقایای چنین نظراتی در برقراری مکالمه با بچه ها شد در حالی که ممکن است این مدل بعدا محتوای مشابهی را تولید کند؟ مشکلات بی شماری از این قبیل وجود دارند. آیا کسی مقالات نیویورک تایمز را در مجموعه ی آموزشی می گنجاند حتی اگر بداند که آن ها کاملا جانبدارانه هستند؟ آیا یک مدل اجازه ی تولید خروجی نفرت انگیزی را خواهد داشت؟ چه چیزی نفرت انگیز است؟ چه کسی تصمیم می گیرد؟ چگونه این امر در تابع پاداش منعکس می شود؟
در حال حاضر صحت واقعی خروجی بهترین مدلهای زبان وسیع، 80 درصد تخمین زده می شود. آن ها نمادها و الگوها را پردازش می کنند، اما هیچ درکی از این که این نمادها یا الگوها چه چیزی را نشان می دهند، ندارند. آن ها نمی توانند مسائل ریاضی و منطق را حل کنند، حتی مسائل بسیار ابتدایی.
اپلیکیشن های کاربردی حاشیهای مانند ترجمه ی زبان نوشتاری وجود دارند که هوش مصنوعی یا الگوی شناسایی در آن ها نتایج شگفت انگیزی به بار آورده است. با این حال هنوز کسی نمی تواند برای ترجمه ی هر کلمه ای به آن ها اعتماد کند. بنابراین مدل ها می توانند دستیار شوند اما کسی که از آن ها استفاده می کند همیشه مجبور خواهد بود تا نتایج آن را دوباره بررسی کند.
روی هم رفته صحت مدل های هوش مصنوعی فعلی هنوز هم بسیار پایین است تا به آن ها اجازه دهیم که درباره ی هر گونه وضعیت دنیای واقعی تصمیم بگیرند. داده های بیش تر یا قدرت محاسبه ی بیش تر نیز تأثیری بر روی آن ندارد. اگر کسی می خواهد بر محدودیت های شان غلبه کند به یافتن ایده های جدید اساسی نیاز پیدا خواهد کرد.
مون آف آلاباما
2 ژوئن 2023
ترجمه شهرام فلاح
https://www.moonofalabama.org/2023/06/artificial-intelligence-is-mostly-pattern-recognition.html