هوش عمومی مصنوعی ( AGI ) : رویا یا واقعیت ؟

آبان, 1398 بدون نظر
1 ستاره2 ستاره3 ستاره4 ستاره5 ستاره (1 رای, میانگین1٫00 از5)
Loading...
میم تک 29, هوش مصنوعی

در مقاله ی گذشته تا حدودی با هوش عمومی مصنوعی یا همان AGI آشنا شدیم.

اینکه دستیابی به هوش عمومی مصنوعی امکان پذیر است یا نه؟ آیا با پیدایش هوش عمومی مصنوعی نسل بشر از بین خواهد رفت؟ خب، اجازه بدید ببینیم آیا منطقی است به هوش عمومی مصنوعی فکر کنیم؟

در ادامه با ما همراه باشید.

آیا هوش عمومی مصنوعی آگاهی دارد؟

با توجه به تعاریف زیادی که در مورد آگاهی وجود دارد ، یک سوال بسیار مشکل وجود دارد که باید به آن پاسخ داد. آیا هوش مصنوعی عمومی آگاهی دارد؟ یک آزمایش معروف تفکر توسط یک فیلسوف با نام  ( John Searle) نشان می دهد، تعیین اینکه آیا AGI واقعاً خودآگاه بوده یا نه ، دشوار خواهد بود. اتاق چینی Searle یک سناریوی فرضی را پیشنهاد می کند.

در این سناریو ،فیلسوف یک query را به  زبان چینی ناآشنا ارائه می کند.

نحوه ی انجام آزمایش به روش زیر است:
  • سرل به تنهایی در یک اتاق بسته نشسته است.
  • کاراکترهای هر کلمه از query به ترتیب از زیر درب وارد اتاق می شود.
  • searl با کارکترها هیچ آشنایی ندارد.
  • اما داخل اتاق یک کتاب وجود دارد که وی می تواند از دستورالعمل های آن ، برای کنار هم قرار دادن نمادها و کارکترها استفاده کند.
  • به این ترتیب searl  می تواند با این کاراکترها، کاراکترهای چینی جدید ایجاد کند.

سرل به تنهایی در یک اتاق بسته نشسته است. کاراکترهای هر کلمه از query به ترتیب از زیر درب وارد اتاق می شود. searl با کارکترها هیچ آشنایی ندارد. اما داخل اتاق یک کتاب وجود دارد که وی می تواند از دستورالعمل های آن ، برای کنارهم قرار دادن نمادها و کارکترها استفاده کند. به این ترتیب searl  می تواند با این کاراکترها، کاراکترهای چینی جدید ایجاد کند.

با پیروی از دستورالعمل ها Searle قادر به ایجاد یک پاسخ مناسب است.

همچنین می تواند افراد خارج از اتاق را فریب دهد. آنها گمان می کنند یک فرد ماهر به زبان چینی داخل اتاق نشسته است. در صورتی که searl زبان چینی را متوجه نمی شود. به این ترتیب ، Searle معتقد است که این آزمایش نشان می دهد،یک کامپیوتر می تواند با مردم مکالمه کند. به نظر می رسد کامپیوترها قادر به درک یک زبان هستند،در حالی که هیچ درک واقعی از معنای آن ندارند.

نظر searl مبنی بر آگاهی هوش عمومی مصنوعی:

این آزمایش برای حمله به تست تورینگ استفاده شده است.

این آزمایش که توسط ریاضیدان درخشان و پدر محاسبه آلن تورینگ ساخته شده است ، نشان می دهد اگر یک کامپیوتر بتواند یک سوم از افرادی که با آنها صحبت می کند را گول بزند که یک انسان است ، می تواند به عنوان یک دستگاه متفکر طبقه بندی شود.

در کتاب های جدید مانند کتاب زبان و آگاهی searl وی می گوید :

“همانگونه که رفتار به خودی خود برای آگاهی کافی نیست ، بنابراین مدل های محاسباتی آگاهی به خودی خود برای آگاهی کافی نیستند. “

Searle فرق بین هوش مصنوعی قوی ایجاد می کند.

جایی که می توان گفت AI دارای ذهن است و ضعف هوش مصنوعی ، جایی که AI به جای آن یک الگوی قانع کننده از ذهن است. اختلاف نظرهای متفاوتی در مورد اتاق چینی و نتیجه گیری های سیرل مطرح شده است . از استدلال هایی مبنی بر اینکه این آزمایش ماهیت یک ذهن را نادرست توصیف می کند . از این موضوع که  Searle  بخشی از یک سیستم گسترده تر است ،که به طور کلی ، زبان چینی را می فهمد، غافل می شود.

همچنین این سؤال وجود دارد که آیا تمایز بین شبیه سازی ذهن و ذهن واقعی اهمیت دارد؟

استوارت راسل و پیتر نورویگ ، که کتاب درسی نهایی در مورد هوش مصنوعی نوشته اند ،استدلال می کنند که بیشتر محققان هوش مصنوعی بیش از ماهیت ذاتی سیستم بر روی نتیجه متمرکز هستند.

آیا اخلاق می تواند در سیستم های هوش مصنوعی عمومی مهندسی شود؟

شاید ، اما نمونه های خوبی از چگونگی دستیابی به این امر وجود ندارد.

راسل تصویری واضح از دو جنبه ی خوب و بد هوش مصنوعی را نسبت به اخلاق بشری نقاشی می کند.

  • “تصور کنید که یک ربات خانگی دارید.
  • در خانه مراقب بچه ها است.
  • بچه ها شام خود را صرف کرده اند و هنوز گرسنه هستند.
  • یخچال را نگاه می کند و چیز زیادی برای خوردن باقی نمانده است.
  • این ربات تعجب می کند چه باید بکند .
  • سپس بچه گربه را می بیند .
  • می توانید تصور کنید چه اتفاقی می افتد?”
 نظرات ویاچسلاو دبلیو پولونسکی درباره ی اخلاق در سیستم های هوش مصنوعی عمومی:

ویاچسلاو دبلیو پولونسکی از موسسه اینترنت آکسفورد می گوید:

زمانی می توان برای هوش عمومی مصنوعی اخلاق را به عنوان یک استعداد در نظر گرفت که مردم ابتدا باید دقیقاً کدگذاری کنند که اخلاق چیست.

نمی توان به یک ماشین آموخت که چه چیزی منصفانه است.

مگر اینکه مهندسانی که سیستمهای AI را طراحی می کنند ، تصور دقیقی از عدالت داشته باشند.

در ادامه این سؤال مطرح می شود که چگونه می توان به یک ماشین  “الگوریتم حداکثر عدالت” یا “غلبه بر تعصبات نژادی و جنسیتی در داده های آموزشی“را آموخت.

یک ابزار هوش مصنوعی که توانایی رایانه ها در تفسیر زبان روزمره را متحول کرده است و تعصبات چشمگیر جنسیتی و نژادی را نشان می دهد.

راه حل پیشنهادی پولونسکی برای حل این مشکلات صریحاً تعریف رفتار اخلاقی است .

با استناد به کمیسیون اخلاق آلمان در مورد توصیه رانندگی خودکار منوط به اینکه طراحان خودروهای خودران رانندگی این سیستم ها را با ارزشهای اخلاقی برنامه ریزی می کنند.

به گونه  ای که اولویت حفاظت از زندگی انسانها بیش از هر چیز دیگری است.

پاسخ احتمالی دیگری که وی بیان می دارد این است :

آموزش یک سیستم یادگیری ماشینی در مورد آنچه رفتار اخلاقی را تشکیل می دهد و نمونه های مختلف انسانی را ترسیم می کند.

یکی از مخازن این داده ها ممکن است پروژه ماشین اخلاقی MIT باشد.

ماشین اخلاقی MIT:

ماشین اخلاقی MIT از شرکت کنندگان می خواهد بهترین شرایط را برای فرضیه های دشوار قضاوت کنند.

از جمله اینکه آیا بهتر است پنج نفر در یک اتومبیل یا پنج عابر پیاده کشته شوند.

البته چنین رویکردهایی مملو از احتمال سوء تفسیر و عواقب ناخواسته است.

با توجه به عدم امکان پیش بینی شرایطی که یک ماشین می تواند در آن قرار گیرد ، کدنویسی اخلاق در ماشین ها بسیار دشوار به نظر می رسد. اگر تصادف اجتناب ناپذیر است ،یک خودروی خودکار باید یک فرد شصت ساله را زیر کند یا یک کودک را؟ اگر کودک یه بیماری لاعلاج داشته باشد چه؟ چه می شود اگر آن شخص در دهه شصت تنها مراقب شریک زندگی خود باشد؟ راسل اظهار داشت، که سیستم ها و ربات های هوشمند می توانند رفتارهای انسانی را در طول زمان ،جمع و با گذشت زمان ارزش های انسانی را درک کنند. طبق نظر پیشنهادی راسل، ربات ها می توانند از طریق یادگیری تقویت معکوس ،ارزش های انسانی را یاد بگیرند. روش تقویت معکوس ، یک روش یادگیری ماشین است که در آن یک سیستم با پاداش دادن به رفتار مطلوب آموزش داده می شود.

چگونه می توانیم هوش عمومی مصنوعی را از شکست محدودیت های آن متوقف کنیم؟

برای مقابله با خطرات وجودی هوش عمومی مصنوعی ، مؤسسه Future of Life مستقر در ایالات متحده (FLI) تحقیقات مختلفی را در زمینه ایمنی AGI تأمین کرده است. قبل از محدود کردن رفتار هوش عمومی مصنوعی ، FLI استدلال می کند که لازم است دقیقاً آنچه را که باید و نباید انجام دهد را مشخص کنیم. برای ساختن سیستم هایی با رفتار خوب و محکم  ، قطعاً باید تصمیم بگیریم که “رفتار خوب” در هر حوزه کاربرد چیست. در قوانین اولیه طراحی – به عنوان مثال ، در مورد تصمیم گیری در شرایط بحرانی برای اتومبیل های خودران ، هم به متخصصین اخلاق شناسی و هم دانشمندان رایانه نیاز خواهیم داشت. “

طبق گفته ی FLY، رفتار انحرافی در AGI نیز نیاز به آدرس دهی دارد .

درست همانطور که نرم افزار پردازنده هواپیما تحت بررسی های جدی برای باگ هایی قرار می گیرد که ممکن است باعث بروز رفتار غیرمنتظره شود. بنابراین کد هایی که در  هوش مصنوعی قرار دارند نیز باید تحت محدودیت های رسمی مشابه قرار گیرند.

برای نرم افزارهای سنتی پروژه هایی مانند seL4 ، وجود دارد .

بررسی سیستم های سنتی با هوش مصنوعی:

هسته درونی سیستم عامل در نرم افزارهای سنتی ،به طور کامل توسعه داده شده است.

این هسته به صورت ریاضی در برابر مسائل مختلف بررسی شده است، تا امنیت را در برابر اتفاقات و عملیات ناامن تضمین کند. با این حال، مطابق FLI ممکن است  برای هوش مصنوعی عمومی روشهای جدیدی برای تأیید مورد نیاز باشد. شاید برجسته ترین تفاوت بین تأیید نرم افزار سنتی و تأیید سیستم های هوش مصنوعی را به این صورت تعریف کنیم:

صحت نرم افزار سنتی با توجه به یک مدل ماشین ثابت و شناخته شده تعریف شده است .

در حالی که سیستم های هوش مصنوعی – به ویژه روبات ها و سایر سیستم های تجسم یافته – در محیط هایی کار می کنند که توسط بهترین طراح سیستم تا حدودی شناخته شده اند. در این موارد ، ممکن است اثبات شود که سیستم با توجه به دانشی که دارد به درستی عمل می کند و از بروز مشکل در محیط واقعی جلوگیری می کند. FLI پیشنهاد می کند که می توان سیستم های هوش مصنوعی را از مولفه هایی ساخت ، که هر کدام تایید شده اند. می توان مولفه های مختلف هوش عمومی مصنوعی را از جهان گسترده تر جدا کرد . به خصوص در مواردی که خطرات ناشی از هوش عمومی مصنوعی زیاد است. مشکل این است که اطمینان از اینکه انسانها می توانند کنترل یک هوش مصنوعی عمومی را حفظ کنند ، ساده نیست.

تاثیرات محیطی:

یکی دیگر از مشکلات بالقوه می تواند ناشی از تاثیر منفی بر محیط زیست در دستیابی به اهداف خود باشد.

FLI تحقیقات بیشتری را برای تعیین اهداف «داخلی» حول دامنه محدودی پیشنهاد می کند.

علاوه بر این ، توصیه می کند که کارهای بیشتری باید انجام شود تا احتمال و ماهیت یک “انفجار اطلاعاتی” در میان هوش مصنوعی انجام شود.

جایی که توانایی های بهبود هوش مصنوعی بسیار فراتر از توانایی انسان در کنترل آنها است.

توصیه های IEEE برای ساخت سیستم های امن هوش مصنوعی عمومی:

IEEE توصیه های خاص خود را برای ساختن سیستم های امن AGI دارد ، که به طور گسترده ای از تحقیقات FLI برگرفته شده  است.

  • این موارد حاکی از آن است که سیستمهای AGI باید شفاف باشند .
  • استدلال آنها توسط اپراتورهای انسانی درک شود .
  • باید محیط های “ایمن ” ایجاد شود که در آنها سیستم های هوش مصنوعی توسعه و آزمایش شود .
  • باید سیستم هایی ایجاد شوند تا در صورت خراب شدن ، به راحتی متوقف شوند.
  • اینگونه سیستم ها نباید در برابر خاموش شدن توسط اپراتورها مقاومت کنند.

امروز سؤال در مورد چگونگی توسعه هوش مصنوعی به روشی که برای کل جامعه مفید باشد ، موضوع تحقیقات مداوم توسط سازمان غیرانتفاعی OpenAI است. تحقیقات FLI حدس می زند که با توجه به بررسی های مناسب و متعادل ، یک هوش مصنوعی عمومی می تواند جوامع را به سمت بهتر تغییر دهد. موفقیت در تلاش برای هوش مصنوعی می تواند فواید بی سابقه ای را برای بشریت به ارمغان بیاورد. بنابراین ارزش دارد در ضمن تحقیق در مورد چگونگی به حداکثر رساندن این مزایا ضمن جلوگیری از مشکلات احتمالی ، تحقیق کنیم.

برچسب ها
درباره نویسنده

ارسال نظر شما

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

Mimtechmagazine