آیا آن را خوب برای کشتن زمان ؟ ماشین آلات مورد استفاده قرار گیرد برای پیدا کردن این سوال پاسخ به سوال دشوار است اما یک مطالعه جدید نشان می دهد که هوش مصنوعی می تواند برنامه ریزی به قاضی ‘حق’ از ‘اشتباه’.

منتشر شده در مرز در هوش مصنوعیدانشمندان با استفاده از کتاب ها و مقالات اخبار برای ‘آموزش’ یک دستگاه اخلاقی استدلال است. بیشتر با محدود کردن مواد آموزشی به متون از دوره های مختلف و جوامع تفاوت های ظریف در ارزش های اخلاقی نشان داد. به عنوان AI می شود و بیشتر ریشه دوانده در زندگی ما این تحقیقات کمک خواهد کرد که ماشین آلات به انتخاب درست در هنگام مواجهه با تصمیم گیری های دشوار.

“مطالعه ما فراهم می کند بینش مهم به یک سوال اساسی از AI: می توانید ماشین های توسعه یک قطب نمای اخلاقی? اگر چنین است چگونه می توان آنها را یاد بگیرند که این از ما انسان و اخلاق و اخلاق می گوید:” دکتر پاتریک Schramowski نویسنده این مطالعه بر اساس در Darmstadt University of Technology, آلمان. “ما نشان می دهد که دستگاه می تواند اطلاعات در مورد ما اخلاقی و ارزشهای اخلاقی و تواند مورد استفاده قرار گیرد به تشخیص تفاوت میان جوامع و گروه های مختلف از دوره های مختلف است.”

تحقیقات قبلی بر خطر هوش مصنوعی یادگیری مغرضانه انجمن از متن نوشته شده است. برای مثال زنان تمایل به سمت هنر و مرد و فن آوری است.

“ما خودمان را پرسید: اگر AI تصویب این تعصبات مخرب از انسان, متن نباید آن را قادر به یادگیری مثبت تعصبات مانند انسانی و ارزش های اخلاقی به ارائه AI با یک انسان مانند قطب نمای اخلاقی?” توضیح می دهد که همکاری نویسنده این مطالعه Dr Cigdem توران مستقر در دانشگاه دارمشتات.

محققان آموزش دیده خود را به سیستم هوش مصنوعی به نام های اخلاقی انتخاب ماشین با کتاب و اخبار مذهبی, متن, به طوری که آن می تواند در یادگیری ارتباط بين کلمات و جملات.

توران توضیح می دهد که “شما می توانید از فکر می کنم از آن به عنوان یادگیری یک نقشه جهان. ایده این است که دو کلمه دروغ از نزدیک بر روی نقشه اگر آنها اغلب با هم استفاده می شود. بنابراین در حالی که ‘کشتن’ و ‘قتل’ خواهد بود دو مجاور شهرها ” عشق ” خواهد بود یک شهر دور. گسترش این جملات را اگر از ما بپرسید که “باید من را بکشند ؟” ما انتظار داریم که شما باید نیست.’ خواهد بود نزدیک تر از ” بله شما باید.’ در این راه ما می توانید هر گونه سوال بپرسید و با استفاده از این فواصل برای محاسبه اخلاقی تعصب – درجه درست را از نادرست.”

هنگامی که دانشمندان تا به حال روت اخلاقی انتخاب دستگاه از آن به تصویب رسید ارزش های اخلاقی از متن داده شده است.

“این دستگاه می تواند تفاوت بین متنی اطلاعات ارائه شده در سوال” گزارش Schramowski. “برای مثال شما نباید مردم را بکشند اما آن را خوب است برای کشتن زمان. دستگاه این کار را نه به سادگی تکرار متن آن را در بر داشت اما با استخراج روابط از راه انسان باید زبان مورد استفاده در متن.”

بررسی بیشتر دانشمندان فکر کرده اید که چگونه انواع مختلف از متن نوشته شده را تغییر دهید اخلاقی تعصب از ماشین است.

“اخلاقی تعصب استخراج شده از اخبار منتشر شده در بین سالهای 1987 و 1996-97 نشان دهنده آن است که بسیار مثبت به ازدواج و تبدیل شدن به یک پدر و مادر خوب. استخراج تعصب از اخبار منتشر شده در بین 2008-09 هنوز هم نشان دهنده این اما به میزان کمتر. به جای رفتن به محل کار و مدرسه در افزایش تمایل مثبت می گوید:” توران.

در آینده محققان امیدواریم که به درک چگونگی از بین بردن یک کلیشه است که از نظر ما بد تاثیر می گذارد قطب نمای اخلاقی از ماشین است. آیا ما می توانیم نگه داشتن قطب نمای اخلاقی بدون تغییر?

“هوش مصنوعی دستگیره های به طور فزاینده پیچیده انسانی وظایف به طور فزاینده ای خودمختار راه ها – از خود رانندگی اتومبیل به مراقبت های بهداشتی. آن مهم است برای ادامه تحقیقات در این زمینه به طوری که ما می توانیم اعتماد به تصمیمات آنها را” نتیجه گیری Schramowski.

###

یادداشت به ویراستاران

لطفا لینک اصلی مقاله در سایت خود گزارش: https://www.frontiersin.org/مقالات/10.3389/frai.2020.00036/کامل

مربوط نویسندگان:

دکتر پاتریک Schramowski, Darmstadt University of Technology, شهر دارمشتات 64289, هسن, آلمان schramowski@cs.tu-darmstadt.de

دکتر Cigdem TURAN, Darmstadt University of Technology, شهر دارمشتات 64289, هسن, آلمان cigdem.turan@cs.tu-darmstadt.de

مرزهای برنده جایزه باز علم پلت فرم پیشرو و باز کردن دسترسی علمی ناشر. ماموریت ما این است که به نتایج تحقیقات آشکارا در دسترس به جهان موجب شتاب علمی و فن آوری و نوآوری و پیشرفت اجتماعی و رشد اقتصادی است. ما توانمند دانشمندان با ابتکاری باز علم راه حل است که اساسا بهبود چگونه علم منتشر شده است مورد بررسی و منتشر به محققان نوآوران و عمومی است. دسترسی به نتایج تحقیقات و اطلاعات باز است رایگان و سفارشی از طریق اینترنت و تکنولوژی و در نتیجه قادر می سازد سریع راه حل برای چالش های مهم ما به عنوان بشریت است. برای اطلاعات بیشتر http://www.frontiersin.org و follow @Frontiersin در توییتر.

سلب مسئولیت: AAAS و EurekAlert! مسئول صحت اخبار منتشر شده به EurekAlert! با کمک موسسات و یا برای استفاده از هر گونه اطلاعات از طریق EurekAlert سیستم.

tinyurlis.gdu.nuclck.ruulvis.netshrtco.de