loading...

panjomin

بازدید : 224
يکشنبه 11 خرداد 1399 زمان : 13:57

دهه ها پس از آنکه اسحاق آسیموف برای اولین بار قوانین خود را برای روبات ها نوشت ، نقش روزافزون آنها در زندگی ما نیاز به یک مجموعه قوانین جدید دارد.


جهان از آنجایی که نویسنده علمی علمی آسیموف در سال 1942 نوشت ، سه قانون خود را برای روبات ها نوشت ، از جمله این که آنها هرگز نباید به انسان آسیب برساند ، تغییر کرده است و رایانه ها و الگوریتم های همه جا حاضر امروز خواستار اقدامات به روز هستند.

به گفته پاسکاله ، نویسنده "انجمن جعبه سیاه: الگوریتم های مخفی پشت پول و اطلاعات" ، چهار قانون جدید الهام گرفته از نظر قانونی باید در زندگی روزمره برای روبات ها و هوش مصنوعی اعمال شود.

پاسکال در حاشیه کنفرانس روباتیک در آکادمی علوم یونانی واتیکان گفت: اولین چیز این است که روبات ها باید به جای جایگزین کردن متخصصان جایگزین شوند.

"به جای داشتن یک دکتر روبات ، باید امیدوار باشید که یک دکتر داشته باشید که واقعاً درک کند که چگونه هوش مصنوعی کار می کند و مشاوره خوبی از هوش مصنوعی دریافت می کند ، اما در نهایت این تصمیم پزشک است که تصمیم بگیرد چه کاری انجام دهد و چه نکند."

"دوم این که باید جلوی مسابقات تسلیحات روباتیک را بگیریم. در حال حاضر افراد زیادی هستند که روی ربات های جنگی ، روبات های نظامی ، روبات های پلیس سرمایه گذاری می کنند."

هیچ بشردوستانی وجود ندارد

Pasquale ، مدرس حقوق دانشگاه مریلند ، می گوید مهم است که هرگونه سرمایه گذاری در روباتیک نظامی یا هوش مصنوعی باید مزیت هایی را ارائه دهد که "این فقط به زودی توسط دشمنان شما لغو نمی شود".

"این فقط افسردگی است. این یک پول است که شما می توانید بگویید که آیا روبات من می تواند بگوید که آیا روبات من می تواند بگوید که آیا روبات من قصد حمله دارد یا خیر."

Pasquale با استناد به مثال یک دستیار گوگل به نام Duplex می گوید ، سومین و بحث برانگیز ترین قانون ، ساخت روبات های انسان دوستانه یا هوش مصنوعی نیست ، زیرا افراد را به منظور تأیید رزرو هتل ها می خواند بدون اینکه به آنها بگوید با کامپیوتر صحبت می کنند.

Pasquale گفت: روبات ها فقط در صورت ضروری بودن کار می توانند انسان دوستانه به نظر برسند
"واکنش جدی فوری به این دلیل وجود داشت ، زیرا مردم تصور می کردند که گوگل در تلاش است ماشینهای خود را به عنوان یک انسان از بین ببرد و من فکر می کنم که اصل جعل جعلی مهمترین آن است ، که نباید بشریت را جعل کنیم."



Pasquale ، مانند "روبات های مراقبت یا روبات های جنسی" گفت: روبات ها می توانند انسان تنها به نظر برسند "فقط در صورتی که این کار کاملاً لازم باشد".

قانون چهارم و نهایی این است که هر ربات یا هوش مصنوعی باید به شخص یا شرکتی که از افراد ساخته شده باشد یا به آن تعلق داشته باشد ، زیرا ... ما می دانیم که چگونه مردم را مجازات کنیم ، اما نمی دانیم چگونه دستگاه ها را مجازات کنیم.

فناوری دو لایه

"اگر ما هواپیماهای بدون پمپ وکیوم خلاء سرنشین در مورد مکانی خودمختار پرواز کنیم ، اتومبیل هایی که خودمختار هستند ، ربات هایی که بصورت آنلاین در توییتر صحبت می کنند یا در سهام تجارت معاملات مالی دارند ، همه این موارد را باید به یک شخص نسبت داد."

"شرکت هایی مانند فیس بوک وجود دارند که آنها فقط شرکت را جریمه می کنند ، اما آنها هیچ کس را مجبور نمی کنند که پول بدهد یا به خاطر انجام کار اشتباهی در زندان محکوم شود.

Pasquale ، که کتاب "قوانین جدید روباتیک" قرار است منتشر شود ، گفت: "ما قبلاً با شرکت ها مشکلی ایجاد کرده ایم و اگر اجازه دهیم روبات ها در آنجا حضور پیدا کنند بدون آنکه به شخص یا شرکت نسبت داده شود ، این بدتر می شود." انتشارات دانشگاه هاروارد.

آنچه باید از هر قیمتی اجتناب شود ، فن آوری دو لایه است ، مانند پیشنهادی که بوئینگ برای هواپیماهای 737-MAX خود ارائه داده است ، پس از آنکه صدها نفر در دو تصادف که در سنسور ناکام بودن به دلیل خطای نرم افزاری مقصر بودند ، به زمین افتادند.

"آنها تصمیم گرفتند در سطح بسیار بالایی قرار بگیرند که به شرکت های هواپیمایی اجازه دهند سنسور دوم خریداری کنند اما این یک هزینه اضافی است ، فکر می کنم 80،000 دلار اضافی برای هر هواپیما بود و برای من یک مشکل پیش بینی می کند."

"بخشی از قانون باید این باشد که قدم برداریم و بگوییم برخی از این معامله ها که ما نمی خواهیم اجازه دهیم ، می خواهیم بگوییم که یک استاندارد برای پرواز داریم. این یک استاندارد واحد است و مثل این نیست که من بخواهم به این نتیجه برسید که آیا Ryanair ، American Airlines یا Lufthansa سنسور اضافی را خریده اند ، زیرا این جنون است. "

دهه ها پس از آنکه اسحاق آسیموف برای اولین بار قوانین خود را برای روبات ها نوشت ، نقش روزافزون آنها در زندگی ما نیاز به یک مجموعه قوانین جدید دارد.


جهان از آنجایی که نویسنده علمی علمی آسیموف در سال 1942 نوشت ، سه قانون خود را برای روبات ها نوشت ، از جمله این که آنها هرگز نباید به انسان آسیب برساند ، تغییر کرده است و رایانه ها و الگوریتم های همه جا حاضر امروز خواستار اقدامات به روز هستند.

به گفته پاسکاله ، نویسنده "انجمن جعبه سیاه: الگوریتم های مخفی پشت پول و اطلاعات" ، چهار قانون جدید الهام گرفته از نظر قانونی باید در زندگی روزمره برای روبات ها و هوش مصنوعی اعمال شود.

پاسکال در حاشیه کنفرانس روباتیک در آکادمی علوم یونانی واتیکان گفت: اولین چیز این است که روبات ها باید به جای جایگزین کردن متخصصان جایگزین شوند.

"به جای داشتن یک دکتر روبات ، باید امیدوار باشید که یک دکتر داشته باشید که واقعاً درک کند که چگونه هوش مصنوعی کار می کند و مشاوره خوبی از هوش مصنوعی دریافت می کند ، اما در نهایت این تصمیم پزشک است که تصمیم بگیرد چه کاری انجام دهد و چه نکند."

"دوم این که باید جلوی مسابقات تسلیحات روباتیک را بگیریم. در حال حاضر افراد زیادی هستند که روی ربات های جنگی ، روبات های نظامی ، روبات های پلیس سرمایه گذاری می کنند."

هیچ بشردوستانی وجود ندارد

Pasquale ، مدرس حقوق دانشگاه مریلند ، می گوید مهم است که هرگونه سرمایه گذاری در روباتیک نظامی یا هوش مصنوعی باید مزیت هایی را ارائه دهد که "این فقط به زودی توسط دشمنان شما لغو نمی شود".

"این فقط افسردگی است. این یک پول است که شما می توانید بگویید که آیا روبات من می تواند بگوید که آیا روبات من می تواند بگوید که آیا روبات من قصد حمله دارد یا خیر."

Pasquale با استناد به مثال یک دستیار گوگل به نام Duplex می گوید ، سومین و بحث برانگیز ترین قانون ، ساخت روبات های انسان دوستانه یا هوش مصنوعی نیست ، زیرا افراد را به منظور تأیید رزرو هتل ها می خواند بدون اینکه به آنها بگوید با کامپیوتر صحبت می کنند.

Pasquale گفت: روبات ها فقط در صورت ضروری بودن کار می توانند انسان دوستانه به نظر برسند
"واکنش جدی فوری به این دلیل وجود داشت ، زیرا مردم تصور می کردند که گوگل در تلاش است ماشینهای خود را به عنوان یک انسان از بین ببرد و من فکر می کنم که اصل جعل جعلی مهمترین آن است ، که نباید بشریت را جعل کنیم."



Pasquale ، مانند "روبات های مراقبت یا روبات های جنسی" گفت: روبات ها می توانند انسان تنها به نظر برسند "فقط در صورتی که این کار کاملاً لازم باشد".

قانون چهارم و نهایی این است که هر ربات یا هوش مصنوعی باید به شخص یا شرکتی که از افراد ساخته شده باشد یا به آن تعلق داشته باشد ، زیرا ... ما می دانیم که چگونه مردم را مجازات کنیم ، اما نمی دانیم چگونه دستگاه ها را مجازات کنیم.

فناوری دو لایه

"اگر ما هواپیماهای بدون پمپ وکیوم خلاء سرنشین در مورد مکانی خودمختار پرواز کنیم ، اتومبیل هایی که خودمختار هستند ، ربات هایی که بصورت آنلاین در توییتر صحبت می کنند یا در سهام تجارت معاملات مالی دارند ، همه این موارد را باید به یک شخص نسبت داد."

"شرکت هایی مانند فیس بوک وجود دارند که آنها فقط شرکت را جریمه می کنند ، اما آنها هیچ کس را مجبور نمی کنند که پول بدهد یا به خاطر انجام کار اشتباهی در زندان محکوم شود.

Pasquale ، که کتاب "قوانین جدید روباتیک" قرار است منتشر شود ، گفت: "ما قبلاً با شرکت ها مشکلی ایجاد کرده ایم و اگر اجازه دهیم روبات ها در آنجا حضور پیدا کنند بدون آنکه به شخص یا شرکت نسبت داده شود ، این بدتر می شود." انتشارات دانشگاه هاروارد.

آنچه باید از هر قیمتی اجتناب شود ، فن آوری دو لایه است ، مانند پیشنهادی که بوئینگ برای هواپیماهای 737-MAX خود ارائه داده است ، پس از آنکه صدها نفر در دو تصادف که در سنسور ناکام بودن به دلیل خطای نرم افزاری مقصر بودند ، به زمین افتادند.

"آنها تصمیم گرفتند در سطح بسیار بالایی قرار بگیرند که به شرکت های هواپیمایی اجازه دهند سنسور دوم خریداری کنند اما این یک هزینه اضافی است ، فکر می کنم 80،000 دلار اضافی برای هر هواپیما بود و برای من یک مشکل پیش بینی می کند."

"بخشی از قانون باید این باشد که قدم برداریم و بگوییم برخی از این معامله ها که ما نمی خواهیم اجازه دهیم ، می خواهیم بگوییم که یک استاندارد برای پرواز داریم. این یک استاندارد واحد است و مثل این نیست که من بخواهم به این نتیجه برسید که آیا Ryanair ، American Airlines یا Lufthansa سنسور اضافی را خریده اند ، زیرا این جنون است. "

نظرات این مطلب

تعداد صفحات : 0

درباره ما
موضوعات
آمار سایت
  • کل مطالب : 15
  • کل نظرات : 0
  • افراد آنلاین : 1
  • تعداد اعضا : 0
  • بازدید امروز : 3
  • بازدید کننده امروز : 1
  • باردید دیروز : 0
  • بازدید کننده دیروز : 0
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 10
  • بازدید ماه : 19
  • بازدید سال : 38
  • بازدید کلی : 4182
  • <
    پیوندهای روزانه
    آرشیو
    اطلاعات کاربری
    نام کاربری :
    رمز عبور :
  • فراموشی رمز عبور؟
  • خبر نامه


    معرفی وبلاگ به یک دوست


    ایمیل شما :

    ایمیل دوست شما :



    کدهای اختصاصی