تاریخ انتشاردوشنبه ۱۸ آذر ۱۳۹۸ - ۱۵:۰۰
کد مطلب : ۴۰۸۶۳۳
پهبادهای مستقل همین حالا نیز یک تهدید به شمار می روند. آنها مواد انفجاری را روی سربازان پرتاب کرده اند، فرودگاه ها را به تعطیلی کشانده اند و در اقدام به ترور نیکولاس مادورو رئیس جمهور ونزوئلا به کار رفته اند. سیستم های مستقلی که هم اکنون توسعه یافته اند می توانند چنین حملاتی را ساده تر و ویرانگرتر کنند.
۰
plusresetminus
به گزارش بلاغ با توجه به پیشرفت های حاصل شده در هوش مصنوعی، علوم روباتیک با سرعت در حال دگرگونی اند. مزایای این حوزه فراوان است: ما می توانیم شاهد وسایل نقلیه ای باشیم که توانایی خودکار ترمز زدن در صورت پیش آمدن وضعیتی اضطراری را دارند، بازوهای روباتیکی که در حال دگرگون کردن خطوط تولید محصولاتی هستند که زمانی برای تولید شدن به خارج از کشور منتقل می شدند و روبات های جدیدی که می توانند همه کار انجام دهند، از خرید کردن در خواربار فروشی تا تحویل داروهای تجویزی به کسانی که در انجام این کار مشکل دارند.
اما اشتهای همواره رو به فزونی ما برای ماشین های هوشمند و خودکار، چند چالش اخلاقی را نیز فراروی ما قرار می دهد.

پیشرفت های سریع معماهای اخلاقی جدیدی را پدید آورده اند
این ایده ها و ایده های بیشتر من و همکارانم را تشویق کرد تا در اوایل نوامبر در یکی از بزرگ ترین کنفرانس های پژوهشی متمرکز بر علوم روباتیک مستقل  یعنی «کنفرانس بین المللی روبات ها و سیستم های هوشمند» شرکت کنیم. در این کنفرانس دانشگاهیان، پژوهشگران شرکتی و دانشمندان دولتی درباره پیشرفت های صورت گرفته درالگوریتم هایی بحث کردند که به روبات ها اجازه می دهد خودشان تصمیم بگیرند.  
همانطور که درتمام فناوری های دیگر مشاهده می شود، تصور کامل اینکه این فناوری ها در آینده چه مصارفی پیدا خواهند کرد دشوار است. حتی با توجه به سرعت دگرگونی های این حوزه، پیش بینی کردن در این باره نیز چالش برانگیزاست. مثلا توانایی یک رایانه را برای شناسایی اشیا در یک تصویر تصور کنید: در سال 2010  این فناوری تنها در حدود نیمی از مواقع موفق بود و چندین سال وضع به همین صورت ادامه داشت. اما همانطور که مقالات منتشره در این کنفرانس نشان می دهند، امروز دقت بهترین الگوریتم ها در این حوزه به 86 درصد رسیده است. این پیشرفت به تنهایی به روبات های مستقل اجازه می دهد که از طریق لنز دوربین ها درک کنند درحال نگاه کردن به چه چیزی هستند. همچنین نشان دهنده روند سریع پیشرفت در این عرصه در طول یک دهه گذشته به دلیل پیشرفت های صورت گرفته در هوش مصنوعی است.
این تحول از منظر فنی یک نقطه عطف واقعی به شمار می رود. در حالی که استفاده از ابزارهای بازنگری دستی گذشته فیلم های ویدئویی مستلزم صرف ساعات باورنکردنی وقت بود، اکنون این داده ها را می توان با سرعت و دقت توسط یک برنامه رایانه ای تجزیه و تحلیل کرد.
اما این پیشرفت یک معمای اخلاقی را نیز به پیش می کشد. همراه با حذف شدن انسان ها از این روند، فرض هایی که  بنیان تصمیمات مرتبط با حریم خصوصی و امنیت را شکل می دهند نیز به طور بنیادینی تغییر کرده اند. برای مثال ممکن است 15 یا 20 سال پیش استفاده از دوربین ها در معابر عمومی نگرانی هایی را در ارتباط با حریم خصوصی مطرح می کرد، اما افزودن دقت به فناوری تشخیص چهره  مسائل و پیچیدگی های مربوط به حریم خصوصی را به شدت تغییر می دهد.

 سیستم هایی که به سادگی قابل به کار گیری هستند
وقتی ماشین ها به جایی برسند که بتوانند خودشان تصمیم بگیرند – و نوعا سیستم های مستقل نامیده می شوند- پرسش های اخلاقی که مطرح می شود نیز قطعا بیشتر از پرسش های مربوط به مسئله تشخیص اشیا خواهند بود. استقلال حاصل شده به کمک هوش مصنوعی  با چنان سرعتی در حال توسعه است که قابلیت هایی که زمانی محدود به برخوردار از سیستم های دارای مهندسی بالا بودند، اکنون با یک جعبه ابزار خانگی و کمی تجربه کار با رایانه در دسترس همگان گرفته اند.
کسانی که هیچ سابقه ای در حوزه علوم رایانه ای ندارند می توانند از برخی از  جدیدترین ابزارهای  هوش مصنوعی سردربیاورند و روبات ها بیشتر چیزهایی هستند که به شما اجازه می دهند  تکنیک های یادگیری ماشینی تازه کسب شده تان را روی روبات ها به کار بگیرید. نظرگاه های اینترنتی وجود دارند مملو از افراد مشتاق برای کمک به هر کسی که خواهان یادگیری  چگونگی انجام این کار است.
با ابزارهایی که پیشتر وجود داشت نیز برنامه ریزی حداقلی پهباد حک و اصلاح شده تان برای شناسایی یک کیسه قرمز و دنبال کردن آن به قدر کافی آسان بود. فناوری ردگیری اشیای جدیدتر، توانایی ردگیری طیفی از اشیا را دارد که بیش از 9 هزار نوع شی مختلف است. با توجه به افزوده شدن این فناوری به پهبادهای جدیدتر و و دارای مانور بیشتر، تصور این دشوار نیست که به چه سادگی می توان آنها را به تسلیحاتی مسلح کرد.  چه  چیزی می تواند مانع از این شود که یک فرد نوعی ماده انفجاری یا تسلیحات دیگر را روی یک پهباد مجهز به این فناوری سوار نکند؟
با استفاده از انواع تکنیک ها، پهبادهای مستقل همین حالا نیز یک تهدید به شمار می روند. آنها  مواد انفجاری را روی سربازان  پرتاب کرده اند،  فرودگاه ها را به تعطیلی کشانده اند و در اقدام به ترور نیکولاس مادورو رئیس جمهور ونزوئلا به کار رفته اند. سیستم های مستقلی که هم اکنون توسعه یافته اند می توانند چنین حملاتی را ساده تر و ویرانگرتر کنند.

قانونگذاری یا هیئت های بازنگری؟
حدود یک سال پیش  گروهی از پژوهشگران در زمینه هوش مصنوعی و روبات های مستقل  التزام دادند که از ساخت تسلیحات مستقل کشنده دوری کنند. آنها تسلیحات مستقل کشنده را  پلتفرم هایی تعریف کرده اند که قابلیت «انتخاب و درگیر شدن با اهداف بدون مداخله انسانی را داشته باشند.» من به عنوان یک پژوهشگر علوم روباتیک علاقه مند به توسعه دادن تکنیک های هدفگیری مستقل، احساس می کنم که در این التزام، گرانیگاه اصلی خطر نادیده گرفته شده است. این التزام به مسائل اخلاقی مهمی که باید به آن پرداخته شود بی توجه مانده است، به خصوص مسائلی که در عرصه گسترده تر اپلیکیشن های پهبادی می توانند خیرخواهانه باشند یا خشونت آمیز.
یکی اینکه پژوهشگران، شرکت ها و توسعه دهندگانی که این اسناد را می نویسند و نرم افزارهای و وسایل را می سازند، عموما این کار را برای خلق چیزی تسلیحاتی انجام نمی دهند. اما ممکن است دیگرانی را که حداقل تجربه را دارند، قادر سازند با دست زدن به تغییراتی در آنها، زمینه استفاده تسلیحاتی از آنها را فراهم سازند. 

برای جلوگیری از این خطر چه می توانیم کنیم؟
قانونگذاری یک گزینه است، گزینه ای که پیشتر با ممنوعیت پرواز پهبادها در نزدیکی فرودگاه ها یا حول و حوش پارک های ملی انجام شده است. این قوانین می توانند سودمند باشند، ولی نمی توانند از خلق پهبادهای تسلیحاتی شده، پهبادهایی که به جای اسلحه از آنها استفاده می شود جلوگیری کنند. قوانین مربوط به تسلیحات سنتی  نیز در این مورد کافی نیستند. آنها عموما کنترل ها را بر منبع مواد یا روند تولید تشدید می کنند. این قوانین در مورد سیستم های مستقل تقریبا غیرممکن است، سیستم هایی که در آنها منبع مواد به طور گسترده ای در قالب کدهای رایانه ای به اشتراک گذاشته شده وجود دارند و روند تولید نیز می تواند درخانه و با استفاده از قطعات و اجزایی که در بازار یافت می شوند انجام بگیرد.
یک گزینه دیگر دنبال کردن جای پای زیست شناسان است. در سال 1975 آنها کنفرانسی را در مورد خطرات بالقوه ترکیب دوباره دی ان ای در کالیفرنیا برگزار کردند. در این کنفرانس کارشناسان بر خط مشی های داوطلبانه ای توافق کردند که می توانست مسیر کاری آینده آنها را هدایت کند. برای سیستم های مستقل چنین کاری در این نقطه به نظر غیرمحتمل می آید. بسیاری از پروژه های تحقیقاتی که می توانند در توسعه تسلیحات مورد استفاده قرار گیرند، پیامدهای صلح جویانه و به شدت سودمندی نیز دارند.
گزینه سوم می تواند تشکیل بدنه های خودحاکم در سطح سازمانی باشد، مثل هیئت های بازنگری نهادی که درحال حاضر بر مطالعات پیرامون سوژه های انسانی در آزمایشگاه های شرکت ها، دانشگاه ها و دولت نظارت دارند.
این هیئت ها مزایای نهفته در این تحقیقات برای مردم را مورد بررسی قرار می دهند و راه هایی را برای کاستن از آسیب های بالقوه آنها پیدا می کنند. اما آنها فقط می توانند در درون موسسات خودشان که دامنه آنها محدود است در مورد تحقیقات قانونگذاری کنند.
با این حال تعداد زیادی از پژوهشگران  تحت نظارت این هیئت ها قرار خواهند گرفت – در درون جامعه تحقیقات پیرامون روبات های مستقل، تقریبا تمام  شرکت کنندگان در کنفرانس های فنی عضوی از یک موسسه هستند. هیئت های بازنگری نهادی، اولین گام به سمت خودقانونگذاری است و می تواند پروژه هایی را که ممکن است استفاده تسلیحاتی از آنها شود مشخص کنند.

زندگی همراه با خطر و نوید
 من و بسیاری از همکارانم از ساخت نسل آینده سیستم های مستقل بسیار هیجان زده ایم. من احساس می کنم که پتانسیل کاربردهای مثبت این ابزارها بسیار نویدبخش تر از آن است که نادیده گرفته شود. ولی از طرفی در مورد خطراتی که فناوری های جدید می توانند به وجود آورند، به خصوص  اگر مورد استفاده افراد بدخواه قرار گیرند نگران هستم. 
نویسنده: کریستوفر هکمن (Christoffer Heckman) استادیار علوم رایانه ای در دانشگاه کلرادو بولدر
منبع: https://b2n.ir/290379





بلاغ: انتشار مطالب و اخبار تحلیلی سایر رسانه‌های داخلی و خارجی لزوما به معنای تایید محتوای آن نیست و صرفا جهت اطلاع کاربران از فضای رسانه‌ای منتشر می‌شود.
ارسال نظر
نام شما
آدرس ايميل شما