تاریخ انتشارجمعه ۲۸ تير ۱۳۹۸ - ۱۱:۴۵
کد مطلب : ۳۹۷۱۱۴
مسائل بسیار ساده تر و بنیادین تری وجود دارند که در حال حاضر باید به آنها پرداخته شود، از جمله اینکه در توسعه هوش مصنوعی چگونه باید از داده ها استفاده کرد؛ آیا یک سیستم هوش مصنوعی عادلانه مورد استفاده قرار می گیرد؛ در چه وضعیت هایی ما همچنان باید به تصمیم گیری انسانی اتکا کنیم؟
۰
plusresetminus
به گزارش بلاغ،پاسخ این سئوال که آیا فناوری خوب است یا بد بستگی به نحوه توسعه و استفاده از آن دارد.  این روزها استفاده از هوش مصنوعی در بیشتر فناوری ها به موضوعی مطرح تبدیل شده است. در صورتی که هوش مصنوعی به شکل مناسبی توسعه بیابد و مورد استفاده قرار گیرد، این پتانسیل را دارد که شیوه زندگی، کار، ارتباط و سفر کردن ما را تغییر دهد.

فناوری های پزشکی مجهز به هوش مصنوعی برای بهبود مراقبت از بیمار در دست توسعه هستند. شاخص های فراگیری شایعی وجود دارد که وسایل نقلیه خودران ایمنی را بهبود داده و تلفات جاده ای را کاهش خواهند داد. یادگیری ماشینی و خودکارسازی  در حال روان کردن رویه های کاری هستند و این اجازه  را به ما می دهند که هوشمندتر کار کنیم.

در سراسر جهان هر چه می گذرد فناوری مجهز به هوش مصنوعی بیشتر از سوی افراد، دولت ها، سازمان ها و موسسات به کار گرفته می شوند. اما به همراه پتانسیل گسترده آنها در بهبود کیفیت زندگی ما،  این روند خطراتی را نیز متوجه حقوق و آزادی های انسانی اساسی ما می کند.

در استرالیا نظارت، هدایت و درک مناسب از شیوه استفاده و توسعه یافتن هوش مصنوعی باید اولویت اصلی را داشته باشد.

از دست رفتن مهار هوش مصنوعی تصاویر فیلم های ترمیناتور و اک ماشینا را به ذهن متبادر می کند، اما مسائل بسیار ساده تر و بنیادین تری وجود دارند که در حال حاضر باید به آنها پرداخته شود، از جمله اینکه در توسعه هوش مصنوعی چگونه باید از داده ها استفاده کرد؛ آیا یک سیستم هوش مصنوعی عادلانه مورد استفاده قرار می گیرد؛ در چه وضعیت هایی ما همچنان باید به تصمیم گیری انسانی نیز اتکا کنیم؟

ما دارای یک طرح اخلاقی برای هوش مصنوعی هستیم.  به همین دلیل با مشارکت دولت و صنعت یک چهارچوب اخلاقی را برای هوش مصنوعی در استرالیا آماده کرده ایم. هدف از این کار  دامن زدن به مباحث مربوط به این است که هوش مصنوعی چگونه باید در استرالیا مورد استفاده و توسعه قرار گیرد.

در چندین مطالعه موردی که در گوشه و کنار جهان انجام شده، چهارچوب اخلاقی  نگاهی دارد به بحث در این مورد که هوش مصنوعی در گذشته چگونه مورد استفاده قرار گرفته و چه تاثیراتی به دنبال داشته است. این مطالعات موردی به ما کمک می کنند درک کنیم که چه اقدامات اشتباهی انجام شده و چگونه باید از تکرار اشتباه های گذشته اجتناب کرد.

همچنین ما نگاهی کرده ایم به اینکه چه کارهایی در سطح جهان برای پرداختن به نگرانی های اخلاقی در مورد توسعه و استفاده از هوش مصنوعی انجام شده است.

با عنایت به مسائل مربوط به هوش مصنوعی و تاثیرات کلیدی آن، ما هشت اصل را برای استفاده و توسعه اخلاقی هوش مصنوعی دراسترالیا شناسایی کرده ایم: 1) تولید مزایای خالص: سیستم هوش مصنوعی باید مزایایی را برای مردم تولید کند که به هزینه های آن بچربد؛ 2) پرهیز از آسیب رساندن: سیستم های هوش مصنوعی غیرنظامی نباید برای آسیب رساندن یا فریب دادن مردم طراحی شوند و باید به اشکالی به کار گرفته شوند که هر گونه پیامد منفی ناشی از آن را به حداقل برساند؛ 3) انطباق قانونی و حقوقی: سیستم هوش مصنوعی باید با تمام تعهدات، مقررات و قوانین مربوطه بین المللی، محلی استرالیا، ایالتی و دولت های فدرال منطبق باشد؛ 4) حفاظت از حریم خصوصی: هر سیستمی از جمله سیستم های هوش مصنوعی باید این اطمینان را به وجود آورند که داده های خصوصی مردم مورد محافظت قرار می گیرند و محرمانه نگه داشته می شوند و راه های احتمالی سوء استفاده از داده های مردم مسدود می شود؛ سوء استفاده هایی که می تواند موجب آسیب های حیثیتی، روانی، مالی، حرفه ای یا دیگر انواع آسیب ها به افراد شود؛ 5) انصاف و عدالت: نتیجه توسعه یا استفاده از سیستم های هوش مصنوعی نباید تبعیض ناعادلانه علیه افراد، اجتماعات یا گروه ها باشد. این امر مستلزم توجه ویژه در این باره به منظور حصول اطمینان از  این است که «داده های آموزشی» از سوگیری و مختصاتی که می تواند موجب رفتار ناعادلانه الگوریتم ها شود مبرا خواهند بود؛ 6) شفافیت و توضیح پذیری: وقتی الگوریتمی مورد استفاده قرار می گیرد که بر آنها تاثیر می گذارد باید به مردم اطلاع داده شود و برایشان توضیح داده شود که الگوریتم برای اتخاذ تصمیمات خود از چه اطلاعاتی استفاده می کند؛ 7) افراد و سازمان های مسئول خلق و به کارگیری الگوریتم های هوش مصنوعی باید قابل شناسایی و در قبال تاثیرات الگوریتم پاسخگو باشند، حتی اگر آن تاثیرات ناخواسته باشند.

علاوه بر این اصول محوری، موارد  ابزاری مختلفی در این چهارچوب مورد شناسایی قرار گرفته که می تواند برای کمک به تقویت این اصول مورد استفاده قرار گیرد. از جمله این موارد می توان به ارزیابی ها از تاثیرات، نظارت جاری و رایزنی عمومی اشاره کرد.

با یک رویکرد مبتکرانه در قبال تحولات اخلاقی هوش مصنوعی، استرالیا می تواند کارهای بیشتری جز تخفیف دادن ریسک های احتمالی آن انجام دهد. اگر ما بتوانیم هوش مصنوعی را با روش عادلانه تری به کار بگیریم، هم می توانیم مزیت  رقابتی آن را تضمین کنیم و هم از حقوق شهروندان استرالیا صیانت به عمل آوریم.

نویسنده:اما شلیگر ( Emma Schleiger) دانشمند پژوهشی

منبع:http://yon.ir/BpS2V

 

ارسال نظر
نام شما
آدرس ايميل شما