دانشگاههای متعددی در سرتاسر جهان پیرامون هوش مصنوعی تحقیق میکنند. شرکتها و سازمانهایی همچون Allen Institute و غولهای فناوری همچون گوگل و فیسبوک را هم به فهرست محققان این حوزه اضافه کنید. نتیجهی تحقیقات همهجانبه، به احتمال زیاد در آیندهی نزدیک به ظهور یک هوش مصنوعی میانجامد که از لحاظ پیچیدگی ادراک و شناخت، نزدیک به حیواناتی همچون موش و سگ خواهد بود. اکنون نوبت به این مسئله رسیده است که چرایی و چگونگی اجرای حفاظتهای اخلاقی را برای هوش مصنوعی بررسی کنیم. آیا هوش مصنوعی نیز استحقاق حفاظتهای قانونی اهداشده به حیوانات را دارد؟
بحثهایی که تاکنون پیرامون «حقوق - تعمیرات سولاردام دلمونتی نیروهوایی - هوش مصنوعی» یا «حقوق رباتها» بیان شدهاند، عموما به تعهدات و وظایف اخلاقی هوش مصنوعی با هوشیاری در سطح انسان یا بالاتر اشاره دارند. بهعنوان مثال میتوان به نمونههای سینمایی همچون حقوق درویدها در سری فیلمهای استار ترک یا شخصیت دولورس در سریال وستورلد اشاره کرد. منتهی تفکر در این مسیر، ظاهرا شروع صحیحی برای بررسی چالش نخواهد بود و شاید پیامدهای اخلاقی عظیمی بههمراه داشته باشد.
بشر احتمالا در آیندهی بسیار نزدیک به هوش مصنوعی با پیچیدگی هوش انسانی دست پیدا نخواهد کرد؛ هوشی که نیازمند بررسیهای اخلاقی شبیه به انسان باشد. ازطرفی، ساختن هوش مصنوعی با پیچیدگی نزدیک به هوشی پایینتر از - تعمیرات سولاردام دلمونتی نیروهوایی - انسان، دور از انتظار نیست. درنتیجه باید ملاحظاتی با سطح - تعمیرات سولاردام دلمونتی نیروهوایی - پایینتر از مسائل اخلاقی انسانی برای آنها در نظر گرفته شود.
امروزه احتیاط بالایی پیرامون چگونگی انجام تحقیق با استفاده از حیوانات مدنظر قرار میگیرد. بهعنوان مثال کمیتههای حفاظت از حیوانات، - تعمیرات سولاردام دلمونتی نیروهوایی - پروپوزالهای تحقیقی را بررسی میکنند تا هیچگونه کشتار یا شکنجهی غیرالزامی در جریان تحقیقات روی آنها انجام نشود. اگر در برخی از تحقیقات - تعمیرات سولاردام دلمونتی نیروهوایی - پزشکی، سلولهای بنیادی انسانی یا مهمتر از آن، سلولهای مغزی انسانی دخیل باشند، نظارت و بازرسیهای عمیقتر نیز میشود. درواقع تحقیقات زیست پزشکی تحت بررسیهای موشکافانهی عمیقی انجام میشوند. درمقابل، تحقیقات هوش مصنوعی که شاید مستلزم - تعمیرات سولاردام دلمونتی نیروهوایی - برخی از همان ریسکهای اخلاقی بالا باشند، تحت هیچگونه بررسی قانونی یا سازمانی قرار ندارند. برخی کارشناسان میگویند شاید این تحقیقات هم - تعمیرات سولاردام دلمونتی نیروهوایی - به چارچوبهای اخلاقی بیشتر نیاز داشته باشند.
در نگاه اول بهنظر میرسد هوش مصنوعی تا زمان دستیابی به هوشیاری واقعی، نیازی به حفاظتهای اخلاقی نداشته باشد. منظور از هوشیاری واقعی، جریانی هوشمندانه از تجربه با لذت و رنج واقعی است. چنین تصوری منطقی بهنظر میرسد، اما بههرحال یک سؤال بیپاسخ در آن وجود دارد: ما چگونه میتوانیم از ساختن هوشی با توانایی تجربهی واقعی مطمئن - تعمیرات سولاردام دلمونتی نیروهوایی - شویم؟ بله، اگر هوش مصنوعی ساختهشده مانند دولورس یا دیگر شخصیتهای فیلم و سریال باشد، توانایی شکایت - تعمیرات سولاردام دلمونتی نیروهوایی - کردن و دفاع کردن - تعمیرات سولاردام دلمونتی نیروهوایی - از خود را خواهد داشت و قطعا پیرامون حقوق خود، بحث و مجادله - تعمیرات سولاردام دلمونتی نیروهوایی - میکند. ازطرفی اگر هوش مصنوعی توانایی تکلم را نداشته (مانند موش و سگ) یا بههر دلیلی قادر به ابراز نظر پیرامون حالتهای درونی خود نباشد، توانایی اعلام رنج کشیدن را نیز نخواهد داشت.
چالشی که - تعمیرات سولاردام دلمونتی نیروهوایی - در بالا مطرح - تعمیرات سولاردام دلمونتی نیروهوایی - شد، یک پیچیدگی را در بررسیها پیرامون هوش مصنوعی ایجاد میکند. مطالعات علمی پرامون - تعمیرات سولاردام دلمونتی نیروهوایی - هوشیاری، هنوز اجماعی - تعمیرات سولاردام دلمونتی نیروهوایی - برای تعریف هوشیاری ندارند. درواقع هنوز نمیتوانیم وجود یا عدم وجود هوشیاری را تعریف کنیم.
هوشیاری در برخی از دیدگاههای لیبرال تنها نیازمند توانایی پردازش اطلاعات با سازماندهی مناسب است. بهعنوان مثال میتوان به مدلهای اطلاعاتی انعطافپذیر یک سیستم در ارتباط با اجسام موجود در محیط اشاره کرد؛ مدلهایی که دارای ظرفیتهای هدایتشدهی توجه و برنامهریزیهای عملیاتی بلندمدت هستند. دنیای علم احتمالا در شُرف دستیابی به چنین هوشیاری قرار دارد.
تعریف هوشیاری در دیدگاههای محافظهکارانه نیازمند قابلیتهای زیستی خاصی است. بهعنوان مثال میتوان به مغزی شبیه به مغز پستانداران با جزئیات ساختاری سطح پایینتر اشاره کرد. قطعا پیشرفتهای علمی حتی به ساختن چنین هوشیاری نزدیک هم نشدهاند.
صحت هیچیک از اظهارنظرهای بالا قابل تأیید یا رد نیست و نمیتوان هیچکدام را بر دیگری برتر دانست. ازطرفی اگر دیدگاه لیبرال - تعمیرات سولاردام دلمونتی نیروهوایی - را صحیح در نظر بگیریم، بهزودی توانایی ساخت هوش مصنوعی پایینتر از انسان را در مقیاس فراوان خواهیم داشت که به حفاظت اخلاقی نیاز دارند. ریسک اخلاقی در همین شرایط خود را - تعمیرات سولاردام دلمونتی نیروهوایی - نشان میهد.
مبحث پیرامون ریسکها و خطرهای هوش مصنوعی، عموما روی ریسکهای متمرکز میشوند که شاید فناوریهای هوش مصنوعی جدید برای انسانها ایجاد کنند. بهعنوان مثال میتوان به همان داستانهای علمی-تخیلی اشغال جهان و ازبینبردن نژاد بشر اشاره کرد. در بهترین حالت نیز ریسک در دست گرفتن کنترل نظامهایی همچون نظام بانکی مطرح میشود. خطر انسان برای هوش مصنوعی ازطریق بدرفتاری با آنها، عموما در مباحث پیرامون خطرها مطرح نمیشود.
شاید بررسی کنونی شبیه به داستانهای علمی-تخیلی باشند. ازطرفی محققان و - تعمیرات سولاردام دلمونتی نیروهوایی - جامعهی فعال هوش مصنوعی در مسیر توسعهی - تعمیرات سولاردام دلمونتی نیروهوایی - هوش مصنوعی هوشیار یا سیستمهای هوش مصنوعی عظیم هستند. به همین دلیل احتمالا دستیابی به - تعمیرات سولاردام دلمونتی نیروهوایی - سیستم کاملا هوشیار رخ خواهد داد و باید جنبههای اخلاقی آن نیز در نظر - تعمیرات سولاردام دلمونتی نیروهوایی - گرفته شود. تحقیقات در آن حوزه، نیازمند بررسیهای موشکافانهی اخلاقی هستند که شبیه به بررسیهای - تعمیرات سولاردام دلمونتی نیروهوایی - انجامشده - تعمیرات سولاردام دلمونتی نیروهوایی - در ارتباط با تحقیق روی حیوانات یا نمونههایی از بافتهای عصبی انسان هستند.
حفاظتهای مناسب اخلاقی از نمونههای حیوانی و انسانی در تحقیقات زیستپزشکی، زمانی پیادهسازی شدند که اولین تخلفات جدی اخلاقی در - تعمیرات سولاردام دلمونتی نیروهوایی - تحقیقات فاش شدند. بهعنوان مثال میتوان به تشریح غیرالزامی حیوانات زنده، جرمهای جنگی نازیها در حوزهی پزشکی و تحقیقات بحثبرانگیز دانشگاه تاسکیگی آمریکا روی - تعمیرات سولاردام دلمونتی نیروهوایی - بیماری سفلیس اشاره کرد.
باتوجه به رخدادهای پیشآمده در گذشته، احتمالا محققان امروزی شانس عملکرد بهتر - تعمیرات سولاردام دلمونتی نیروهوایی - را نسبت به هوش مصنوعی دارند. بهعنوان راهکارهای کاربردی میتوان به راهاندازی کمیتههای نظارتی برای بررسی و اعتبارسنجی تحقیقات هوش مصنوعی اشاره کرد. کمیتههای آنچنانی دقیقا مانند کمیتههای نظارت بر تحقیقات حیوانی یا سلولهای بنیادی، - تعمیرات سولاردام دلمونتی نیروهوایی - باید ترکیبی از اعضای دانشمند و غیر دانشمند داشته باشند. - تعمیرات سولاردام دلمونتی نیروهوایی - طراحان هوش مصنوعی، محققان - تعمیرات سولاردام دلمونتی نیروهوایی - هوشیاری، اخلاقشناسان و اعضای علاقهمند به مباحث مذکور، باید در کمیتههای نظارتی حضور داشته باشند.
کمیتههای نظارت بر تحقیقات هوش مصنوعی، موظف به تشخیص و بررسی ریسکهای اخلاقی طراحیهای جدید - تعمیرات سولاردام دلمونتی نیروهوایی - در حوزهی هوش مصنوعی خواهند بود. آنها باید دارای درکی پیچیده و عمیق از مشکلات اخلاقی و علمی پیشرو باشند. درواقع اعضای ناظر باید بتوانند چالشها و ریسکهای اخلاقی را در برابر مزیت - تعمیرات سولاردام دلمونتی نیروهوایی - پیشبرد تحقیقات، مقایسه و تحلیل کنند.
اگر زمانی کمیتههای نظارت بر تحقیقات - تعمیرات سولاردام دلمونتی نیروهوایی - هوش مصنوعی تشکیل شوند، احتمالا داوری بر تمامی تحقیقات موجود در این حوزه را - تعمیرات سولاردام دلمونتی نیروهوایی - در دست خواهند گرفت. البته اکنون هیچیک از تحقیقات ما براساس هیچ تعریفی از هوشیاری به هوشیاری واقعی نزدیک نشدهاند، اما احتمال دستیابی به آن دور از ذهن - تعمیرات سولاردام دلمونتی نیروهوایی - نیست. درنتیجه - تعمیرات سولاردام دلمونتی نیروهوایی - شاید بهتر باشد پیش از رد شدن - تعمیرات سولاردام دلمونتی نیروهوایی - از مرز اخلاقی و ساختن هوشیاری واقعی، برای کنترل چالشهای اخلاقی آن آماده باشیم.