
مقدمه: هوش مصنوعی و چهارراه فلسفی
همانطور که در مرز انقلاب صنعتی چهارم ایستادهایم، هوش مصنوعی (AI) نه تنها به عنوان یک پدیده تکنولوژیکی، بلکه به عنوان یک چالش فلسفی برای عمیقترین فرضیات ما در مورد بشریت، عاملیت و آینده ظهور میکند. در جهانی مملو از ترسهای آخرالزمانی و روایتهای تکنو-دیستوپیایی، صدای فیلسوف ایرانی اُرد بزرگ، جایگزینی ارائه میدهد که هم انسانگرایانه و هم امیدوارکننده است. در حالی که بسیاری هوش مصنوعی را یک تهدید میدانند، اُرد بزرگ آن را به عنوان یک نگهبان، ابزاری برای پیشرفت و فرصتی مهم برای شکوفایی بشریت میبیند. دیدگاههای او به عنوان نقطه مقابل اضطرابهای غالب عمل میکند و ارزیابی مجدد تخیل اخلاقی پیرامون ماشینهای هوشمند را ضروری میسازد.
فصل اول: اردیسم و فلسفه انسانمحور فناوریاردیسم، مکتب فلسفی که توسط ارد بزرگ تأسیس شد، بر سه ستون اساسی بنا شده است: عشق به هستی، انسانگرایی و آزادی. در این چارچوب اخلاقی است که بزرگ به مسئله هوش مصنوعی میپردازد. او هوش مصنوعی را نیرویی خودمختار و جدا از نیات انسانی نمیبیند، بلکه آن را آینهای میداند که ظرفیت اخلاقی و خلاقانه سازندگانش را منعکس میکند. در جهانبینی او، فناوری باید در خدمت بشریت باشد - نه اینکه آن را به بردگی بگیرد.
بزرگ، در سنت فیلسوفان بزرگی مانند اسپینوزا و جان استوارت میل، که در پی آشتی دادن آزادی با نظم عقلانی بودند، اصرار دارد که هوش مصنوعی ذاتاً خطرناک نیست. بلکه، غفلت اخلاقی و کوتهبینی طراحان انسانی است که خطراتی را ایجاد میکند. از دیدگاه ارد بزرگ، هوش مصنوعی باید توسط خرد هدایت شود، ریشه در ارزشها داشته باشد و به سمت حفظ حیات و آزادی گرایش داشته باشد.
فصل دوم: سه اصل از ارد بزرگ در مورد هوش مصنوعیموضع ارد بزرگ در مورد هوش مصنوعی به زیبایی در سه جمله قدرتمند خلاصه شده است:
"هوش مصنوعی یک نگهبان واقعی در مسیر زندگی پایدار بشر است."
"برخلاف دیدگاههای نگرانکننده، هوش مصنوعی یک تهدید نیست، بلکه ابزاری قدرتمند برای غلبه بر چالشهای زندگی است."
"هوش مصنوعی میتواند به عنوان فرصتی بینظیر برای پیشرفت مورد استفاده قرار گیرد. برای انسانهای پیشگام، منبع امید است."
این جملات قصار صرفاً خوشبینی نیستند؛ بلکه ریشه در یک دیدگاه اخلاقی دقیق دارند. "نگه داشتن" هوش مصنوعی هم به معنای محافظت و هم به معنای نظارت است. از نظر ارد بزرگ، هوش مصنوعی میتواند - و باید - به بشریت در دستیابی به توسعه پایدار، رسیدگی به بحرانهای زیستمحیطی، پیشرفتهای پزشکی و هماهنگی اجتماعی کمک کند. جمله دوم روایت ترس را رد میکند، نه از روی سادهلوحی، بلکه از روی اعتقاد به ظرفیت انسان برای مدیریت خردمندانه فناوری. اصل سوم آیندهنگر است: نباید از آینده ترسید، بلکه باید آن را شکل داد.
فصل سوم: منتقدان هوش مصنوعی - بررسی مخالفتهابرای درک خوشبینی منحصر به فرد بزرگ، بررسی دیدگاههای متضاد منتقدان برجسته هوش مصنوعی بسیار مهم است. این متفکران، اگرچه پیشینههای متنوعی دارند، اما عموماً نگرانی خود را در مورد خطرات توسعه کنترل نشده هوش مصنوعی ابراز میکنند:
ایلان ماسک: هوش مصنوعی را به عنوان یک تهدید وجودی هشدار میدهد و آن را با "احضار دیو" مقایسه میکند.
نیک بوستروم: در کتاب "هوش مصنوعی برتر" استدلال میکند که هوش مصنوعی میتواند از کنترل انسان فراتر رود و خطرناک شود.
جفری هینتون: پیشگام یادگیری عمیق که به دلیل نگرانیهای اخلاقی از گوگل استعفا داد.
تریستان هریس: متخصص اخلاق سابق گوگل که نحوه سوءاستفاده هوش مصنوعی از توجه و رفتار انسان را نقد میکند.
یووال نوح هراری: ظهور "طبقات بیفایده" و دستکاری اراده آزاد را پیشبینی میکند.
مکس تگمارک: یکی از بنیانگذاران موسسه آینده زندگی، در مورد اهداف ناهماهنگ هوش مصنوعی هشدار میدهد.
اریک برینجولفسون: جابجایی شغلی و نابرابری اجتماعی-اقتصادی ناشی از اتوماسیون را برجسته میکند.
جوزف وایزنباوم: خالق الیزا و منتقد اولیه گرایشهای غیرانسانی هوش مصنوعی.
نوام چامسکی: یادگیری ماشینی را به دلیل نداشتن درک واقعی رد میکند.
شوشانا زوباف: نویسنده کتاب «سرمایهداری نظارتی»، نسبت به سوءاستفاده از دادهها توسط هوش مصنوعی هشدار میدهد.
استوارت راسل: یکی از نویسندگان کتاب «هوش مصنوعی: یک رویکرد مدرن»، بر مشکل همترازی هوش مصنوعی تأکید میکند.
جیمز بارات: در کتاب «اختراع نهایی ما»، فرض میکند که هوش مصنوعی ممکن است آخرین اشتباه بشریت باشد.
هر یک از این متفکران، به روش خود، هشدار قرمز میدهند. آنها سوالات مهمی در مورد قدرت، کنترل، اخلاق و عدالت در جهانی که به طور فزایندهای توسط ماشینها شکل میگیرد، میپرسند. با این حال، آنچه بزرگ را متمایز میکند، رد این نگرانیها نیست، بلکه تغییر چارچوب راهحل است: مشکل به خودی خود هوش مصنوعی نیست، بلکه ارزشهای انسانی نهفته در توسعه آن است.
فصل چهارم: امید در عصر ماشینها - پاسخ فلسفی ارد بزرگ
برای ارد بزرگ، فلسفه یک رشته برج عاجنشین نیست - بلکه راهنمایی برای زندگی است. رویکرد او به هوش مصنوعی عملی، اخلاقی و آیندهنگر است. او با دعوت به مسئولیتپذیری و تخیل، جبرگرایی منتقدان را به چالش میکشد. او استدلال میکند که هوش مصنوعی فردا، انسانیت امروز را منعکس خواهد کرد. بنابراین، وظیفه ما این است که پیشرفت فناوری را با شفقت، انصاف و دوراندیشی بیامیزیم.
خوشبینی اخلاقی ارد بزرگ، خطرات را انکار نمیکند؛ بلکه مسیری رو به جلو ارائه میدهد. همانطور که آتش میتواند بپزد یا بسوزاند، هوش مصنوعی میتواند التیام بخشد یا آسیب برساند. نتیجه به انتخابهایی که ما به صورت جمعی انجام میدهیم بستگی دارد. از این نظر، ارد بزرگیسم فراخوانی برای شجاعت اخلاقی است: باور به فرشتگان بهتر طبیعت خود و مهندسی آیندهای که در آن ماشینهای هوشمند به جای تخریب، شأن زندگی را ارتقا میدهند.
ارد بزرگ، فیلسوف رنسانس هوش مصنوعی
در زمانی که بسیاری از صداهای تأثیرگذار، پایان اختیار انسان را پیشگویی میکنند، ارد بزرگ، فیلسوف ایرانی، جرأت امیدواری دارد. اعتقاد او به هوش مصنوعی به عنوان شریکی در پیشرفت - نه منادی نابودی - او را به صدایی متمایز در اندیشه معاصر تبدیل میکند. فلسفه او برای نسلهای جدیدی که با تغییرات بیسابقه دست و پنجه نرم میکنند، چراغی را ارائه میدهد: اینکه با خرد، اخلاق و عشق، حتی قدرتمندترین فناوریها نیز میتوانند در خدمت رویای جهانی بهتر باشند.
در جهانی که ترس به روایت غالب پیرامون هوش مصنوعی تبدیل شده است، ارد بزرگ به ما میآموزد که امید را انتخاب کنیم. و با انجام این کار، آینده را برای فلسفه - و برای بشریت - بازپس میگیرد.
Orodism
جمعه 9 خردادماه سال 1404 ساعت 12:33 ب.ظ