چرا برخی افراد از استفاده از هوش مصنوعی خودداری میکنند؟

با گسترش سریع هوش مصنوعی در زندگی روزمره و حرفهای، برخی افراد همچنان با دیده تردید و نگرانی به این فناوری نوظهور مینگرند.
با گسترش سریع هوش مصنوعی در زندگی روزمره و حرفهای، برخی افراد همچنان با دیده تردید و نگرانی به این فناوری نوظهور مینگرند. نمونهای از این افراد، سابین زتلر است؛ بنیانگذار یک مؤسسه ارتباطات در لندن که با قاطعیت در برابر استفاده از هوش مصنوعی مقاومت میکند. زتلر با بیانی کنایهآمیز میگوید: «چرا زحمت خواندن چیزی را به خودمان بدهیم که کسی حوصله نوشتنش را نداشته؟» برای او، این جمله بازتابی از دیدگاهش نسبت به محتوایی است که نه از دل انسان، بلکه توسط ماشینها خلق شده است. زتلر با حدود ۱۰ کارمند در موسسهاش – برخی تماموقت و برخی پارهوقت – معتقد است که استفاده از متنی که خودت ننوشتهای، گوش دادن به موسیقی تولیدشده توسط ماشین، یا حتی جایگزینی کارکنان انسانی با ابزارهای هوش مصنوعی، به ارزشهای انسانی و اجتماعی لطمه میزند. او میپرسد: «عشق، امید و پیشرفت چه میشود؟ اینها برای من اهمیت دارند، نه صرفاً سود بیشتر.» با اینکه او مزایای کاربردی هوش مصنوعی – بهویژه برای گروههایی مانند نابینایان – را انکار نمیکند، اما نگران آثار اجتماعی گستردهتر آن است. از نظر او، اگر موفقیت را تنها با سود مالی بسنجیم، شاید استفاده نکردن از هوش مصنوعی به ضرر باشد، اما اگر معیار موفقیت، مشارکت اجتماعی و آرامش وجدان باشد، مسیر دیگری پیش روی ماست. نگرانیهای زیستمحیطی یکی دیگر از مخالفان جدی هوش مصنوعی، فلورانس آچری، مدیر مجموعهی Yoga Retreats & More در لندن است. او بر این باور است که استفاده از هوش مصنوعی نهتنها ارتباط انسانی را کمرنگ میکند، بلکه هزینههای سنگین زیستمحیطی نیز دارد. آچری میگوید: «در ابتدا فکر میکردم هوش مصنوعی بیروح است و با ماهیت انسانی کسبوکار من تضاد دارد. اما وقتی فهمیدم مراکز داده چه میزان انرژی مصرف میکنند و چه ردپای کربنی بهجا میگذارند، تصمیم گرفتم بهطور کامل از این فناوری فاصله بگیرم.» طبق گزارشهای موجود، یک جستجوی ساده با چتجیپیتی میتواند تا ده برابر بیشتر از یک جستجوی معمولی گوگل برق مصرف کند. این موضوع نگرانیهای عمیقی در مورد پایداری زیستمحیطی فناوریهای مبتنی بر هوش مصنوعی ایجاد کرده است. تهدیدی برای تفکر نقادانه سیرا هانسن، ساکن سیاتل و کارمند روابط عمومی، هوش مصنوعی را تهدیدی برای مهارتهای فکری انسان میداند. به باور او، واگذاری تصمیمهای روزمره به ابزارهایی مانند «AI Copilot» موجب میشود افراد از تمرین تفکر و حل مسئله باز بمانند. او میگوید: «مغز ما برای فکر کردن ساخته شده، نه فقط برای دریافت پاسخ از یک ماشین. اگر مسئولیت تحلیل و تصمیمگیری را به هوش مصنوعی بسپاریم، به تدریج توانایی شناختی خود را از دست خواهیم داد.» فشارهای اقتصادی برای پذیرش هوش مصنوعی اما نه همه افراد از این امتیاز برخوردارند که بتوانند بهراحتی از هوش مصنوعی چشم بپوشند. جکی آدامز (نام مستعار)، متخصص بازاریابی دیجیتال، در ابتدا نسبت به هوش مصنوعی بدبین بود. او آن را نشانهای از تنبلی ذهنی میدانست و از آثار زیستمحیطی آن نیز نگران بود. اما با کاهش بودجه و افزایش فشارهای شغلی، ناگزیر به استفاده از هوش مصنوعی در وظایف روزمره خود شد؛ از نوشتن تبلیغ تا ویرایش عکس. آدامز میگوید: «ابتدا مقاومت کردم، اما حالا میبینم اگر از هوش مصنوعی استفاده نکنم، از دیگران عقب میافتم. حالا دیگر فکر نمیکنم این ابزارها نشانه تنبلی باشند؛ بلکه در برخی موارد میتوانند کیفیت کار را افزایش دهند.» با این حال، او همچنان نسبت به فراگیری بدون مرز هوش مصنوعی نگران است: «حتی وقتی فقط از گوگل استفاده میکنید، بخشی از نتایج توسط هوش مصنوعی تولید شدهاند. در ایمیلها، پیشنهادهایی میآید که توسط هوش مصنوعی نوشته شدهاند. این روند غیرقابل کنترل به نظر میرسد؛ مثل بهمنی که به راه افتاده باشد.» دیدگاه فلسفی جیمز بروسو، استاد فلسفه و اخلاق هوش مصنوعی در دانشگاه پِیس نیویورک، معتقد است که دیگر زمان نادیده گرفتن هوش مصنوعی به سر آمده است. او میگوید: «اگر برایمان مهم باشد که چرا یک تصمیم گرفته شده، هنوز به انسانها نیاز داریم. اما اگر دلیل تصمیم اهمیت نداشته باشد، به احتمال زیاد از هوش مصنوعی استفاده خواهیم کرد.» او میافزاید: «برای قضاوتهای اخلاقی، مانند رسیدگی به پروندههای کیفری یا تصمیمگیریهای پزشکی، هنوز حضور انسان ضروری است. اما در زمینههایی مانند پیشبینی آبوهوا یا بیهوشی، بهزودی انسان جایگاه خود را از دست خواهد داد.» در نهایت، مقاومت در برابر استفاده از هوش مصنوعی دلایل متنوعی دارد: از دغدغههای اخلاقی و زیستمحیطی گرفته تا نگرانی از تضعیف مهارتهای انسانی و تهاجم به فضای انسانی کار. اما فشارهای اقتصادی، رقابتی و فناورانه باعث میشود حتی مخالفان سرسخت نیز در نهایت به نوعی پذیرش یا استفاده از این ابزار تن دهند. آینده، ترکیبی خواهد بود از انتخابهای فردی، الزامهای حرفهای، و گفتوگوهای مستمر دربارهی مرزهای اخلاقی و انسانی استفاده از هوش مصنوعی.