هوش مصنوعی، یکی از پیشرفتهترین دستاوردهای فناوری، این روزها در حوزههای مختلف به کار گرفته میشود و تأثیرات بزرگی بر مشاغل گوناگون دارد. از میان این مشاغل، دو حوزه پزشکی و وکالت به دلیل نیاز به تخصص بالا و تأثیر مستقیم بر زندگی انسانها بیشترین توجه را به خود جلب کردهاند. با پیشرفت هوش مصنوعی، پرسش این است که آیا این فناوری میتواند پزشکان و وکلا را کنار بزند و بهتنهایی جایگزین آنها شود؟
به گزارش تابناک به نقل از یک پزشک؛ پیشبینیهایی مانند اظهارات »منسوب» به «ایلان ماسک» که گفته هوش مصنوعی بهزودی (ظرف چند سال) بر این مشاغل سلطه پیدا میکند، بحثهای داغی را ایجاد کرده است. البته معمولا در نقل و قول رسانهای و تیتر زدنها اگر و اماها و مشکلاتی که خود ایلان ماسک ممکن است گفته باشد، حذف میشوند.
اما برای پاسخ به این پرسش، باید نه تنها به تواناییهای هوش مصنوعی، بلکه به پیچیدگیهای ذاتی این مشاغل نیز توجه کنیم.
پزشکی: چرا هوش مصنوعی نمیتواند جایگزین پزشکان شود؟
۱. درک عواطف انسانی و زبان بدن
پزشکان نه تنها با دادهها و علائم بالینی سروکار دارند، بلکه باید به عواطف، زبان بدن و حالت روانی بیماران نیز توجه کنند. برای مثال، بیماری که از درد مزمن شکایت دارد، ممکن است به دلیل اضطراب یا ترس، جزئیات مهمی را از پزشک پنهان کند. پزشکان با تجربه خود میتوانند این نشانههای ظریف را شناسایی و از آن برای تشخیص بهتر استفاده کنند.
هوش مصنوعی، هرچند توانایی تحلیل دادهها را دارد، اما در شناسایی حالتهای غیرکلامی مانند زبان بدن، تغییرات ظریف صدا یا حالتهای چهره محدود است. این محدودیت باعث میشود که در موارد حساس یا بحرانی، جایگزینی آن با پزشک انسانی خطرناک باشد.
۲. مواجهه با دادههای ناقص و مبهم
بسیاری از بیماران علائم خود را بهصورت محاورهای و گاه مبهم بیان میکنند. برای مثال، فردی ممکن است تنها بگوید «احساس میکنم حال خوبی ندارم» و قادر به بیان دقیق مشکل نباشد. پزشکان با طرح پرسشهای مناسب و تجربه میتوانند دادههای ناقص را تکمیل کنند. در حالی که هوش مصنوعی تنها بر اساس ورودیهای مشخص عمل میکند و در صورت ارائه دادههای ناقص یا مبهم، احتمال خطا در تشخیص آن افزایش مییابد.
۳. معاینه بالینی و مدیریت بحران
تشخیص بسیاری از بیماریها نیازمند معاینه فیزیکی است؛ مثلاً لمس شکم برای شناسایی تودهها، بررسی ضربان قلب یا معاینه پوست برای تشخیص بیماریهای خاص. این جنبه عملی در پزشکی چیزی است که هوش مصنوعی نمیتواند انجام دهد. علاوه بر این، در شرایط بحرانی مانند ایست قلبی یا شوک، پزشکان با سرعت عمل و تجربه خود میتوانند تصمیمات حیاتی بگیرند.
برای مثال، در یک بیمارستان شلوغ، پزشکان اورژانس با تصمیمگیری سریع بر اساس علائم حیاتی و تاریخچه بیمار، جان بسیاری را نجات میدهند. هوش مصنوعی ممکن است در تحلیل دادهها کند عمل کند یا نتواند بهخوبی با شرایط متغیر هماهنگ شود.
۴. نقش فرهنگی و اجتماعی در تشخیص و درمان
هر جامعهای فرهنگ، زبان و سیستم بهداشتی خاص خود را دارد. پزشکان میتوانند این تفاوتها را درک کرده و درمانی متناسب با شرایط بیمار ارائه دهند. برای مثال، در ایران، پزشک باید زبان محلی بیمار را بفهمد و از فرهنگ و باورهای او آگاه باشد تا بتواند ارتباط مؤثری برقرار کند.
وکالت: چرا هوش مصنوعی از وکلا عقب میماند؟
۱. تفسیر قوانین پیچیده و متغیر
وکالت در هر کشور به دلیل قوانین و تبصرههای پیچیده، نیازمند درک عمیق از متون حقوقی و تطبیق آنها با شرایط خاص است. برای مثال، در ایران، وکیل باید بتواند میان قوانین مدنی و کیفری ارتباط برقرار کند و تبصرههای مختلف را در موقعیتهای خاص به کار ببرد.
هوش مصنوعی ممکن است بتواند متون قانونی را تحلیل کند، اما درک ارتباطات پیچیده میان قوانین و استفاده از آنها در شرایط خاص، نیازمند تجربه و خلاقیت انسانی است.
۲. تعامل در دادگاه و تغییر استراتژی
جلسات دادگاه بسیار پویا هستند و وکلا باید بر اساس پاسخهای طرف مقابل و شواهد جدید، استراتژی خود را در لحظه تغییر دهند. این فرآیند که نیازمند خلاقیت، هوش هیجانی و تحلیل آنی است، فعلاً از توان هوش مصنوعی خارج است.
بهعنوان مثال، در یک دادگاه، ممکن است وکیل طرف مقابل سندی جدید ارائه دهد که استراتژی دفاع را کاملاً تغییر دهد. وکیل انسانی میتواند بر اساس تجربه و دانش خود، پاسخ مناسبی ارائه دهد، اما هوش مصنوعی برای تحلیل چنین موقعیتهای غیرمنتظره طراحی نشده است.
۳. درک زبان و فرهنگ محلی موکلان
موکلان معمولاً مشکلات خود را به زبان ساده و محلی بیان میکنند. وکیل باید بتواند این زبان را تفسیر کرده و نکات کلیدی را استخراج کند. برای مثال، در یک پرونده خانوادگی در مناطق روستایی ایران، وکیل باید به زبان و شرایط محلی آشنا باشد تا بتواند به درستی از موکل خود دفاع کند.
نقش هوش مصنوعی در کمک به پزشکان و وکلا
اما با وجود محدودیتها، هوش مصنوعی میتواند در برخی زمینهها در همین آینده نزدیک به پزشکان و وکلا کمک کند:
پزشکی: تحلیل تصاویر رادیولوژی و پاتولوژی، پیشبینی شیوع بیماریها، و پیشنهاد روشهای درمان بر اساس دادههای آماری.
وکالت: جستجوی سریع قوانین مرتبط، تحلیل اسناد حقوقی پیچیده، و تهیه پیشنویس قراردادها.
آیا هوش مصنوعی میتواند در پاسخ به سؤالات پزشکی یا حقوقی دچار توهم (هالوسیناسیون) شود؟
بله، امکان دارد که هوش مصنوعی در پاسخ به سؤالات پزشکی یا حقوقی دچار توهم یا هالوسیناسیون اطلاعاتی (AI Hallucination) شود. این پدیده زمانی رخ میدهد که یک مدل هوش مصنوعی پاسخی اشتباه، بیاساس یا گمراهکننده تولید کند که ممکن است به نظر درست و منطقی بیاید، اما در واقعیت هیچ مبنایی ندارد. این رفتار در سیستمهای پیشرفته هوش مصنوعی مانند GPT-4 نیز مشاهده شده است.
چرا هوش مصنوعی دچار توهم میشود؟
۱. عدم توانایی در تمایز میان اطلاعات معتبر و نامعتبر
هوش مصنوعی بر اساس دادههایی که در زمان آموزش به آن داده شده است، پاسخها را تولید میکند. اگر این دادهها ناقص، مغرضانه یا حتی شامل اطلاعات اشتباه باشند، مدل ممکن است پاسخهای گمراهکننده تولید کند. در مورد سؤالات پزشکی یا حقوقی، این میتواند خطرناک باشد، زیرا اطلاعات اشتباه میتواند پیامدهای جدی برای سلامت یا حقوق افراد داشته باشد.
۲. تولید پاسخهای اطمینانبخش اما اشتباه
مدلهای هوش مصنوعی طراحی شدهاند تا پاسخهایی با اعتمادبهنفس تولید کنند، حتی اگر پاسخی که ارائه میدهند اشتباه باشد. برای مثال، ممکن است در پاسخ به یک سؤال پزشکی بگوید که یک داروی خاص برای درمان یک بیماری مناسب است، در حالی که چنین توصیهای اصلاً درست نیست یا حتی خطرناک است.
۳. عدم درک معنایی و زمینهای
هوش مصنوعی معنای واقعی پرسش یا زمینههای مرتبط با آن را درک نمیکند. این مدلها بر اساس الگوهای زبانی عمل میکنند و نمیتوانند پیچیدگیهای معنایی یا مفاهیم فراتر از دادههای خود را بفهمند. بنابراین، اگر سؤالی خارج از دادههای آموزشی مدل مطرح شود، احتمال هالوسیناسیون افزایش مییابد.
۴. کمبود دانش بهروز و اطلاعات خاص محلی
در موضوعات پزشکی یا حقوقی، قوانین یا پروتکلهای درمانی ممکن است به سرعت تغییر کنند یا بسته به مکان متفاوت باشند. اگر هوش مصنوعی به دادههای بهروز یا محلی دسترسی نداشته باشد، ممکن است پاسخهایی قدیمی یا بیارتباط ارائه دهد.
نمونههایی از هالوسیناسیون در پاسخهای پزشکی و حقوقی
۱. در پزشکی
فرض کنید از هوش مصنوعی میپرسید: «برای درمان سردرد مزمن چه دارویی مناسب است؟» اگر مدل اطلاعات دقیقی درباره شرایط خاص شما نداشته باشد، ممکن است دارویی را پیشنهاد کند که نه تنها کمک نکند، بلکه عوارض جانبی خطرناکی ایجاد کند. بهعنوان مثال، اگر شما آلرژی خاصی داشته باشید که مدل از آن بیاطلاع است، پیشنهاد دارو میتواند خطرناک باشد.
۲. در حقوق
در یک سؤال حقوقی مانند: «آیا طبق قانون ایران میتوان یک قرارداد را بهصورت شفاهی لغو کرد؟» هوش مصنوعی ممکن است پاسخی بدهد که برای قوانین یک کشور دیگر (مثلاً آمریکا) درست باشد، اما در ایران کاملاً اشتباه باشد. این اشتباه به دلیل عدم تطبیق پاسخ با قوانین محلی رخ میدهد.
چرا این مسئله مهم است؟
۱. پیامدهای جدی برای سلامت و ایمنی
اشتباه در تشخیص بیماری یا توصیه دارو میتواند به عوارض جدی یا حتی مرگ منجر شود. این خطر بهویژه در مواردی که کاربران به طور کامل به هوش مصنوعی اعتماد میکنند، بیشتر است.
۲. عواقب قانونی و حقوقی
در مسائل حقوقی، یک مشاوره اشتباه میتواند منجر به از دست رفتن حقوق قانونی افراد یا صدور تصمیمات اشتباه در یک پرونده شود.
چگونه میتوان از هالوسیناسیون هوش مصنوعی جلوگیری کرد؟
۱. استفاده از هوش مصنوعی بهعنوان ابزار کمکی، نه منبع اصلی تصمیمگیری
در مسائل پزشکی یا حقوقی، هوش مصنوعی میتواند بهعنوان ابزار کمکی برای ارائه پیشنهادات یا تحلیل دادهها استفاده شود، اما تصمیم نهایی باید توسط یک متخصص انسانی گرفته شود.
۲. کنترل و نظارت توسط متخصصان
پاسخهای هوش مصنوعی باید توسط پزشکان یا وکلای متخصص بررسی شوند تا از صحت آنها اطمینان حاصل شود.
۳. آموزش مدل با دادههای معتبر و بهروز
توسعهدهندگان باید از دادههای بهروز و معتبر برای آموزش مدلهای هوش مصنوعی استفاده کنند و آنها را بهطور مداوم با اطلاعات جدید بهروزرسانی کنند.
۴. آگاهی کاربران از محدودیتهای هوش مصنوعی
کاربران باید از محدودیتهای هوش مصنوعی آگاه باشند و بدانند که این سیستمها همهچیز را نمیدانند و ممکن است اشتباه کنند.
نتیجهگیری: هوش مصنوعی مکمل انسان، نه جایگزین
هوش مصنوعی میتواند ابزار قدرتمندی برای تسهیل کار پزشکان و وکلا باشد، اما جایگزینی کامل آن با تخصص انسانی در آینده نزدیک بعید است. مشاغلی که نیازمند درک عواطف، تحلیل موقعیتهای پیچیده و تعامل مستقیم با افراد هستند، همچنان در انحصار انسان باقی خواهند ماند.
پیشرفتهای هوش مصنوعی، اگر به درستی مدیریت شوند، میتوانند کیفیت خدمات پزشکی و حقوقی را بهبود بخشند، اما در آینده نزدیک نمیتوانند جایگزین تجربه، خلاقیت و انسانیت متخصصان شوند.
منبع