اطلاعات شخصی شما، غذای الگوریتمهاست / هوش مصنوعی میداند چه میخواهی و برایت تصمیم گرفته!
هوش مصنوعی آمده تا دنیا را دگرگون کند، اما هر تغییر بهایی دارد؛ از چالشهای اخلاقی و فنی گرفته تا تهدیدهای ناشی از افشای دادههای شخصی. حمیدرضا کشاورز از لابهلای الگوریتمها، نگاهی انسانی به قلب تپنده ماشینها دارد.

در بخش نخست گفتوگو با حمیدرضا کشاورز، مهندس یادگیری ماشین و سخنران TEDx، نگاهی انداختیم به تأثیر روزافزون هوش مصنوعی بر زندگی روزمره؛ از نقش مدلهای زبانی در حوزه پزشکی گرفته تا چالشهای امنیت داده و دغدغههای مربوط به حریم خصوصی. او با اشاره به تفاوتهای پردازش انسان و ماشین، بر این نکته تأکید کرد که حتی دقیقترین مدلها هم ممکن است دچار خطا شوند، بهویژه زمانی که اطلاعات ورودی ناقص یا نامتوازن باشد.
اکنون در بخش دوم این گفتوگو، وارد حوزههایی میشویم که مرز میان توانمندی و تهدید در هوش مصنوعی را شفافتر میکنند: از چالشهای حقوقی مربوط به مالکیت معنوی و سوءاستفاده از دادههای شخصی گرفته تا تأثیر سختافزارها و شکاف دیجیتال جهانی در توسعه مدلها. اگر میخواهید بدانید آینده این فناوری پرشتاب به کدام سو میرود و چه تصمیمهایی باید امروز برای فردای ایمنتر بگیریم.
هوش مصنوعی، دادههای شخصی و مخاطرات پیشرو
در بخش اول گفتوگو اشاره شد که مدلهای هوش مصنوعی گاهی در نقش راهنما عمل میکنند، این مهندس یادگیری ماشین در ادامه در پاسخ به این پرسش که این مدلها چطور تصویرهای ورودی را تحلیل میکنند و آیا میتوان به دقتشان اعتماد کرد، گفت:«مدلها کنار ما هستند و سعی میکنند ما را به سمت تصمیم درست هدایت کنند. اما نباید تصور کنیم پردازش آنها کاملاً دقیق است. بهخصوص در پردازش تصویر، چون استانداردهای مختلفی وجود دارد و زاویه یا کیفیت تصویر میتواند باعث تفسیرهای متفاوت شود. مثلاً اگر شما دو عکس از یک موضوع از دو زاویه مختلف بدهید، ممکن است خروجی مدل هم متفاوت باشد. البته مدلهای تخصصیتر معمولاً عملکرد بهتری دارند.»
این بحث ما را به نقطهی حساستری میرساند؛ ما اطلاعات حساسی در اختیار این مدلها قرار میدهیم: دادههایی مثل شماره ملی یا اطلاعات پزشکی، کشاورز در ادامه و در پاسخ به این پرسش که این موضوع چه مخاطراتی دارد، گفت:«مهمترین خطر این است که از روی اطلاعات شما یک پروفایل ساخته میشود؛ پروفایلی که میتواند برای تبلیغات هدفمند یا حتی اهداف دیگر مورد استفاده قرار بگیرد. این دغدغه البته در شبکههای اجتماعی هم وجود دارد، اما در چتباتها مسئلهی جدیتری مطرح است: دادههایی که شما وارد میکنید ممکن است در آموزش مجدد مدل بهکار گرفته شوند. فرض کنید شماره ملیتان را در یک قرارداد وارد کردهاید و آن را برای بررسی به یک مدل دادهاید. ممکن است چند ماه بعد، این داده در پاسخ به کاربر دیگری ظاهر شود. این اتفاق بهشدت نگرانکننده است.»
او در ادامه و در پاسخ به این پرسش که برای حرفههایی مثل وکالت یا پزشکی، استفاده از چتباتها میتواند چالشبرانگیز باشد، گفت:« دقیقاً. مشاغلی که با اطلاعات حساس سروکار دارند باید حتماً مراقب باشند. استفاده از مدلهای محلی (local models) میتواند راهحل مناسبی باشد. مثلاً نسخههایی از مدل Llama وجود دارد که روی لپتاپ اجرا میشود و در آنها دادهها فقط روی همان دستگاه باقی میمانند. این باعث میشود اطلاعات شخصی وارد چرخهی آموزش نشود.»
این مهندس یادگیری ماشین در ادامه و در پاسخ به این پرسش که آیا امکان دارد از چتباتها خواست که از اطلاعات ما برای آموزش استفاده نکنند، گفت:«بله، در ابتدای مکالمه میتوان این درخواست را مطرح کرد، اما تضمینی نیست. خصوصاً که در نسخههای جدید، ChatGPT از حافظهی مکالمه برخوردار است و اطلاعات شما را بهخاطر میسپارد. این یعنی میتواند حتی از شما بازخورد بگیرد و بر اساس رفتار گذشتهتان تغییر رفتار دهد، گاهی حتی به شکل نگرانکننده. مثلاً کاربری در شبکههای اجتماعی گزارش داده بود که از چتبات خواسته او را مسخره کند و مدل هم با توجه به سابقهی مکالمات، به شکلی بیرحمانه این کار را انجام داده بود.»
مرزهای مبهم مالکیت معنوی در عصر هوش مصنوعی
موضوع دیگر، مالکیت معنوی دادههایی است که به هوش مصنوعی داده میشود، کشاورز در پاسخ به این پرسش که آیا قوانینی در این زمینه شکل گرفته است، گفت:«خوشبختانه در دانشکدههای حقوق سراسر جهان، بحث مالکیت معنوی در عصر دیجیتال و هوش مصنوعی بهطور جدی پیگیری میشود. نگرانی فقط دربارهی استفادهی بدون اجازه از مقالات یا اخبار اختصاصی نیست، بلکه فراتر رفته است. مثلاً ممکن است سبک یک هنرمند یا گوینده توسط مدل تقلید شود. حتی اگر صدای اسکارلت جوهانسون مستقیماً استفاده نشود، ممکن است لحن یا استایل او بازتولید شود. در این حالت، صدای شما شنیده میشود ولی به سبک او، و این دقیقاً همانجایی است که مرزها تار میشوند.»
چرخهی باطل داده و مسئلهی منابع
او در ادامه و در پاسخ به این پرسش که اگر منابع آموزشی تمام شوند، چه میشود، گفت:«این نگرانی جدی است. وقتی منابع اصلی به پایان برسند، مدلها شروع میکنند به بازخورد گرفتن از خودشان؛ یعنی بهنوعی در یک چرخهی باطل میافتند. این مسئله مشابه چیزی است که در پلتفرمهای موسیقی مثل اسپاتیفای میبینیم: الگوریتمها سلیقهی شما را میسنجند و آهنگهایی پیشنهاد میدهند، اما بهتدریج پیشنهادها محدود و تکراری میشوند.»
شکاف دیجیتال و رقابت جهانی بر سر تراشهها
کشاورز در ادامه و در پاسخ به این پرسش که چقدر نقش تراشهها در توسعهی مدلهای هوش مصنوعی مهم است و آیا این موضوع شکاف دیجیتال بین کشورها را عمیقتر میکند، گفت:«بسیار زیاد. در واقع، ایدهی شبکههای عصبی عمیق از دههی ۹۰ میلادی مطرح بود، اما چون توان پردازشی کافی وجود نداشت، قابلاجرا نبود. از حدود سال ۲۰۱۲ با توسعهی GPUها، مدلها توانستند آموزش ببینند. حالا هم دو مسیر در حال پیگیری است: یا الگوریتمها بهینهتر شوند، یا توان پردازشی افزایش پیدا کند.»
او در آخر و در پاسخ به این پرسش که پس کشورهایی که دسترسی به این تراشهها ندارند، عقب میافتند، گفت:«در کوتاهمدت، بله. البته چین با مدلهایی مثل DeepSeek و مدلهای علیبابا نشان داده که در حال رقابت با آمریکا است. اما واقعیت این است که آینده بسیار غیرقابل پیشبینی است. همانطور که ظهور ناگهانی ChatGPT بازار را شوکه کرد، در آینده هم ممکن است شاهد جهشهای مشابهی باشیم.»