آیا سامانه‌های مبتنی بر یادگیری عمیق، جعبه سیاه هستند؟

این‌که ممکن است از تصاویر ما در آموزش دادن یک سامانه هوش مصنوعی استفاده شود و یا از روی اطلاعات وراثتی بتوانند ما را در فضای مجازی و حقیقی شناسایی کنند از جمله این نگرانی‌های مدرن هستند. در دنیای دوربین این شماره نگاهی به این موارد خواهیم انداخت.

اگر به وب‌سایت https://thispersondoesnotexist.com/ مراجعه کنید تصویری از چهره یک انسان خواهید دید. در مورد این وب‌سایت پیش از این سخن گفته‌ایم. با هر بار بارگذاری صفحه، تصویری جدید نمایش داده می‌شود. این تصاویر ساخته‌ کامپیوتر هستند و با کمک شبکه‌های رقابتی مولد یا به اختصار GAN تولید می‌شوند. در این روش، هوش مصنوعی می‌آموزد مثال‌هایی جعلی و واقع‌گرایانه از داده‌هایی که براساس آن آموزش دیده است بسازد. نتیجه می‌شود آنچه که در قالب تصاویر بسیار باورپذیر از چهره انسان در سایت می‌بینید. اما این تصاویر ساختگی که استفاده از آن‌ها در فیلم‌ها و تبلیغات کامپیوتری هم رونق گرفته است آنچنان که به نظر می‌رسد یکتا و جعلی نیستند. محققان فرانسوی مدعی شده‌اند شماری از چهره‌هایی که توسط شبکه‌های GAN تولید می‌شوند ممکن است مابه‌ازایی در دنیای واقعی داشته باشند. چنانکه احتمال دارد برخی از این تصاویر کاملاً شبیه افرادی باشند که تصاویرشان در قالب داده‌های آموزشی به سامانه یادگیری عمیق خورانده شده است بطوری‌که ممکن است هویت این افراد را فاش کند. این یکی از جدیدترین نتایجی است که می‌توان آنرا در راستای بررسی این ایده دانست که آیا شبکه‌های عصبی را می‌توان جعبه‌‌های سیاهی به شمار آورد که از آنچه درونشان اتفاق می‌افتد اطلاعی در دست نیست؟

این محققان از دانشگاه کان فرانسه نوعی از حمله موسوم به حمله به عضویت (membership attack) را ترتیب داده‌اند که با استفاده از آن می‌توان فهمید چه داده‌ای برای آموزش دادن شبکه عصبی مورد استفاده قرار گرفته است. چنین حملاتی ممکن است نارسایی‌های امنیتی جدی را نمایان سازند.

به‌عنوان مثال می‌توان فهیمد داده‌‌های پزشکی چه کسی در آموزش دادن مدل بکار رفته در یک سامانه هوشمند تشخیص پزشکی استفاده شده است و بدین ترتیب بیماری شخص افشا شود. این گروه ایده خود را گسترش داده‌اند. به گونه‌ای که علاوه بر یافتن یک فرد خاص در داده‌های آموزشی، این امکان را بررسی کرده‌اند که آیا می‌توان در شبکه‌های آموزش داده شده به روش GAN تصاویری را یافت که شباهت به فرد داشته باشند؟ آن‌ها دریافتند در میان داده‌های آموزشی می‌توان عکس‌هایی از افراد واقعی را یافت که شبیه به عکس جعلی ساخته شده توسط GAN هستند.

نتایج این تحقیق نگرانی‌های جدی در زمینه حریم خصوصی ایجاد کرده است و نشان می‌دهد جامعه هوش مصنوعی توجه زیادی به امنیت داده‌هایی ندارند که در اختیار شبکه‌های عصبی می‌گذارند. بطور نظری چنین حملاتی را می‌توان بر روی داده‌های دیگری از افراد نظیر داده‌های بایومتری و یا داده‌های پزشکی ترتیب داد. حتی این محققان معتقدند هنرمندان باید از این روش برای بررسی حق مالکیت آثاری که توسط هوش مصنوعی تولید شده‌ است استفاده کنند چون ممکن است در آموزش دادن یک شبکه عصبی تولیدکننده آثار هنری، از آثار دیگران استفاده شده باشد. اسمارت‌فون‌ها و سایر ابزارهای کوچک مدت‌ها است که از هوش مصنوعی استفاده می‌کنند. به دلیل محدویت باتری و حافظه، نیمی از مدل‌های هوش مصنوعی بر روی دستگاه پردازش شده و بقیه آن به منظور کامل شدن محاسبات به ابر فرستاده می‌شوند. بسیاری از محققان بر این عقیده بوده‌اند که این روش پردازش مانع از به خطر افتادن داده‌ها می‌شود اما نتایج پژوهش محققان فرانسوی نشان داده این، باور صحیحی نیست.

شکل۱ - ستون سمت چپ از هر قطعه عکس، چهره‌های جعلی را نشان می‌دهد که توسط شبکه GAN تولید شده‌اند. در کنار هر یک از این تصاویر جعلی، سه تصویر دیگر دیده می‌شود که چهره افراد واقعی است و در داده‌های آموزشی وجود داشته است.

 

آیا شناسایی افراد در شبکه‌های اجتماعی براساس داده‌های ژنتیک‌شان امکان‌پذیر است؟

در سال‌های اخیر برخی مدعی شده‌اند افرادی که نمونه‌های دی‌اِن‌اِی خود را در اختیار سایت‌هایی نظیر 23andMe قرار می‌دهند ممکن است حریم خصوصی خود را به خطر بیندازند. آن‌ها این‌طور مدعی شده‌اند که در دی‌اِن‌اِی اطلاعاتی وجود دارد که مشخص می‌کند ظاهرمان چطور باشد. اگر چنین اطلاعاتی استخراج شود این امکان وجود دارد با کمک آن از روی تصاویر واقعی‌ که از خودمان منتشر کرده‌ایم شناسایی شویم. گروهی از محققان دانشگاه‌های واشنگتن، سنت‌لوییس و وندربیلت به این نتیجه رسیده‌اند که این احتمال بسیار اندک است. آنها برای بررسی این موضوع از الگوریتم‌های یادگیری عمیق استفاده کرده‌اند تا دریابند افراد براساس صفات وراثتی چه ظاهری خواهند داشت. آن‌ها مجموعه داده‌ای متشکل از ژنوم ۱۲۶ نفر و تصاویر متناظر با آن‌ها را تهیه کردند و با استفاده از همان الگوریتم یادگیری عمیق سعی کردند این دو سری داده را به هم مرتبط سازند. بررسی‌ها نشان داد که این سامانه در بسیاری از موارد قادر نبود بین داده‌ها تناظری برقرار کند و هرچه مجموعه داده‌ها مفصل‌تر می‌شد این تناظر هم کمتر بود. یکی از دلایل ناتوانی این الگوریتم در برقراری تناظر، ناتوانی آن در شناسایی رنگ چشم در عکس‌ها به دلیل کیفیت پایین این نواحی بود. آن‌ها به این نتیجه رسیدند که اگر عکس‌ها کیفیت بالاتری داشته باشند امکان یافتن ارتباط به عکس افراد و ژنوم‌شان بیشتر می‌شود.

 

شکل۲ - وب‌سایت 23andMe امکان تجزیه و تحلیل ژنوم افراد را فراهم می‌کند.

در نهایت محققان به این نتیجه رسیدند که دست‌کم با فناوری حال حاضر، احتمال بسیار کمی وجود دارد فردی بر اساس داده‌های ژنتیکش از روی عکسی که منتشر کرده است قابل شناسایی باشد. از سوی دیگر آن‌ها دریافتند ایجاد تغییرات بسیار جزیی در عکس‌ها، سامانه را بطور قابل‌توجهی دچار مشکل می‌کند. محققان این راه را به‌عنوان یکی از روش‌های پیشگیری از سواستفاده‌های احتمالی از داده‌های ژنتیک پیشنهاد کرده‌اند.

 

 

منبع: مجله شبکه

دوره آموزشی مهندسی شبکه