آیا سامانههای مبتنی بر یادگیری عمیق، جعبه سیاه هستند؟
با پیشرفت فناوری، دغدغههای امنیتی کاربران هم پیشرفت کرده است. اگر روزگاری فاش شدن رمز عبور یا به سرقت رفتن کارت حافظه، ما را نگران میکرد اکنون با نگرانیهایی به مراتب پیچیدهتر روبهرو هستیم…
اینکه ممکن است از تصاویر ما در آموزش دادن یک سامانه هوش مصنوعی استفاده شود و یا از روی اطلاعات وراثتی بتوانند ما را در فضای مجازی و حقیقی شناسایی کنند از جمله این نگرانیهای مدرن هستند. در دنیای دوربین این شماره نگاهی به این موارد خواهیم انداخت.
اگر به وبسایت https://thispersondoesnotexist.com/ مراجعه کنید تصویری از چهره یک انسان خواهید دید. در مورد این وبسایت پیش از این سخن گفتهایم. با هر بار بارگذاری صفحه، تصویری جدید نمایش داده میشود. این تصاویر ساخته کامپیوتر هستند و با کمک شبکههای رقابتی مولد یا به اختصار GAN تولید میشوند. در این روش، هوش مصنوعی میآموزد مثالهایی جعلی و واقعگرایانه از دادههایی که براساس آن آموزش دیده است بسازد. نتیجه میشود آنچه که در قالب تصاویر بسیار باورپذیر از چهره انسان در سایت میبینید. اما این تصاویر ساختگی که استفاده از آنها در فیلمها و تبلیغات کامپیوتری هم رونق گرفته است آنچنان که به نظر میرسد یکتا و جعلی نیستند. محققان فرانسوی مدعی شدهاند شماری از چهرههایی که توسط شبکههای GAN تولید میشوند ممکن است مابهازایی در دنیای واقعی داشته باشند. چنانکه احتمال دارد برخی از این تصاویر کاملاً شبیه افرادی باشند که تصاویرشان در قالب دادههای آموزشی به سامانه یادگیری عمیق خورانده شده است بطوریکه ممکن است هویت این افراد را فاش کند. این یکی از جدیدترین نتایجی است که میتوان آنرا در راستای بررسی این ایده دانست که آیا شبکههای عصبی را میتوان جعبههای سیاهی به شمار آورد که از آنچه درونشان اتفاق میافتد اطلاعی در دست نیست؟
این محققان از دانشگاه کان فرانسه نوعی از حمله موسوم به حمله به عضویت (membership attack) را ترتیب دادهاند که با استفاده از آن میتوان فهمید چه دادهای برای آموزش دادن شبکه عصبی مورد استفاده قرار گرفته است. چنین حملاتی ممکن است نارساییهای امنیتی جدی را نمایان سازند.
بهعنوان مثال میتوان فهمید دادههای پزشکی چه کسی در آموزش دادن مدل بکار رفته در یک سامانه هوشمند تشخیص پزشکی استفاده شده است و بدین ترتیب بیماری شخص افشا شود. این گروه ایده خود را گسترش دادهاند. به گونهای که علاوه بر یافتن یک فرد خاص در دادههای آموزشی، این امکان را بررسی کردهاند که آیا میتوان در شبکههای آموزش داده شده به روش GAN تصاویری را یافت که شباهت به فرد داشته باشند؟ آنها دریافتند در میان دادههای آموزشی میتوان عکسهایی از افراد واقعی را یافت که شبیه به عکس جعلی ساخته شده توسط GAN هستند.
نتایج این تحقیق نگرانیهای جدی در زمینه حریم خصوصی ایجاد کرده است و نشان میدهد جامعه هوش مصنوعی توجه زیادی به امنیت دادههایی ندارند که در اختیار شبکههای عصبی میگذارند. به طور نظری چنین حملاتی را میتوان بر روی دادههای دیگری از افراد نظیر دادههای بایو متری و یا دادههای پزشکی ترتیب داد. حتی این محققان معتقدند هنرمندان باید از این روش برای بررسی حق مالکیت آثاری که توسط هوش مصنوعی تولید شده است استفاده کنند چون ممکن است در آموزش دادن یک شبکه عصبی تولیدکننده آثار هنری، از آثار دیگران استفاده شده باشد. اسمارتفونها و سایر ابزارهای کوچک مدتها است که از هوش مصنوعی استفاده میکنند. به دلیل محدودیت باتری و حافظه، نیمی از مدلهای هوش مصنوعی بر روی دستگاه پردازش شده و بقیه آن به منظور کامل شدن محاسبات به ابر فرستاده میشوند. بسیاری از محققان بر این عقیده بودهاند که این روش پردازش مانع از به خطر افتادن دادهها میشود اما نتایج پژوهش محققان فرانسوی نشان داده این، باور صحیحی نیست.
شکل ۱ – ستون سمت چپ از هر قطعه عکس، چهرههای جعلی را نشان میدهد که توسط شبکه GAN تولید شدهاند. در کنار هر یک از این تصاویر جعلی، سه تصویر دیگر دیده میشود که چهره افراد واقعی است و در دادههای آموزشی وجود داشته است.
آیا شناسایی افراد در شبکههای اجتماعی بر اساس دادههای ژنتیکشان امکانپذیر است؟
در سالهای اخیر برخی مدعی شدهاند افرادی که نمونههای دیاِناِی خود را در اختیار سایتهایی نظیر 23andMe قرار میدهند ممکن است حریم خصوصی خود را به خطر بیندازند. آنها اینطور مدعی شدهاند که در دیاِناِی اطلاعاتی وجود دارد که مشخص میکند ظاهرمان چطور باشد. اگر چنین اطلاعاتی استخراج شود این امکان وجود دارد با کمک آن از روی تصاویر واقعی که از خودمان منتشر کردهایم شناسایی شویم. گروهی از محققان دانشگاههای واشنگتن، سنتلوییس و وندر بیلت به این نتیجه رسیدهاند که این احتمال بسیار اندک است. آنها برای بررسی این موضوع از الگوریتمهای یادگیری عمیق استفاده کردهاند تا دریابند افراد بر اساس صفات وراثتی چه ظاهری خواهند داشت. آنها مجموعه دادهای متشکل از ژنوم ۱۲۶ نفر و تصاویر متناظر با آنها را تهیه کردند و با استفاده از همان الگوریتم یادگیری عمیق سعی کردند این دو سری داده را به هم مرتبط سازند. بررسیها نشان داد که این سامانه در بسیاری از موارد قادر نبود بین دادهها تناظری برقرار کند و هرچه مجموعه دادهها مفصلتر میشد این تناظر هم کمتر بود. یکی از دلایل ناتوانی این الگوریتم در برقراری تناظر، ناتوانی آن در شناسایی رنگ چشم در عکسها به دلیل کیفیت پایین این نواحی بود. آنها به این نتیجه رسیدند که اگر عکسها کیفیت بالاتری داشته باشند امکان یافتن ارتباط به عکس افراد و ژنومشان بیشتر میشود.
شکل ۲ – وبسایت 23andMe امکان تجزیه و تحلیل ژنوم افراد را فراهم میکند.
در نهایت محققان به این نتیجه رسیدند که دستکم با فناوری حال حاضر، احتمال بسیار کمی وجود دارد فردی بر اساس دادههای ژنتیکش از روی عکسی که منتشر کرده است قابل شناسایی باشد. از سوی دیگر آنها دریافتند ایجاد تغییرات بسیار جزئی در عکسها، سامانه را به طور قابلتوجهی دچار مشکل میکند. محققان این راه را بهعنوان یکی از روشهای پیشگیری از سوءاستفادههای احتمالی از دادههای ژنتیک پیشنهاد کردهاند.
منبع: مجله شبکه