IPImen ، Firewall ، NGFirewall-UTM، آیپی ایمن، فایروال ایرانی ، فایروال بومی، یوتی ام بومی، یوتی ام ایرانی، فایروال نسل بعدی ایرانی، فایروال نسل بعدی بومی

هشدار اف‌بی‌آی: استفاده از PII دزدیده شده و دیپ فیک برای درخواست مشاغل فناوری از راه دور

اخبار داغ فناوری اطلاعات و امنیت شبکه

takian.ir fbi stolen pii and deepfakes used to apply for remote tech jobs
اداره تحقیقات فدرال (FBI) نسبت به افزایش شکایات مبنی بر استفاده مجرمان سایبری از اطلاعات شخصی و هویت شخصی دزدیده شده آمریکایی‌ها (PII) و دیپ فیک (deepfake)‌هایی برای درخواست موقعیت‌های کاری از راه دور هشدار می‌دهد.

دیپ‌فیک‌ها (محتوای دیجیتالی مانند تصاویر، ویدیو یا صدا) گاهی با استفاده از فناوری‌های هوش مصنوعی (AI) یا یادگیری ماشین (ML) تولید می‌شوند و تشخیص آن از موارد معتبر دشوار است.

چنین محتوای مصنوعی قبلاً برای انتشار اخبار جعلی و ایجاد محتوای مستهجن انتقام جویانه استفاده شده است، اما فقدان محدودیت‌های اخلاقی در مورد استفاده از آن‌ها همیشه منبع بحث و نگرانی بوده است.

اطلاعیه خدمات عمومی که امروز در مرکز شکایات جرایم اینترنتی FBI (IC3) منتشر شد، اضافه می‌کند که دیپ فیک‌هایی که برای درخواست موقعیت در مصاحبه‌های آنلاین استفاده می‌شوند شامل ویدیو‌ها یا تصاویر متقاعدکننده‌ای هستند که تغییر یافته‌اند.

مشاغل از راه دور هدفمند شامل موقعیت‌هایی در زمینه فناوری است که به عوامل مخرب اجازه می‌دهد پس از استخدام به اطلاعات محرمانه شرکت و مشتری دسترسی پیدا کنند.

اف‌بی‌آی گفت: «موقعیت‌های کار از راه دور یا کار از خانه که در این گزارش‌ها شناسایی شده‌اند، شامل فناوری اطلاعات و برنامه‌نویسی رایانه، پایگاه‌داده و کارکرد‌های شغلی مرتبط با نرم‌افزار است».

«به ویژه، برخی از موقعیت‌های گزارش‌شده شامل دسترسی به PII مشتری، داده‌های مالی، پایگاه‌های اطلاعاتی شرکت‌ها و یا اطلاعات اختصاصی است. »

تشخیص دیپ فیک ویدیو آسان‌تر است
در حالی که برخی از ضبط‌های دیپ فیک استفاده شده به اندازه کافی قانع‌کننده و طبیعی هستند، برخی دیگر به دلیل عدم تطابق‌های مختلف همگام‌سازی، عمدتاً جعل صدای متقاضیان، به راحتی قابل شناسایی هستند.

آژانس مجری قانون فدرال ایالات متحده افزود:"شکایات استفاده از جعل صوتی یا به طور بالقوه دیپ فیک صوتی در طول مصاحبه آنلاین متقاضیان احتمالی را گزارش می‌دهند."

"در این مصاحبه‌ها، حرکات صورت و حرکات لب فردی که در مقابل دوربین مصاحبه می‌شود، کاملاً با صدای فردی که صحبت می‌کند هماهنگی ندارد. در برخی مواقع، اعمالی مانند سرفه، عطسه یا سایر اعمال شنیداری با آنچه که می‌گوید، در مقابل گیزی که به صورت بصری ارائه شده است، همسو نیست."

برخی از قربانیانی که به FBI گزارش دادند که از PII سرقت شده آن‌ها برای درخواست شغل از راه دور استفاده شده است، همچنین گفتند که اطلاعات بررسی سوابق قبل از استخدام در پروفایل سایر متقاضیان مورد استفاده قرار گرفته است.

اف‌بی‌آی از قربانیان (از جمله شرکت‌هایی که در طول فرآیند مصاحبه دیپ‌فک دریافت کرده‌اند) خواست این فعالیت را از طریق پلتفرم IC۳ گزارش کنند و اطلاعاتی را که به شناسایی کلاهبرداران پشت این تلاش‌ها کمک می‌کند (مانند آدرس‌های IP یا‌ایمیل، شماره تلفن یا نام‌ها) اعلام کنند.

در مارس ۲۰۲۱، FBI همچنین در یک Private Industry Notification (PIN) هشدار داد که دیپ‌فیک‌ها (از جمله ویدیو، تصاویر، متن یا صدا با کیفیت بالا، یا آوا) پیچیده‌تر می‌شوند و احتمالاً به طور گسترده توسط دشمنان خارجی در"عملیات نفوذ سایبری و خارجی" مورد استفاده قرار خواهند گرفت.

یوروپل همچنین در‌آوریل ۲۰۲۲ هشدار داد که دیپ‌فیک‌ها به زودی می‌تواند به ابزاری تبدیل شود که سازمان‌های جرایم سایبری به طور منظم از آن برای کلاهبرداری از مدیران عامل، دستکاری شواهد و ایجاد محتوای مستهجن بدون رضایت استفاده می‌کنند.

برچسب ها: PIN, Private Industry Notification, از راه دور, دیپ فیک, deepfake, اداره تحقیقات فدرال, IC3, Artificial Intelligence, Personally Identifiable Information, AI, Remote, یادگیری ماشین, Machine Learning, PII, هوش مصنوعی, FBI, Cyber Security, حملات سایبری, امنیت سایبری, Cyber Attacks, حمله سایبری

چاپ ایمیل