سایت خبری
famaserver
  • خانه
  • اخبار ورزشی
  • اخبار استانها
  • اجتماعی
  • فرهنگ و هنر
  • اقتصادی
  • سیاسی
  • بین الملل
سایت خبری
برترین عناوین خبری
  • خرید بیمه: سنتی یا آنلاین؟ کدامیک تجربه بهتری برای مشتریان ایجاد می‌کند؟

سرتیتر خبرها

موضع جبلی درباره اعلام ممنوعیت علیه پلتفرم‌های اینترنتی/ انحصارطلب نیستیم اما پخش زنده قرعه‌کشی جام جها نی انحصارا در اختیار صداوسیما است!

موضع جبلی درباره اعلام ممنوعیت علیه پلتفرم‌های اینترنتی/ انحصارطلب نیستیم اما پخش زنده قرعه‌کشی جام جها نی انحصارا در اختیار صداوسیما است!

13 ساعت پیش
تشکر خانواده رضا امیرخانی از پزشکیان و صالحی/ آن‌چه از لحظه «سقوط» تا «امیدواری به نتیجه ام‌آرآی» گذشت/ تازه‌ترین استوری بیمارستان

تشکر خانواده رضا امیرخانی از پزشکیان و صالحی/ آن‌چه از لحظه «سقوط» تا «امیدواری به نتیجه ام‌آرآی» گذشت/ تازه‌ترین استوری بیمارستان

13 ساعت پیش
«قسمِ» محسن تنابنده در موزه هنرهای معاصر

«قسمِ» محسن تنابنده در موزه هنرهای معاصر

13 ساعت پیش
دفاع صریح علیرضا داودنژاد از پارسا پیروزفر: «آزار تو، آزار همه سینماست»

دفاع صریح علیرضا داودنژاد از پارسا پیروزفر: «آزار تو، آزار همه سینماست»

13 ساعت پیش
علی‌اکبر مرادی در سردشت؛ قلب تپنده بیت و حیران

علی‌اکبر مرادی در سردشت؛ قلب تپنده بیت و حیران

13 ساعت پیش
گردهمایی بزرگ ۳۹۰ نویسنده در تهران؛ جشن ادبی سال برگزار شد

گردهمایی بزرگ ۳۹۰ نویسنده در تهران؛ جشن ادبی سال برگزار شد

13 ساعت پیش
کارگردان مشهور علیه بازیگر مشهور: نقش تو بی‌اثر بود!

کارگردان مشهور علیه بازیگر مشهور: نقش تو بی‌اثر بود!

13 ساعت پیش
چهار جهان، چهار روایت؛ از اعتیاد به گیم تا کودکان قربانی

چهار جهان، چهار روایت؛ از اعتیاد به گیم تا کودکان قربانی

13 ساعت پیش
چهار جهان، چهار روایت؛ از اعتیاد به گیم تا کودکان قربانی

چهار جهان، چهار روایت؛ از اعتیاد به گیم تا کودکان قربانی

13 ساعت پیش
پژمان بازغی و علی مصفا در یک روایت واقعی

پژمان بازغی و علی مصفا در یک روایت واقعی

13 ساعت پیش

Home » مراقب باشید کرم‌های هوش مصنوعی، اطلاعات شما را ندزدند!

مراقب باشید کرم‌های هوش مصنوعی، اطلاعات شما را ندزدند!

زمان انتشار: 21 آوریل 2024 ساعت 19:10

دسته بندی: علمی و فناوری

شناسه خبر: 785827

زمان مطالعه: 16 دقیقه

مراقب باشید کرم‌های هوش مصنوعی، اطلاعات شما را ندزدند!

مراقب باشید کرم‌های هوش مصنوعی، اطلاعات شما را ندزدند!

به گزارش recive و به نقل از زومیت، دنیای امروز با حضور فناوری‌های مبتنی بر هوش مصنوعی مانند چت‌جی‌پی‌تی یا جمنای گوگل، رنگ و بوی دیگری به خود گرفته و انجام بسیاری از کارها از تحقیق گرفته تا انجام تکالیف مدرسه و کدنویسی آسان‌تر شده است؛ اما این همهٔ ماجرا نیست و تعدادی از محققان دنیای فناوری معتقدند با آزادی عمل سیستم‌های هوش مصنوعی، امنیت سایبری دچار چالش و احتمالاً دنیای وب با تهدیدهای جدیدی مواجه می‌شود.

گروهی از محققان برای نشان دادن باگ امنیتی سیستم‌های هوش مصنوعی، آسیب‌پذیری جدیدی به نام کرم‌های هوش مصنوعی (AI Worms) را توسعه داده‌اند که به‌راحتی می‌توانند بین سیستم‌های مختلف پخش شوند، اطلاعات را به سرقت ببرند یا حتی بدافزارهایی را روی سیستم کاربران نصب کنند. این جدیدترین تهدید امنیت سایبری محسوب می‌شود که تاکنون شبیه به آن وجود نداشته است و می‌تواند به‌راحتی امنیت ما را در اینترنت به خطر بیندازد.

هوش مصنوعی هر روز ترسناک‌تر از دیروز

در کنار قابلیت‌های شگفت‌انگیز چت‌بات‌ها و مولدهای تصویر و ویدیو مثل میدجرنی و Sora که زندگی بسیاری از ما را ساده‌تر کرده‌اند، نگرانی‌ها در مورد تهدیدات هوش مصنوعی هر روز بیشتر می‌شود و زنگ خطر این فناوری در بسیاری از جنبه‌های زندگی ما به صدا درآمده؛ حالا هم امنیت سایبری کاربران فناوری‌های هوش مصنوعی نشانه گرفته شده است. بن ناسی، محقق Cornell Tech به همراه استاو کوهن و روی بیتون با استفاده از هوش مصنوعی، کرمی را با الهام گرفتن از کرم کامپیوتری موریس در سال ۱۹۸۸ توسعه داده‌اند که موریس ۲ (Morris II) نام دارد.

این محققان در گفت‌وگویی با وایرد نشان دادند که مووریس ۲ چگونه می‌تواند به دستیار ایمیل هوش مصنوعی مولد حمله کند، اطلاعات را به سرقت ببرد و ایمیل‌های اسپم را با دور زدن تدابیر امنیتی هوش مصنوعی چت جی‌پی‌تی یا گوگل جمنای، به کاربران ارسال کند.

البته این تحقیق فعلاً در محیط آزمایشگاهی انجام شده و تأثیرات آن به‌صورت عمومی روی دستیارهای هوش مصنوعی بررسی نشده است. اگرچه هنوز کرم‌های هوش مصنوعی مولد در دنیای واقعی مشاهده نشده‌اند، محققان بر این باورند که آن‌ها خطر امنیتی فاجعه‌باری هستند که تا دیر نشده استارت‌آپ‌ها، توسعه‌دهندگان و شرکت‌های فناوری باید راه‌های مقابله با آن را یاد بگیرند.

کرم‌های هوش مصنوعی چگونه کار می‌کنند؟

بیشتر سیستم‌های هوش مصنوعی مولد براساس دستورالعمل‌های متنی می‌توانند به سؤالات پاسخ دهند یا تصاویر مختلفی را بسازند. با این حال، این دستورات متنی می‌توانند علیه خود چت‌بات‌ها مورد استفاده قرار گیرند و به‌کمک یک سری دستورعمل‌های محرمانه و با نادیده‌گرفتن سیستم قوانین ایمنی خود، محتوای خشونت‌آمیز یا نفرت‌انگیز منتشر کند. به عنوان مثال، ممکن است هکری متنی را در صفحهٔ از وب پنهان کند که به مدل زبانی دستور می‌دهد در نقش کلاه‌بردار ظاهر شده و اطلاعات بانکی شما را درخواست کند.

محققان برای ساخت کرم هوش مصنوعی مولد، از دستورالعملی به نام «پرامپت خودتکرارشونده خصمانه» (adversarial self-replicating prompt) استفاده کردند. به گفتهٔ آن‌ها، این دستورالعمل باعث می‌شود مدل هوش مصنوعی مولد در پاسخ به متن دریافتی، دستورالعمل دیگری را تولید کند. روش یادشده از این نظر شباهت زیادی به حملات رایج «تزریق به پایگاه داده» (SQL Injection) و «سرریز بافر» (Buffer Overflow) دارد که در آن، مهاجم یک سری عبارت‌های اضافی را به درخواست کاربر اضافه می‌کند تا داده‌های ورودی را دستکاری کند.

محققان برای نشان دادن نحوهٔ عملکرد کرم هوش مصنوعی، سیستم ایمیلی‌ای ایجاد کردند که می‌تواند با استفاده از هوش مصنوعی مولد، پیام‌هایی را ارسال و دریافت کند. آن‌ها این سیستم را به چت‌جی‌پی‌تی، جمنای و مدل زبانی متن‌باز LLaVA متصل کردند تا بتوانند از فناوری‌های مبتنی بر هوش مصنوعی سوءاستفاده کنند. محققان برای این کار از دو روش استفاده کردند که در ادامه آن‌ها را توضیح می‌دهیم.

روش اول: استفاده از دستورالعمل خودتکرارشونده متنی

محققان در نقش مهاجم، ایمیلی حاوی «دستورالعمل متنی خودتکرارشونده خصمانه» نوشتند. این دستورالعمل، پایگاه دادهٔ دستیار ایمیل را با استفاده از تولید افزایشی بازیابی (RAG) که روشی برای مدل‌های زبانی بزرگ برای دریافت اطلاعات اضافی خارج از سیستم خود است، آلوده می‌کند.

وقتی ایمیل در پاسخ به درخواست کاربر توسط RAG بازیابی می‌شود و بعد برای تولید پاسخ به GPT-4 یا جمنای پرو ارسال می‌شود، سرویس هوش مصنوعی مولد را «جیلبریک» می‌کند و داده‌ها را از ایمیل‌ها می‌دزدد. پاسخ تولیدشده که حالا حاوی اطلاعات حساس کاربر است، بعداً میزبان‌های جدید را هنگام پاسخ به ایمیل فرستاده‌شده به کاربر جدید آلوده می‌کند و بعد در دیتابیس کاربر ذخیره می‌شود.

روش دوم: جاسازی دستورالعمل خودتکرارشونده در فایل تصویری

در روش دوم، تصویری حاوی دستورالعمل مخرب، دستیار ایمیل را وادار کرد این پیام را به کاربران دیگر بفرستد. با رمزگذاری دستورالعمل خودتکرارشونده در فایل تصویری، هر نوع تصویری که شامل هرزنامه، مطالب آسیب‌زننده یا حتی پروپاگاندا باشد، پس از ارسال ایمیل اولیه می‌تواند به کاربرهای جدید فرستاده شود.

در ویدیویی که برای نمایش این تحقیق ساخته شده بود، سیستم ایمیل را می‌توان دید که یک پیام آلوده را چندین بار فوروارد می‌کند. محققان همچنین می‌گویند این امکان را دارند که داده‌ها را از ایمیل‌ها استخراج کنند. به گفتهٔ ناسی، «داده‌های استخراج‌شده می‌توانند شامل نام، شماره تلفن، شماره کارت اعتباری، کد ملی و هر چیز محرمانهٔ دیگر باشد.»

اگرچه این تحقیق موفق شد برخی از تدابیر امنیتیِ چت‌جی‌پی‌تی و جمنای را دور بزند، پژوهشگران می‌گویند هدف اصلی این کار هشدار در مورد «طراحی ضعیف معماری» در اکوسیستم فناوری‌های مبتنی بر هوش مصنوعی بوده است. با این حال، آن‌ها یافته‌های خود را به OpenAI و گوگل، شرکت‌های سازندهٔ دو چت‌بات یادشده، گزارش داده‌اند.

سخنگوی OpenAI اعلام کرده است که به نظر می‌رسد راهی برای مقابله با سوءاستفاده از این آسیب‌پذیری‌ها پیدا کرده‌اند. به گفتهٔ او، این شرکت در حال تلاش برای «مقاوم‌تر کردن» سیستم‌های خود در برابر آسیب‌پذیری‌ها است و توسعه‌دهندگان باید از روش‌هایی استفاده کنند که مطمئن شوند با ورودی‌های مخرب کار نمی‌کنند. گوگل تاکنون در مورد یافته‌های این تحقیق حرفی نزده، اما به نظر می‌رسد برای گفت‌وگو با پژوهشگران اظهار آمادگی کرده است.

محققان نگران کرم‌های هوش مصنوعی

هرچند عملکرد مخرب این کرم هوش مصنوعی در محیطی کنترل‌شده به نمایش گذاشته شد، برخی از محققان معتقدند خطر کرم‌های هوش مصنوعی مولد در آینده، موضوعی است که باید توسعه‌دهندگان از همین حالا آن را جدی بگیرند. این موضوع به‌خصوص زمانی اهمیت پیدا می‌کند که به برنامه‌های هوش مصنوعی اجازه داده شود به‌جای کاربران اقداماتی را انجام دهند؛ مثلاً ایمیل بفرستند یا قرار ملاقات رزرو کنند.

در تحقیقی دیگر که اخیراً انجام شده است، محققان امنیتی سنگاپور و چین نشان دادند که چطور توانستند در کمتر از پنج دقیقه، می‌توانند یک میلیون سیستم مبتنی بر مدل‌های زبانی بزرگ را در کمتر از پنج دقیقه جیلبریک کنترل کنند.

سحر عبدالنبی، محقق مرکز امنیت اطلاعات CISPA Helmholtz در آلمان که پیشتر دربارهٔ خطر ظهور کرم‌های هوش مصنوعی هشدار داده بود، می‌گوید: وقتی مدل‌های هوش مصنوعی داده‌ها را از منابع خارجی دریافت می‌کنند یا چت‌بات‌های مختلف هوش مصنوعی به‌صورت مستقل کار می‌کنند، احتمال گسترش کرم‌های هوش مصنوعی نیز وجود دارد. عبدالنبی می‌گوید ایدهٔ گسترش حملات تزریق بسیار محتمل است و همه‌چیز به این بستگی دارد که کاربرد مدل‌ها چه باشد. به گفتهٔ او، اگرچه این نوع حمله درحال‌حاضر فقط در محیط آزمایشگاهی شبیه‌سازی شده است، طولی نخواهد کشید تا به دنیای واقعی راه پیدا کند.

جمع‌بندی: از چه زمانی باید نگران کرم‌های هوش مصنوعی باشیم؟

محققان در مقالهٔ خود پیش‌بینی می‌کنند که احتمالاً طی دو تا سه سال آینده، شاهد ظهور کرم‌های هوش مصنوعی مولد در دنیای واقعی خواهیم بود. با وجود این خطر، سازندگان سیستم‌های هوش مصنوعی مولد می‌توانند با استفاده از روش‌های امنیتی سنتی از این کرم‌ها دفاع کنند.

آدام سووندا، محقق تهدیدات سایبری در شرکت امنیت هوش مصنوعی Robust Intelligence در این باره می‌گوید: بخش زیادی از این مشکلات را می‌توان با طراحی و نظارت امنیتی مناسب بر برنامه‌های کاربردی حل کرد. در هیچ کجای برنامهٔ خود نباید به‌طور کامل به خروجی مدل‌های زبان بزرگ اعتماد کنید.

سووندا همچنین بر اهمیت دخیل بودن انسان در این فرایند تأکید می‌کند و می‌گوید اطمینان حاصل کنید که مدل‌های مختلف هوش مصنوعی بدون تأییدیه نمی‌توانند اقداماتی انجام دهند؛ مثلاً نباید به مدل هوش مصنوعی‌ای که ایمیل شما را می‌خواند، اجازه داد ایمیل خودکار ارسال کند. باید یک مرز مشخص در این زمینه وجود داشته باشد. به گفتهٔ او، اگر یک دستورالعمل خاص هزاران بار در سیستم‌های هوش مصنوعی تکرار شود، «سروصدا» ایجاد می‌کند و ممکن است شناسایی‌اش آسان‌تر شود.

در نهایت، ناسی می‌گوید سازندگان دستیارهای هوش مصنوعی باید از چنین خطراتی آگاه باشند. او می‌گوید: «این موضوعی است که باید آن را درک کنند و ببینند آیا برنامه‌های شرکت در توسعهٔ اکوسیستم و کاربردهای هوش مصنوعی از چنین رویکردهایی پیروی می‌کنند یا خیر.»

۵۴۵۴

حتما بخوانید : رقیب چینی تویوتا لندکروزر با قدرت ۶۷۰ اسب بخاری معرفی شد /عکس

مجله خبری recive.ir

برچسب ها
هوش مصنوعی بدافزار امنیت اطلاعات حملات سایبری
اشتراک گذاری

اخبار مرتبط

  • نسخه آمریکایی پهپاد ایرانی وارد میدان شد
    نسخه آمریکایی پهپاد ایرانی وارد میدان شد
    Notice: Undefined variable: first_id in /var/www/recive.ir/wp-content/themes/news-wp/single.php on line 64
    14 ساعت پیش
  • طولانی‌ترین و عمیق‌ترین تونل زیرآبی جهان کجاست؟
    طولانی‌ترین و عمیق‌ترین تونل زیرآبی جهان کجاست؟
    Notice: Undefined variable: first_id in /var/www/recive.ir/wp-content/themes/news-wp/single.php on line 64
    14 ساعت پیش
  • پیش‌بینی جالب ایلان ماسک درباره رئیس‌جمهور بعدی آمریکا
    پیش‌بینی جالب ایلان ماسک درباره رئیس‌جمهور بعدی آمریکا
    Notice: Undefined variable: first_id in /var/www/recive.ir/wp-content/themes/news-wp/single.php on line 64
    14 ساعت پیش
  • یک کشف عجیب در عربستان / اینجا زیستگاهی باستانی بوده است
    یک کشف عجیب در عربستان / اینجا زیستگاهی باستانی بوده است
    Notice: Undefined variable: first_id in /var/www/recive.ir/wp-content/themes/news-wp/single.php on line 64
    14 ساعت پیش

دیدگاه ها

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دسته بندی موضوعات

  • آذربایجان شرقی 468
  • آذربایجان غربی 378
  • اجتماعی 10208
  • اخبار استانها 2901
  • اخبار بورس 604
  • اخبار تکنولوژی 1547
  • اخبار روز 5
  • اخبار ورزشی 25268
  • اردبیل 1321
  • اصفهان 1652
  • اقتصادی 10500
  • البرز 476
  • ایلام 503
  • بوشهر 6
  • بین الملل 10513
  • تبلیغات 34
  • تهران 965
  • چند رسانه ای 0
  • چهارمحال و بختیاری 1509
  • خراسان جنوبی 47
  • خراسان رضوی 1743
  • خراسان شمالی 49
  • خوزستان 2107
  • دسته‌بندی نشده 1
  • زنجان 770
  • سبک زندگی 135
  • سلامت 1108
  • سمنان 3501
  • سیاسی 12100
  • سیستان و بلوچستان 68
  • عکس 24
  • علمی و فناوری 6269
  • فارس 1105
  • فرهنگ و هنر 11231
  • قزوین 1556
  • قم 403
  • کاریکاتور 137
  • کردستان 1509
  • کرمان 2004
  • کرمانشاه 1488
  • کهگیلویه و بویراحمد 760
  • گلستان 548
  • گیلان 1551
  • لرستان 214
  • مازندران 314
  • مرکزی 36
  • موبایل 404
  • میزبانی و هاستینگ 28
  • هرمزگان 976
  • همدان 1495
  • یزد 695

جدیدترین مقالات

  • قاتل جوان نهاوندی در سمنان دستگیر شد
    قاتل جوان نهاوندی در سمنان دستگیر شد 4 ساعت پیش
  • بسیج باید تکیه‌گاه ۹۰ میلیون ایرانی باشد
    بسیج باید تکیه‌گاه ۹۰ میلیون ایرانی باشد 4 ساعت پیش
  • تفکر بسیجی، راهبرد موفق در جنگ اقتصادی و فرهنگی است
    تفکر بسیجی، راهبرد موفق در جنگ اقتصادی و فرهنگی است 4 ساعت پیش
  • خواب‌آلودگی راننده اتوبوس و تصادف با کامیون، ۱۲ نفر را راهی بیمارستان کرد
    خواب‌آلودگی راننده اتوبوس و تصادف با کامیون، ۱۲ نفر را راهی بیمارستان کرد 4 ساعت پیش
  • دستگیری اعضای باند سرقت سیم و کابل برق و کشف ۱۰۰ فقره سرقت از آنها
    دستگیری اعضای باند سرقت سیم و کابل برق و کشف ۱۰۰ فقره سرقت از آنها 4 ساعت پیش

لینکهای پیشنهادی

سرور مجازی |  هاست ویندوز | هاست لاراول | دانلود رایگان نرم افزار

میزبانی در هاست لینوکس فاماسرور