سرزمین سئو مقالات سایت خطرات هوش مصنوعی چه می تواند باشد | شنبه هفتگی

خطرات هوش مصنوعی چه می تواند باشد | شنبه هفتگی

خطرات هوش مصنوعی چه می تواند باشد |  شنبه هفتگی post thumbnail image


هوش مصنوعی همه جا هست. هزاران برنامه جدید هوش مصنوعی هر روز راه اندازی می شوند، و یک جریان دائمی از پیام ها وجود دارد که به شما یادآوری می کند که اگر سوار قطار هوش مصنوعی نشوید، عقب خواهید ماند. اما اجازه ندهید فشار دنبال کردن قطار هوش مصنوعی باعث شود که خطرات هوش مصنوعی و خطرات واقعی امنیت سایبری را نادیده بگیرید.

ما هوش مصنوعی را در مرورگرها، صندوق های ایمیل و سیستم های مدیریت اسناد خود تعبیه می کنیم. ما این اختیار را به آن می دهیم که به عنوان دستیار مجازی از طرف ما عمل کند. ما اطلاعات شخصی و شرکتی خود را با او به اشتراک می گذاریم. همه اینها خطراتی را برای هوش مصنوعی و خطرات جدیدی برای امنیت سایبری ایجاد می کند و خطر بازی های هک سنتی را افزایش می دهد.

خطرات جدید هوش مصنوعی مولد

ابتدا، اجازه دهید پنج خطر جدید امنیت سایبری مرتبط با استفاده از ابزارهای مولد هوش مصنوعی را بررسی کنیم.

  1. روند توسعه بد

سرعتی که شرکت ها می توانند برنامه های کاربردی هوش مصنوعی را به کار گیرند، در دنیای توسعه نرم افزار بی سابقه است. توسعه نرم افزار مرسوم و کنترل های مدیریت چرخه عمر ممکن است همیشه وجود نداشته باشد.

به گفته آدریان ولنیک، بنیانگذار aigear.io، “تبدیل کردن یک برنامه هوش مصنوعی به عنوان یک محصول یا خدمات واقعی بسیار آسان است، در حالی که در واقعیت، با نظارت اندک یا بدون نگرانی یا نگرانی برای حفظ حریم خصوصی، امنیت یا حتی ناشناس بودن، می توان به راحتی اطلاعات کاربر را جمع آوری کرد.”

گرگ هچر، بنیانگذار White Knight Labs، یک شرکت مشاوره امنیت سایبری، موافق است: «هوش مصنوعی هوش مصنوعی وجود دارد. هزاران پیام در توییتر و لینکدین وجود دارد که برنامه‌های هوش مصنوعی جدیدی را ارائه می‌کنند که شخصی شب قبل نوشته است. شما هم باید از آنها استفاده کنید وگرنه جا خواهید ماند. اما واقعا اتفاق خاصی افتاد؟ این برنامه‌ها فقط HTML و جاوا اسکریپت هستند که برای قسمت جلویی نوشته شده‌اند و قسمت پشتی آن فقط چت GPT است.

  1. افزایش خطر نقض داده ها و سرقت هویت

وقتی اطلاعات شخصی یا شرکتی خود را با هر برنامه نرم افزاری به اشتراک می گذاریم، به این معنی است که به آن برنامه به اندازه کافی اعتماد داریم تا از خود در برابر حملات سایبری محافظت کنیم. با این حال، یکی از خطرات هوش مصنوعی و میزان دخالت آن این است که می توانیم ناخواسته بیش از آنچه باید به اشتراک بگذاریم.

رایان فابر، بنیانگذار و مدیر عامل Copymatic، هشدار می دهد: «برنامه های هوش مصنوعی به داده های کاربران ما نگاه می کنند تا اطلاعات مهمی را برای بهبود تجربه کاربر به دست آورند. فقدان رویه‌های مناسب برای جمع‌آوری، استفاده و از بین بردن داده‌ها نگرانی‌هایی را در مورد خطرات هوش مصنوعی ایجاد می‌کند.»

  1. امنیت ضعیف در خود برنامه هوش مصنوعی

افزودن هر برنامه جدید به شبکه، آسیب‌پذیری‌های جدیدی ایجاد می‌کند که می‌توان از آنها برای دسترسی به مناطق دیگر در شبکه‌تان سوء استفاده کرد. برنامه های هوش مصنوعی یک خطر منحصر به فرد دارند زیرا حاوی الگوریتم های پیچیده ای هستند که پیدا کردن حفره های امنیتی را برای توسعه دهندگان دشوار می کند.

شان اوبراین، موسس آزمایشگاه حریم خصوصی ییل و استاد دانشکده حقوق ییل، می گوید: «هوش مصنوعی هنوز به اندازه کافی پیچیده نیست تا تفاوت های ظریف توسعه نرم افزار را درک کند، که کد آن را آسیب پذیر می کند. یک مطالعه ارزیابی امنیت کد که توسط GitHub Copilot انجام شد نشان داد که تقریباً چهل درصد از بهترین پیشنهادات هوش مصنوعی و همچنین چهل درصد از همه ارائه‌های هوش مصنوعی منجر به آسیب‌پذیری کد می‌شوند. محققان همچنین دریافتند که تغییرات کوچک و غیر معنایی مانند نظرات می تواند بر ایمنی کد تأثیر بگذارد.

O’Brien نمونه هایی از چگونگی بروز خطرات هوش مصنوعی به اشتراک گذاشت:

  • اگر بتوان مدل‌های هوش مصنوعی را فریب داد تا ورودی‌های خطرناک را به‌عنوان ایمن طبقه‌بندی کنند، برنامه‌ای که با این هوش مصنوعی توسعه‌یافته است می‌تواند بدافزار را اجرا کند و حتی کنترل‌های امنیتی را دور بزند تا به بدافزار امتیاز بیشتری بدهد.
  • مدل‌های هوش مصنوعی که فاقد نظارت انسانی هستند می‌توانند در برابر مسمومیت داده‌ها آسیب‌پذیر باشند. اگر از یک ربات چت مبتنی بر هوش مصنوعی درباره منوی یک رستوران محلی بپرسیم، یا از او بخواهیم مرورگری را دانلود کند که از حریم خصوصی محافظت می کند، یا بپرسیم که امن ترین VPN برای استفاده کدام است، کاربر ممکن است در عوض به وب سایت هایی هدایت شود که حاوی باج افزار هستند.
  1. نشتی

    داده هایی که اطلاعات محرمانه شرکت را فاش می کند

اگر مدتی است که با ابزارهای هوش مصنوعی کار می‌کنید، احتمالاً نقش نوشتن یک اعلان خوب را در گرفتن نتایج خوب یاد گرفته‌اید. برای دریافت بهترین پاسخ، چت ربات هوش مصنوعی را با اطلاعات اولیه و زمینه ارائه می دهید.

خوب، شما ممکن است اطلاعات خصوصی یا محرمانه را با یک ربات چت هوش مصنوعی به اشتراک بگذارید – و این خوب نیست. تحقیقات انجام شده توسط Cyberhaven، یک شرکت امنیت داده، نشان داد که:

  • یازده درصد از داده هایی که کارمندان در چت JPT قرار می دهند محرمانه است.
  • چهار درصد از کارمندان حداقل یک بار داده های حساس را در آن قرار داده اند.

افسران مالکیت معنوی اطلاعات حساس استراتژیک و داده های مشتری را به اشتراک می گذارند.

دنیس بیکر، مدیر عامل SignPost Six، یک شرکت مشاوره و آموزش ریسک داخلی، ادعا می کند:

نگران‌کننده‌ترین خطرات هوش مصنوعی برای سازمان‌ها، حریم خصوصی داده‌ها و قرار گرفتن در معرض مالکیت معنوی است. کارمندان می توانند داده های حساس را با ابزارهای مبتنی بر هوش مصنوعی مانند GPT Chat و Bard به اشتراک بگذارند. اسرار تجاری بالقوه اطلاعات طبقه بندی شده و داده های مشتری ارائه شده در این ابزار را در نظر بگیرید. ارائه دهندگان خدمات ذخیره سازی می توانند به این داده ها دسترسی داشته باشند یا از آنها سوء استفاده کنند.”

  1. استفاده مخرب از دیپ فیک

تشخیص صدا و چهره بیشتر به عنوان یک معیار امنیتی کنترل دسترسی استفاده می شود. بر اساس بسیاری از گزارش ها، هوش مصنوعی فرصتی برای بازیگران بد است تا جعلی های عمیقی ایجاد کنند که امنیت را دور می زند.

Leave a Reply

مطالب مرتبط

کشف داروهای جدید با کمک هوش مصنوعی پیشرفته شرکت انویدیاکشف داروهای جدید با کمک هوش مصنوعی پیشرفته شرکت انویدیا

شرکت انویدیا، غول تراشه‌سازی که زمانی فقط قبرای طراحی کارت‌های گرافیکی بازی شناخته می‌شد، اکنون یک بازیگر کلیدی در حوزه مراقبت‌های بهداشتی و پزشکی با استفاده از فناوری هوش مصنوعی