از گفتگو با هوش مصنوعی GPT محافظت کنید!
هوش مصنوعی و یادگیری عمیق به طور همزمان با پیشرفت فناوری، به محبوبیت بیشتری دست یافتهاند. یکی از این فناوریها GPT یا Generative Pre-trained Transformer است. GPT یک مدل زبانی است که توسط شرکت OpenAI توسعه یافته و استفاده میشود. این مدل میتواند به طور خودکار متون و متنوعه ایجاد کند که از هوش مصنعی استفاده میکند. این امر به آن امکان میدهد تا این مدل به گونهای بررسی و استفاده شود که به زبان انسانی پاسخ دهد.
اما با این حال، باید مراقب چیزهایی که به هوش مصنعی چت GPT میگویید باشید. چرا که الگوریتمهای این چتباتها میتوانند تحت تأثیر قرار گیرند و اطلاعات مضر یا غیر مستند را منتقل کنند. از این رو باید هوشمندانه و با دقت از این خدمات استفاده کرد و در ارتباط با چتباتها برخورد کرد. همچنین اگر از این تکنولوژی در کسبوکار خود استفاده میکنید، باید مدیریت دقیق بر آن داشته باشید و از امنیت مناسب برخوردار باشید. در مجموع، در ارتباط با هوش مصنوعی GPT و چتباتها، باید همیشه از مراقبت و احتیاط بهره برد.
۱۳ بهمن ۱۴۰۲ ساعت ۰۹:۴۱
طبق توصیه کارشناسان، بهتر است هنگام استفاده از چت GPT که یکی از پراستفادهترین ابزار کاربران اینترنت است، مراقب اطلاعاتی که میدهیم باشیم.
چت GPT، یکی از چتباتهای هوش مصنوعی است که توسط OpenAI، طراحی و توسعه داده شده است. این چت بات بهدلیل راحتی استفاده و ارائه ابزارهای مختلفی مانند ترجمه و خلاصهسازی متن، در میان کاربران اینترنت طرفداران زیادی دارد. کمپانی سازنده این چت بات میگوید که در طراحی این پلتفرم، تمام قوانین حریم خصوصی رعایت شده است و کاربران میتوانند با اطمینان خاطر از آن استفاده کنند. اما کارشناسان، توصیه دیگری دارند و از ریسک سوءاستفاده از اطلاعات ما در هنگام استفاده از این چتبات خبر میدهند. در ادامه به بررسی این ادعای کارشناسان و توصیههای مهم دیگر میپردازیم.
چت GPT شما را در معرض خطر قرار میدهد
مدتی است که OpenAI از استور GPT خود رونمایی کرده است. کاربرد این استور برای کاربران اینترنت در این است که میتوانند چت بات دلخواه خود را بهوسیله چت جی پی تی طراحی کنند. چت بات ساخته شده نیز بر پایه همان چت GPT خواهد بود؛ اما تفاوت در این است که این چتباتها میتوانند به ابزارهای مختلف حرفهای دیگری نیز مجهز شوند که برای کاربران حرفهای، کارآمد خواهد بود.
تحقیقات نشان میدهند که GPT های ساخته شده در شرایطی میتوانند الگوریتمهای برنامهنویسی و نحوه ساخت خود را فاش کنند. این چتباتهای قابل شخصیسازی، توانایی حفاظت کامل از اطلاعات کاربران خود را ندارند و طبق موارد دیده شده، با پرسیدن برخی سوالات، دادههای مربوط به نحوه ساخت خود از جمله منبع مورد استفاده را فاش کردهاند.
بهگفته الکس پولیاکوف، مدیرعامل Adversa AI (یک شرکت متخصص امنیت شبکه)، بسیاری از افرادی که هماکنون در حال ساخت چتبات هستند، کاربران معمولی اینترنت بهشمار میروند که بنا به اعتمادشان به OpenAI، واقعا از امنیت کم اطلاعاتشان آگاه نیستند. سم آلتمن، مدیرعامل OpenAI با این گفتهها مخالف است و در مصاحبه اخیر نیز به چشمانداز شرکت خود برای آینده فناوری که حول محور GPT ها میچرخد، اشاره کرده است و از همه کاربران اینترنت نیز خواسته که چت بات خود را طراحی کنند. اما اخیرا کاربران اینترنت با شنیدن اخبار مربوط به آسیبپذیریهای امنیتی این چتباتها، از ساخت و طراحی این GPT ها خودداری میکنند.
آسیبپذیری امنیتی
آسیبپذیریهای امنیتی که مطرح میشوند، مربوط به اختلالی بهنام نشت سریع (prompt leaking) هستند که در آن کاربران دیگر یک چتبات میتوانند با پرسیدن سوالات اساسی و خاص، نحوه ساخت چت بات را آشکار کنند. لو رفتن نحوه ساخت یک چت بات، یکی از علل اصلی ممانعت کاربران از ساخت GPT شخصی است که در صورت ادامه این روند، قطعا ضرر مالی سنگینی در انتظار OpenAI خواهد بود.
در ادامه به معرفی دلایلی خواهیم پرداخت که نشان میدهند، ساخت چت GPT شخصی، ارزش خطر آن را ندارد.
قابلیت کپی کردن چت GPT؛ مانع کسب درآمد از چت بات هوش مصنوعی
اگر فکر میکنید که میتوانید با اندکی دانش برنامهنویسی، چت بات بسیار کارآمد و مفیدی را برای صنایع مختلف بسازید و به فکر کسب درآمد هستید، باید بگوییم که سخت در اشتباهید. هکرها در کمین چنین افرادی هستند و پس از آن که ساخت چتبات را تمام کردید، متوجه هک شدن GPT خود و کپی شدن کل دستورالعمل آن خواهید شد. این قابلیت کپی کردن، بهلطف امنیت ذاتی پایین این چت باتها است و شما کاری نمیتوانید بکنید. این اولین آسیبپذیری است که تیم الکس پولیاکوف آن را کشف کردهاند و فهمیدند که هکرها میتوانند بهطور کامل دستورالعمل یک GPT شخصی را کپی کنند.
ریسک افشای هر داده حساسی که در چت بات خود آپلود میکنید، وجود دارد
دومین آسیبپذیری که پولیاکوف به آن اشاره میکند، مربوط به نشت سریع دیگری است که در آن میتوان با پرسیدن برخی سوالات خاص، اطلاعات و دادههای مهمی که در این GPT بارگزاری شده است را فاش کرد. بهعنوان مثال شرکتی را فرض کنید که برای ارتقای سطح دانش کارمندان بخش خصوصی خود، چتباتی را راهاندازی کرده و دادههای حساسی در مورد کسبوکار خود را در آن بارگزاری کرده است. پرسیدن سوالات حیلهگرانه و استراتژیک، راهی است که میتوان به این دادههای بارگزاری شده، دست یافت.
این آسیبپذیری نشان میدهد افرادی که اقدام به ساخت چت بات شخصی میکنند، نباید هیچ داده حساس و شخصی خود را در این چت بات آپلود کنند. نتیجه این آسیبپذیری در صورت عدم اصلاح، این خواهد بود که هیچ توسعهدهنده نرمافزاری از این چتباتها برای فعالیت خود استفاده نخواهد کرد.
OpenAI بهدنبال اصلاح آسیبپذیریهای امنیتی چت باتها
چت بات های هوش مصنوعی از روزهای اول طراحی دارای مشکلات امنیتی بودهاند و شبکههای اجتماعی نیز بازتاب رسانهای کاملی از این نواقص داشتهاند. کاربران با سوالات حیلهگرانه و غیر مستقیم، مواردی را از چت GPT پرسیدهاند که در حالت عادی، این چت بات اجازه پاسخگویی به چنین سوالاتی را ندارد.
بخش امنیتی OpenAI، همیشه در حال یافتن آسیبپذیریهای امنیتی چتباتهای خود و رفع آنها است. اما موردی که وجود دارد، مربوط به هکرهایی است که از باریکترین راهها نیز برای یافتن مسیر ورود به سیستم امنیتی استفاده کرده و نواقصی را ایجاد میکنند. بهخاطر همین شاید چندین سال طول بکشد تا OpenAI بتواند تمام نواقص و آسیبپذیریهای امنیتی پلتفرمهای خود را رفع کند.
آسیبپذیریهایی که تیم Adversa AI از چتباتهای GPT این شرکت یافتهاند، میتواند مشکلات عمدهای برای آلتمن و تیم طراحان OpenAI ایجاد کند. انتظار کاربران این چتباتها، پاسخ سریع و عملکرد بهجای این شرکت به مشکلات یافته شده است. توصیهای که میتوانیم برای همه کاربران داشته باشیم این است که تا جای ممکن از بارگزاری و انتشار اطلاعات حساس خود مخصوصا در چت بات های شخصی خودداری کنید.
شما هم میتوانید در بخش نظرات به ما بگویید که چه اطلاعاتی را با چت GPT به اشتراک گذاشتهاید و آیا تا به حال، نقص امنیتی را در آن مشاهده کردهاید یا خیر.