شنبه 08 اردیبهشت 1403 - 27 Apr 2024
تاریخ انتشار: 1402/01/18 15:24
کد خبر: 14951

پایان کار ChatGPT فرا رسید؟ | افشای اطلاعات کار دست ChatGPT داد!

بعد از اینکه شرکت Samsung Semiconductor به مهندسان خود اجازه استفاده از ChatGPT را داد، آن‌ها برای رفع سریع خطاها در کد منبع خود از آن استفاده کردند. اما متأسفانه، اطلاعات محرمانه مانند یادداشت‌های جلسات داخلی و داده‌های مربوط به عملکرد و بازدهی این شرکت به بیرون درز کرد.

​بعد از آنکه ایتالیا استفاده از ChatGPT را در داخل کشور ممنوع کرد، حال نوبت به آلمان رسیده تا درباره این مدل زبانی هوش مصنوعی تصمیم بگیرد. گزارش‌ها نشان می‌دهد که برخی از کارشناسان حوزه‌های مختلف نسبت به این پدیده شگفت‌انگیز ابراز نگرانی کرده‌اند و به نظر می‌رسد که در آینده به تعداد کشور‌هایی که استفاده از این روبات چت را ممنوع کنند، اضافه خواهد شد. این نگرانی‌ها از سال‌ها پیش نسبت به انواع مدل‌ها و محصولات هوش مصنوعی وجود داشته ولی پس از انتشار یک نامه از سوی غول‌های حوزه فناوری، سیاستمداران را هم به تأمل واداشته است.

ربات ChatGPT با استفاده از داده‌های موجود در اینترنت می‌تواند به پرسش‌های کاربران پاسخ دهد. در عین حال، در زمان چت ممکن است به داده‌های متفاوتی که از سوی کاربران، خواسته یا ناخواسته در اختیارش قرار می‌گیرد، دسترسی پیدا کند. بنابراین، مسائل مربوط به حریم خصوصی و افشای اطلاعات شخصی می‌تواند یکی از مهمترین نگرانی‌ها در این زمینه باشد و خطرآفرینی همواره وجود دارد.

درز اطلاعات سامسونگ

بعد از اینکه شرکت Samsung Semiconductor اجازه داد مهندسان این شرکت از ChatGPT برای کمک استفاده کنند، آن‌ها شروع به استفاده از آن برای رفع سریع خطا‌ها در کد منبع خود کردند و اطلاعات محرمانه مانند یادداشت‌های جلسات داخلی و داده‌های مربوط به عملکرد و بازده این شرکت به بیرون درز کرد.

تاکنون این شرکت ۳مورد استفاده از ChatGPT را ثبت کرده که منجر به نشت اطلاعات شده است. درحالی‌که ممکن است ۳مورد زیاد به‌نظر نرسد، اما همه آن‌ها در طول ۲۰روز اتفاق افتاده که نشان‌دهنده وضعیت بسیار نگران‌کننده‌ای است. در یک مورد، یکی از کارمندان سامسونگ کد منبع یک برنامه اختصاصی را برای رفع خطا‌ها به ChatGPT ارسال کرد که اساسا کد یک برنامه فوق محرمانه را برای یک هوش مصنوعی که توسط یک شرکت خارجی اجرا می‌شد، فاش کرد.

مورد دوم شاید حتی نگران‌کننده‌تر بود، چراکه کارمند دیگری الگو‌های آزمایشی را برای شناسایی تراشه‌های معیوب وارد و درخواست بهینه‌سازی کرد. توالی‌های آزمایشی که برای شناسایی عیوب طراحی شده‌اند کاملاً محرمانه هستند. همچنین کارمند دیگری از برنامه Naver Clova برای تبدیل صدای ضبط شده یک جلسه به متن استفاده کرد و سپس آن را برای تهیه یک «ارائه» به ChatGPT ارسال کرد.

افشای مکالمات و اطلاعات پرداخت

ایتالیا نخستین کشور غربی بود که ChatGPT را به‌عنوان یک روبات محبوب برای عموم مردم، مسدود کرد. پس از اینکه ChatGPT با اتهام نقض اطلاعات مربوط به مکالمات کاربران و اطلاعات پرداخت مواجه شد، دیدبان حفاظت از داده در ایتالیا اعلام کرد که تحقیقاتی را درباره شرکت OpenAI که سازنده این مدل زبانی هوش مصنوعی است، به‌دلیل نگرانی‌های مربوط به حفظ حریم خصوصی داده‌ها آغاز کرده است. حالا خبر رسیده که آلمان هم احتمالا به ایتالیا خواهد پیوست و ChatGPT را در این کشور مسدود خواهد کرد.

رئیس کمیته حفاظت از داده‌های آلمان ادعا کرد که این کشور ممکن است با ممنوع کردن ChatGPT به‌دلیل نگرانی‌های امنیتی و اطلاعات شخصی از روش ایتالیا استفاده کند. اولریش کلبر، اعلام کرد که کشورش می‌تواند از ممنوعیت اخیر ChatGPT در ایتالیا پیروی و از همان روش استفاده کند. پس از آنکه آژانس حفاظت از داده‌های ایتالیا تحقیقاتی را در مورد نقض مشکوک قوانین حریم خصوصی از سوی ChatGPT آغاز کرد، کلبر عنوان کرد که «در اصل، چنین اقدامی در آلمان هم امکان‌پذیر است». با این حال، از آنجا که آلمان دارای یک نظام سیاسی فدرال است، او صلاحیت تصمیم‌گیری در این مورد را در اختیار ایالت‌های فدرال دانسته است.

نگرانی‌ها بجاست؟

بعضی از مسئولان معتقدند که در استفاده از فناوری ChatGPT باید جانب احتیاط را درنظر گرفت.

به‌عنوان مثال، اورسولا پاچل، معاون سازمان مصرف‌کنندگان اروپا می‌گوید: «مصرف‌کنندگان برای این فناوری آماده نیستند. آن‌ها متوجه نمی‌شوند که این چت‌بات چقدر می‌تواند فریبنده باشد.» اخیراً جو بایدن، رئیس‌جمهور آمریکا هم اعلام کرده که هوش مصنوعی می‌تواند برای کمک به حل چالش‌های بزرگ مثل بیماری‌ها و تغییرات اقلیمی مفید باشد، اما در عین حال باید پاسخی برای خطرات احتمالی علیه جامعه، اقتصاد و امنیت ملی هم داشته باشد. این در حالی است که ظهور هرگونه فناوری جدیدی با نگرانی‌هایی توأم بوده است.

انسان پس از ظهور هر تکنولوژی تلاش کرده با وضع قوانین و آگاهی بخشی به مردم از مخاطرات فناوری بکاهد. به همین‌خاطر است که بیل گیتس، بنیانگذار مایکروسافت، درباره نامه سرگشاده‌ای که هفته گذشته منتشر و بحث‌برانگیز شد، اعلام کرده که بهتر است همه تمرکز خود را بر چگونگی استفاده از پیشرفت‌های هوش مصنوعی بگذاریم. او می‌گوید: «درک نمی‌کند که توقف توسعه این فناوری چطور می‌تواند به جهان کمک کند. فکر نمی‌کنم درخواست از یک گروه برای توقف توسعه چالشی را حل کند. واضح است که مزیت‌های بزرگی در استفاده از این ابزار‌ها وجود دارد. کاری که باید بکنیم شناسایی بخش‌هایی است که نیاز به رسیدگی بیشتر دارند.»

اپیدمی ممنوعیت؟

خبر‌ها حاکی از تماس سازمان‌های حفاظت از حریم خصوصی داده‌های سایر کشور‌های اتحادیه اروپا مانند فرانسه و ایرلند با رگولاتور‌های ایتالیایی به‌منظور گفتگو درباره یافته‌های آنهاست. سخنگوی کمیته حفاظت از داده‌های ایرلند (DPC) در گفتگو با رویترز می‌گوید: ما در حال مذاکره با رگولاتور‌های ایتالیایی هستیم تا علت و اساس اقدام آن‌ها را بفهمیم.

آنطور که این مقام ایرلندی اعلام کرده، درباره این موضوع با همه مسئولان حفاظت از داده اتحادیه اروپا هماهنگ خواهیم بود.

درواقع، پس از تصمیم ایتالیا برای محدود کردن دسترسی به این روبات چت، سازمان مصرف‌کنندگان اروپا (BEUC) از همه مسئولان این اتحادیه خواسته که همه چت روبات‌های اصلی هوش مصنوعی را بررسی کنند.
این در حالی است که ChatGPT اکنون در تعدادی از کشور‌ها ازجمله چین، ایران، کره‌شمالی و روسیه غیرقابل دسترسی است.

 

کپی لینک کوتاه خبر: https://setareparsi.com/d/4888gw