Web Analytics Made Easy - Statcounter
به نقل از «فرارو»
2024-05-03@17:54:54 GMT

هک و فروش اطلاعات ۱۸ شرکت بیمه‌ای

تاریخ انتشار: ۱۳ شهریور ۱۴۰۲ | کد خبر: ۳۸۶۱۴۶۷۳

هک و فروش اطلاعات ۱۸ شرکت بیمه‌ای

اعتماد نوشت: ۲۴ ساعت پس از تایید هک شدن اپلیکیشن «تپسی» و به فروش گذاشتن اطلاعات افشا شده در فضای مجازی، مشخص شده گروه هکری که اطلاعات مختلف مسافران این اپلیکیشن را در معرض فروش گذاشته، ۲۰ روز پیش هم با هک اطلاعات ۱۸ شرکت فعال بیمه، آمادگی خود را برای فروش آن در فضای مجازی اعلام کرده بود.

این گروه هکری در آگهی فروش اطلاعات در دست خود، عنوان کرده بود که ۱۱۵ میلیون رکورد اطلاعاتی شامل: نام، نام‌خانوادگی، تاریخ تولد، نام پدر، شماره تلفن/موبایل، شماره شناسنامه، کد ملی، کد ملی شرکت و .

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

.. را در اختیار دارد. بانک اطلاعات و دیتای لو رفته از دو شرکت ابتدایی این لیست روی هم ۳۵ میلیون رکورد است.

چطور این اتفاق افتاده است؟

شرکت‌های بیمه برای ایجاد ساختار بانک اطلاعاتی و دیتاسنتر خود نیاز به پشتیبان فنی دارند. از این رو، گفته می‌شود شرکتی با رنگ و لعاب استارت‌آپی مسوولیت این کار را به عهده گرفته است. این شرکت خود را «بزرگ‌ترین ارایه‌دهنده راهکار‌های نرم افزاری جامع و یکپارچه بیمه‌گری (core insurance) به صنعت بیمه کشور» معرفی کرده است. لوگو ۲۴ شرکت بیمه‌ای نیز در وب‌سایت این شرکت موجود است که به عنوان «مشتریان» آن نام برده شده‌اند. حالا گفته می‌شود که هک اطلاعات از طریق همین شرکت صورت گرفته است. گویا این شرکت، پیمانکار برخی شرکت‌های بیمه بوده و مورد تایید بیمه مرکزی هم نبوده است.

وب‌سایتی به نام «خرد و کلان» به نقل از یک مقام آگاه که نامی از وی نبرده عنوان کرده که «شرکتی که اطلاعات آن هک شده است، ارتباطی با بیمه مرکزی نداشته و اتفاقا مرکز فناوری و حراست بیمه مرکزی، بار‌ها تذکرات لازم در خصوص عدم امنیت این شرکت را به صورت کتبی و شفاهی اعلام کرده بود.» با توجه به اینکه تاریخ افشای این اطلاعات سه هفته پیش بوده، مشخص نیست چرا بیمه مرکزی به عنوان نهاد ناظر بر صنعت بیمه تاکنون در این باره سکوت کرده بود؟ آیا اگر آن‌گونه که عنوان می‌شود پدافند غیرعامل در این سازمان به درستی عمل کرده بود و هشدار‌های لازم برای ارتقای سطح ارتباط امن داده می‌شد، موضوع هک شدن اپلیکیشن تپسی نیز پیش می‌آمد؟ و نکته بعدی اینکه وقتی برای موضوعی به نام «پوشش کارکنان» در استارت‌آپ‌ها، به سرعت کمیته تعیین وضعیت تشکیل شده و تصمیم هم گرفته می‌شود؛ چرا برای چنین موضوع مهمی هیچ کمیته‌ای تشکیل یا اطلاع‌رسانی نشده است؟

خبرنگار «اعتماد» کسب اطلاع کرده که برخی مدیران مرتبط با امنیت شبکه در بیمه مرکزی همزمان با وقوع یکی از بحران‌های امنیتی در هک و افشای اطلاعات کاربران بیمه، در خارج از کشور به سر می‌برند.

واکنش بیمه مرکزی

هیچ یک از شرکت‌ها در خصوص لو رفتن اطلاعات کاربران خود موضع‌گیری رسمی نداشته‌اند. اما بیمه مرکزی به عنوان بخش رگولاتوری این ماجرا، هک شدن شرکت‌های بیمه‌ای را «شبهه‌افکنی برخی کانال‌های خبری و رسانه‌ها» به «دلایل غیرتخصصی» خوانده و عنوان کرده که «صنعت بیمه همچنان امانتدار مردم خواهد بود.» بیمه مرکزی در بیانیه خود اضافه کرده که «شرکت‌های بیمه‌ای کشور در عقد قرارداد با شرکت‌های پیمانکاری مرتبط با حوزه اطلاعات و آمار از استقلال نسبی برخوردارند و دسترسی به برخی اطلاعات عمومی بیمه‌گذاران در سطوح مختلف امکان‌پذیر است.»

بیمه مرکزی به عنوان نهاد ناظر صنعت بیمه همچنین هرگونه «هک شدن» یا «افشای» اطلاعات را نیز رد و اضافه کرده که «آنچه به شکل سهو یا عمد به اختلال در سامانه‌های بیمه مرکزی تعبیر شده به هیچ عنوان صحت ندارد و بر اساس آمار موجود مجموعه‌های پدافند غیرعامل و مرکز فاوای بیمه مرکزی با قدرت هر چه تمام‌تر و امنیت بالا از اطلاعات بیمه‌گذاران محافظت می‌کند. با این وجود هر گونه ایجاد خدشه در اعتماد عمومی برای نهاد ناظر صنعت بیمه پذیرفتنی نیست و موضوع مطرح شده از مدت‌ها قبل توسط کارشناسان امنیت بیمه مرکزی و مراجع ذی‌صلاح دیگر رصد شده و با دقت و حساسیت در حال پیگیری است.»

هر چند در بخشی از این «بیانیه» بیمه مرکزی تلاش کرده تا از خود نیز سلب مسوولیت کند و نوشته است: «هشدار‌های لازم امنیتی که از مدت‌ها قبل به برخی شرکت‌های بیمه در انتخاب پیمانکار و استاندارد‌های امنیتی که باید داشته باشد، داده شده بود.» همچنین «به شرکت مرتبط هم به‌رغم تذکرات قبلی اعلام شده که با اقدامات فنی پیشگیرانه حتی از دیتای تاریخ مصرف گذشته و فرعی خود نیز مراقبت بیشتری کنند.» بیمه مرکزی اضافه کرده که «تا برقراری کامل استاندارد‌های مورد نظر تخت رصد قرار دارد تا افکارعمومی بیش از این دستخوش ابهام و آسیب نشود.» روز گذشته مجید مشعلچی‌فیروزآبادی، قائم‌مقام بیمه مرکزی نیز اطمینان داد که «اطلاعات به سرقت رفته از بیمه‌گزاران، نمی‌تواند مورد سوءاستفاده قرار بگیرد.»، چون از نظر او «این ماجرا به یک ماه پیش مربوط بود و اکنون تمام شده است.»

در واکنش به این اتفاقات، مدیر ارشد فناوری در یک هلدینگ دانش‌بنیان حوزه فناوری اطلاعات در رشته توییتی نوشته است: «حدودا دو ماه از اطلاع‌رسانی تلگرامی همین گروه [هکرها]در خصوص نفوذ و فروش اطلاعات شرکت‌های مختلف بیمه‌ای گذشته و هیچ واکنش عمومی از بیمه مرکزی یا نهاد‌های مختلف امنیت اطلاعات در این خصوص منتشر نشده است. این موضوع باعث می‌شود که بقیه سازمان‌ها و شرکت‌ها درس آموخته‌ای کسب نکنند، تا زمانی که برای آن‌ها هم همین موضوع پیش بیاید. چه بسا روش نفوذ به تپسی مشابه با بیمه بوده و اگر اطلاعات فنی آن نفوذ منتشر می‌شد الان به تپسی نفوذ نشده بود. پنهانکاری و تکذیب‌های مداوم هیچ کمکی به بهبود امنیت اطلاعات نخواهد کرد.»

برکناری رییس کل بیمه مرکزی

مجموعه اتفاقات در حوزه هک اطلاعات کاربران شرکت‌های بیمه‌ای، منجر به تصمیم‌گیری جدید در حوزه نهاد ناظر بیمه شده و در جلسه‌ای فوری رییس جدید بیمه مرکزی معرفی شد.

رییس جدید علی استاد هاشمی، دارای مدرک تحصیلی دکترای مدیریت مالی دانشگاه شهید بهشتی و عضو هیات علمی دانشگاه پیام نور است. حضور او در پست معاون نظارتی بدون سابقه کار مشخص در این حوزه، پیش از این موجب انتقاد‌های بسیاری توسط فعالان بیمه‌ای شده بود.

این در حالی است که حضور این چهره نزدیک به وزیر امور اقتصادی و دارایی در بیمه مرکزی، به دلیل «دوشغله بودن» توسط دیوان محاسبات غیرقانونی اعلام شده است.

آثار منفی فیلترینگ

البته که بخش بزرگی از حملات سایبری جدید را نیز باید در حوزه اختلال‌های اینترنتی جست‌وجو کرد. بر اساس گزارشی که به تازگی کمیسیون صنایع و معادن مجلس از وضعیت اینترنت در ایران منتشر کرده، سهم پهنای باند ناشناس در شبکه (ترافیکی که سیستم فیلترینگ قادر به تشخیص پروتکل آن نیست) از کمتر از ۵ درصد بین‌الملل در سال گذشته به حدود ۲۵ درصد در حال حاضر رسیده است. این بدان معناست که بخش بزرگی از کاربران اینترنت در ایران برای اتصال به آنچه «اینترنت بین‌الملل» خوانده می‌شود، از فیلترشکن استفاده می‌کنند.

محمدجواد آذری‌جهرمی، وزیر پیشین ارتباطات در این باره می‌گوید: «این یعنی ناکارآمدی و شکست برای فیلترینگ. این یعنی ناآگاهی حکمرانی از حتی نوع بخش بزرگی از ارتباطات بین‌الملل و افزایش تهدیدات سایبری علیه منافع ملی.» کمیسیون صنایع و معادن مجلس در این گزارش آثار منفی دیگری در استفاده از فیلترشکن‌ها در شبکه اینترنت ایران عنوان کرده است. باز شدن نشت فعال، پایین آمدن پهنای باند، مخاطرات امنیتی برای مردم و شبکه ارتباطی و قرار گرفتن اطلاعات کاربر در معرض دسترسی هکر‌ها از آثاری است که موج استفاده از فیلترشکن‌ها در اینترنت ایران بر‌جای گذاشته است.

منبع: فرارو

کلیدواژه: بیمه مرکزی قیمت طلا و ارز قیمت موبایل شرکت های بیمه عنوان کرده بیمه مرکزی صنعت بیمه نهاد ناظر شرکت ها بیمه ای هک شدن

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت fararu.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «فرارو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۶۱۴۶۷۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری کنیم؟

هر محتوایی که در سطح اینترنت مشاهده می‌کنید، به‌احتمال زیاد جمع‌آوری شده و برای آموزش نسل کنونی هوش مصنوعی مولد مورد استفاده قرار گرفته است. مدل‌های زبان بزرگ مثل ChatGPT و ابزار‌های تولیدکننده‌ی تصویر با انبوهی از داده‌های ما تغذیه می‌شوند. حتی اگر این داده‌ها برای ساخت چت‌بات به‌کار نروند، می‌توانند در ویژگی‌های دیگر یادگیری ماشین استفاده شوند.

شرکت‌های فناوری برای جمع‌آوری داده‌هایی که به‌گفته خودشان برای خلق هوش مصنوعی مولد ضروری هستند، سرتاسر وب را با بی‌توجهی به حقوق مؤلفان، قوانین کپی‌رایت و حریم خصوصی کاربران، مورد استفاده قرار داده‌اند. شرکت‌هایی هم که انبوهی از اطلاعات کاربران را در اختیار دارند، به‌دنبال سهمی از سود صنعت هوش مصنوعی هستند.

اگر شما هم نگران هستید که داده‌‌هایتان مورد استفاده‌ی هوش مصنوعی قرار بگیرد، ما در این مقاله به‌بررسی راهکارهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی می‌پردازیم.

پیش‌از آن‌که به روش‌های جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم، بهتر است سطح انتظارات را در حد واقع‌بینانه نگه‌داریم. بسیاری از شرکت‌های توسعه‌دهنده‌ی هوش مصنوعی از مدت‌ها قبل اقدام به جمع‌آوری گسترده‌ی داده‌های وب کرده‌اند؛ بنابر این، احتمالاً هر آنچه که تا امروز منتشر کرده‌اید، هم‌اکنون در سیستم‌های آن‌ها وجود دارد. این شرکت‌ها درباره‌ی اطلاعاتی که استخراج یا خریداری کرده‌اند، شفاف عمل نمی‌کنند و اطلاعات ما در این زمینه بسیار مبهم است.

شرکت‌ها می‌توانند فرایند انصراف از استفاده‌ی داده‌ها برای آموزش هوش مصنوعی را پیچیده کنند. بسیاری از افراد درباره‌ی مجوز‌هایی که پذیرفته‌اند یا نحوه‌ی به‌کارگیری داده‌ها، دید روشنی ندارند. این موضوع مربوط‌به قبل‌از زمانی است که به قوانین مختلف، مانند حمایت از حقوق مالکیت فکری و قوانین قدرتمند حفظ حریم خصوصی اروپا، توجه شود. فیسبوک، گوگل و شرکت‌های دیگر، در اسناد مربوط‌به حریم خصوصی خود ذکر کرده‌اند که شاید از داده‌های شما برای آموزش هوش مصنوعی استفاده کنند.

فهرست زیر فقط شامل شرکت‌هایی می‌شود که درحال‌حاضر راهکاری برای منع دسترسی آن‌ها به داده‌های شخصی کاربران برای آموزش مدل‌های هوش مصنوعی ارائه می‌دهند.

روش جلوگیری از دسترسی ابزارهای هوش مصنوعی به داده‌ها

ذخیره‌سازی فایل‌ها در سرویس‌های ابری، مزایای زیادی دارد. اما این فایل‌ها می‌توانند برای مقاصد دیگر نیز مورد استفاده قرار بگیرند. براساس اسناد شرکت‌هایی مانند ادوبی و آمازون، داده‌های ذخیره‌شده در فضای ابری آن‌ها، می‌تواند برای آموزش الگوریتم‌های یادگیری ماشین به‌کار رود.

گوگل جمنای

اگر از چت‌بات گوگل جمنای (Gemini) استفاده می‌کنید، باید بدانید کارشناسان انسانی برخی مکالمات شما را برای بررسی و بهبود مدل هوش مصنوعی بازبینی می‌کنند. به‌هر حال، می‌توانید این دسترسی را لغو کنید. بدین‌منظور جمنای را در مرورگر خود باز کرده، روی بخش Activity کلیک و سپس از منوی کشویی Turn Off را انتخاب کنید. در این قسمت، می‌توانید صرفاً فعالیت جمنای را غیرفعال کنید و یا با انتخاب گزینه‌ی Delete data، هم دسترسی را لغو کرده و هم اطلاعات مکالمات گذشته را پاک کنید.

نکته‌ی مهم اینکه با غیرفعال‌سازی دسترسی جمنای به داده‌های شخصی خود، مکالمات آتی شما دیگر برای بازبینی دردسترس نخواهد بود، اما اطلاعات مکالمات قبلی که برای بررسی انتخاب شده‌اند، همچنان تا سه سال نزد گوگل باقی خواهند ماند.

تنظیمات حریم خصوصی OpenAI ChatGPT

هنگام استفاده از چت‌بات‌ها، ناخواسته اطلاعات شخصی زیادی را فاش می‌کنیم. OpenAI، به‌عنوان توسعه‌دهنده‌ی چت‌بات محبوب ChatGPT، به کاربران اختیاراتی برای کنترل داده‌هایشان می‌دهد. این اختیار شامل جلوگیری از استفاده از اطلاعات برای آموزش مدل‌های هوش مصنوعی آینده می‌شود.

طبق صفحات راهنمای OpenAI، کاربران وب ChatGPT که حساب کاربری ندارند، باید به بخش تنظیمات (Settings) مراجعه و گزینه‌ی Improve the model for everyone را غیرفعال کنند. اگر حساب کاربری دارید و ازطریق مرورگر وب وارد شده‌اید، باید به بخشChatGPT بروید و سپس در مسیر Settings و Data Controls، گزینه‌ی Chat History & Training را خاموش کنید. درصورتی‌که از اپلیکیشن‌های موبایل ChatGPT استفاده می‌کنید، به Settings مراجعه کرده و Data Controls را انتخاب کنید و درنهایت گزینه‌ی Chat History & Training را خاموش کنید.

صفحات پشتیبانی OpenAI هشدار می‌دهند که تغییر تنظیمات دسترسی به داده‌های شخصی در مرورگر یا دستگاه خاص، روی سایر مرورگرها یا دستگاه‌های شما همگام‌سازی نمی‌شود؛ بنابراین، باید اینکار را در هر جایی که از ChatGPT استفاده می‌کنید، انجام دهید.

فعالیت‌های OpenAI فراتر از ChatGPT است. این استارتاپ برای ابزار تولید تصویر Dall-E 3 نیز فرمی در نظر گرفته است که به شما امکان می‌دهد با ارسال آن، تصاویر مورد نظر خود را از مجموعه داده‌های آموزشی آینده حذف کنید. در این فرم باید نام، ایمیل، مالکیت حق‌نشر تصویر، جزئیات تصویر و اصل تصویر را آپلود کنید. OpenAI همچنین می‌گوید اگر حجم زیادی از تصاویر را به‌صورت آنلاین میزبانی می‌کنید که نمی‌خواهید برای آموزش داده‌ها استفاده شوند، شاید اضافه‌کردن GPTBot به فایل robots.txt وب‌سایت محل میزبانی تصاویر، روش کارآمدتری باشد.

Perplexity

Perplexity استارتاپی است که با استفاده از هوش مصنوعی در جست‌وجوی وب و یافتن پاسخ سؤالات به کاربران کمک می‌کند. این ابزار مثل سایر نرم‌افزارهای مشابه، به‌صورت پیش‌فرض رضایت شما برای استفاده از تعاملات و داده‌هایتان را در جهت بهبود هوش مصنوعی خود دریافت می‌کند. برای غیرفعال‌کردن این مورد، روی نام کاربری خود کلیک کنید، به بخش Account بروید و AI Data Retention را در حالت غیرفعال قرار دهید.

تنظیمات حریم خصوصی ادوبی

اگر از حساب کاربری شخصی ادوبی استفاده می‌کنید، غیرفعال‌کردن این قابلیت به‌سادگی امکان‌پذیر است. بدین‌منظور باید در صفحه‌ی حریم خصوصی ادوبی به بخش Content analysis بروید و کلید مربوطه را خاموش کنید. برای حساب‌های تجاری یا آموزشی، این امکان به‌صورت مجزا برای تک‌تک کاربران وجود ندارد و برای غیرفعال‌سازی آن باید با مدیر سیستم تماس بگیرید.

صفحه تنظیمات حریم خصوصی وردپرس

وردپرس گزینه‌ای برای جلوگیری از اشتراک‌گذاری داده‌ها با سرویس‌های شخص ثالث دارد. برای فعال کردن این قابلیت، در پنل مدیریت وب‌سایت، روی Settings و بعد از آن General و سپس Privacy کلیک کرده و در نهایت تیک گزینه‌ی Prevent third-party sharing را بزنید. سخنگوی Automattic می‌گوید: «ما درحال همکاری با خزنده‌های وب ازجمله Common Crawl هستیم تا جلوی دسترسی و فروش غیرمجاز محتوای کاربران را بگیریم.»

Grammarly

درحال حاضر، کاربران عادی گرمرلی (Grammarly) امکان لغو استفاده از داده‌هایشان را برای بهبود مدل یادگیری ماشین این سرویس ندارند. این امکان فقط برای حساب‌های تجاری (Business Account) دردسترس است که به‌صورت خودکار قابل مدیریت بوده و نیازی به درخواست مستقیم کاربر ندارد.

برای لغو دسترسی گرمرلی در حساب‌های تجاری، به تنظیمات حساب کاربری (Account Settings) مراجعه، روی تب Data Settings کلیک و سپس گزینه‌ی Product Improvement & Training را غیرفعال کنید. همچنین، حساب‌های تجاری تحت مدیریت مانند حساب‌های آموزشی و حساب‌های خریداری‌شده ازطریق نماینده‌ی فروش گرمرلی، به‌صورت خودکار از فرایند آموزش مدل هوش مصنوعی مستثنی هستند.

صفحه حریم خصوصی Quora

Quora ادعا می‌کند درحال‌حاضر از پاسخ‌ها، پست‌ها یا نظرات کاربران برای آموزش هوش مصنوعی استفاده نمی‌کند. این شرکت همچنین هیچ‌گونه داده‌ی کاربری را برای آموزش هوش مصنوعی به‌فروش نمی‌رساند. به‌هر حال، Quora همچنان گزینه‌ای برای انصراف از این موضوع در نظر گرفته است. برای اینکار، به صفحه‌ی Settings بروید، روی Privacy کلیک و سپس Allow large language models to be trained on your content را غیرفعال کنید.

به‌نوشته‌ی WIRED، امکان دارد Quora همچنان از برخی پست‌های خاص برای آموزش مدل‌های زبان بزرگ (LLM) استفاده کند. صفحات راهنمای این شرکت توضیح می‌دهند درصورتی‌که به پاسخ تولیدشده با هوش مصنوعی، پاسخ دهید، شاید اطلاعات آن، برای آموزش هوش مصنوعی مورد استفاده قرار گیرد. این شرکت اشاره می‌کند که احتمال استخراج داده‌ها ازطرف شرکت‌های متفرقه نیز وجود دارد.

Tumblr
شرکت Automattic، مالک وب‌سایت‌های Tumblr و WordPress.com، اعلام کرده که با همکاری شرکت‌های هوش مصنوعی قصد دارد از مجموعه داده‌های عظیم و منحصربه‌فرد محتوای منتشر شده در پلتفرم‌های خود برای آموزش هوش مصنوعی استفاده کند. سخنگوی این شرکت تأکید کرده است که ایمیل‌های کاربران و محتوای خصوصی شامل این همکاری نخواهد شد.

درصورتی‌که در Tumblr وبلاگ شخصی دارید، می‌توانید با مراجعه به Settings، انتخاب وبلاگ، کلیک روی آیکون چرخ‌دنده، رفتن به بخش Visibility و فعال‌کردن گزینه‌ی Prevent third-party sharing مانع استفاده از محتوای خود برای آموزش هوش مصنوعی شوید. همچنین بر اساس صفحات پشتیبانی Tumblr، پست‌های صریح، وبلاگ‌های حذف‌شده، و وبلاگ‌های دارای رمزعبور یا خصوصی به‌هیچ‌وجه با شرکت‌های دیگر به اشتراک گذاشته نمی‌شوند.

اسکلت

شاید برایتان عجیب باشد، اما حتی همان پیام‌های رد و بدل شده‌ی به‌ظاهر بی‌اهمیت در اسلک محل کارتان هم ممکن است برای آموزش مدل‌های این پلتفرم استفاده شوند. براساس گفته‌ی معاون بخش محصول اسلک، این پلتفرم از سالیان گذشته در محصولاتش از یادگیری ماشین برای ارائه‌ی قابلیت‌هایی مثل پیشنهاد کانال و ایموجی استفاده می‌کند.

اگرچه اسلک از داده‌های مشتریان برای آموزش مدل زبان بزرگ محصول هوش مصنوعی خود استفاده نمی‌کند، اما می‌تواند از تعاملات شما برای بهبود قابلیت‌های یادگیری ماشینی نرم‌افزار بهره ببرد. در صورتی‌که از حساب سازمانی اسلک استفاده می‌کنید، امکان انصراف از این فرآیند وجود ندارد.

تنها راه برای لغو اشتراک اسلک، ارسال ایمیل ازطرف مدیر سیستم به آدرس feedback@slack.com است. موضوع ایمیل باید Slack Global model opt-out request باشد و URL سازمان نیز در آن درج شود. اسلک هیچ جدول زمانی برای مدت زمان انجام فرایند لغو اشتراک ارائه نمی‌دهد، اما پس‌از تکمیل آن باید ایمیل تأیید برای شما ارسال کند.

وب‌سایت اختصاصی

اگر وب‌سایت اختصاصی خود را راه‌اندازی کرده‌اید، می‌توانید با به‌روزرسانی فایل robots.txt از ربات‌های هوش مصنوعی بخواهید صفحاتتان را کپی نکنند. بسیاری از وب‌سایت‌های خبری اجازه‌ نمی‌دهند ربات‌های هوش مصنوعی مقالاتشان را مرور کنند. برای مثال، فایل robots.txt وب‌سایت WIRED اجازه‌ی دسترسی به ربات‌های OpenAI، گوگل، آمازون، فیسبوک، Anthropic و Perplexity و بسیاری دیگر را نمی‌دهد.

این قابلیت صرفاً برای ناشران محتوا کاربرد ندارد. هر وب‌سایتی می‌تواند با اضافه کردن دستور disallow به فایل robots.txt، ربات‌های هوش مصنوعی را از دسترسی به سایت خود منع کند.

منبع: زومیت

باشگاه خبرنگاران جوان علمی پزشکی فناوری

دیگر خبرها

  • برخورداری ۶۲۵ زوج نابارور استان مرکزی از خدمات بیمه سلامت
  • مجوز قبولی بیمه اتکایی دی به زودی صادر می شود
  • معامله ارز، بی‌رونق‌تر از دیروز
  • شناسایی ۵۰۰ کارگاه‌‌ کوچک فاقد بیمه کارگران در مرکزی
  • ۶ سال زندان برای هکری که اطلاعات ۳۳ هزار بیمار را سرقت کرد
  • چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری کنیم؟
  • اتصال آنلاین اطلاعات خرید و فروش به سامانه املاک و اسکان
  • تبعات بند مشکل ساز بودجه بر صنعت بیمه و پیشنهاد عدم لحاظ بر درآمدها
  • شیوه بیمه خودرو تغییر می‌کند
  • حذف شرط پرداخت عوارض آزادراه برای بیمه شخص ثالث