هک و فروش اطلاعات ۱۸ شرکت بیمهای
تاریخ انتشار: ۱۳ شهریور ۱۴۰۲ | کد خبر: ۳۸۶۱۴۶۷۳
اعتماد نوشت: ۲۴ ساعت پس از تایید هک شدن اپلیکیشن «تپسی» و به فروش گذاشتن اطلاعات افشا شده در فضای مجازی، مشخص شده گروه هکری که اطلاعات مختلف مسافران این اپلیکیشن را در معرض فروش گذاشته، ۲۰ روز پیش هم با هک اطلاعات ۱۸ شرکت فعال بیمه، آمادگی خود را برای فروش آن در فضای مجازی اعلام کرده بود.
این گروه هکری در آگهی فروش اطلاعات در دست خود، عنوان کرده بود که ۱۱۵ میلیون رکورد اطلاعاتی شامل: نام، نامخانوادگی، تاریخ تولد، نام پدر، شماره تلفن/موبایل، شماره شناسنامه، کد ملی، کد ملی شرکت و .
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
شرکتهای بیمه برای ایجاد ساختار بانک اطلاعاتی و دیتاسنتر خود نیاز به پشتیبان فنی دارند. از این رو، گفته میشود شرکتی با رنگ و لعاب استارتآپی مسوولیت این کار را به عهده گرفته است. این شرکت خود را «بزرگترین ارایهدهنده راهکارهای نرم افزاری جامع و یکپارچه بیمهگری (core insurance) به صنعت بیمه کشور» معرفی کرده است. لوگو ۲۴ شرکت بیمهای نیز در وبسایت این شرکت موجود است که به عنوان «مشتریان» آن نام برده شدهاند. حالا گفته میشود که هک اطلاعات از طریق همین شرکت صورت گرفته است. گویا این شرکت، پیمانکار برخی شرکتهای بیمه بوده و مورد تایید بیمه مرکزی هم نبوده است.
وبسایتی به نام «خرد و کلان» به نقل از یک مقام آگاه که نامی از وی نبرده عنوان کرده که «شرکتی که اطلاعات آن هک شده است، ارتباطی با بیمه مرکزی نداشته و اتفاقا مرکز فناوری و حراست بیمه مرکزی، بارها تذکرات لازم در خصوص عدم امنیت این شرکت را به صورت کتبی و شفاهی اعلام کرده بود.» با توجه به اینکه تاریخ افشای این اطلاعات سه هفته پیش بوده، مشخص نیست چرا بیمه مرکزی به عنوان نهاد ناظر بر صنعت بیمه تاکنون در این باره سکوت کرده بود؟ آیا اگر آنگونه که عنوان میشود پدافند غیرعامل در این سازمان به درستی عمل کرده بود و هشدارهای لازم برای ارتقای سطح ارتباط امن داده میشد، موضوع هک شدن اپلیکیشن تپسی نیز پیش میآمد؟ و نکته بعدی اینکه وقتی برای موضوعی به نام «پوشش کارکنان» در استارتآپها، به سرعت کمیته تعیین وضعیت تشکیل شده و تصمیم هم گرفته میشود؛ چرا برای چنین موضوع مهمی هیچ کمیتهای تشکیل یا اطلاعرسانی نشده است؟
خبرنگار «اعتماد» کسب اطلاع کرده که برخی مدیران مرتبط با امنیت شبکه در بیمه مرکزی همزمان با وقوع یکی از بحرانهای امنیتی در هک و افشای اطلاعات کاربران بیمه، در خارج از کشور به سر میبرند.
واکنش بیمه مرکزیهیچ یک از شرکتها در خصوص لو رفتن اطلاعات کاربران خود موضعگیری رسمی نداشتهاند. اما بیمه مرکزی به عنوان بخش رگولاتوری این ماجرا، هک شدن شرکتهای بیمهای را «شبههافکنی برخی کانالهای خبری و رسانهها» به «دلایل غیرتخصصی» خوانده و عنوان کرده که «صنعت بیمه همچنان امانتدار مردم خواهد بود.» بیمه مرکزی در بیانیه خود اضافه کرده که «شرکتهای بیمهای کشور در عقد قرارداد با شرکتهای پیمانکاری مرتبط با حوزه اطلاعات و آمار از استقلال نسبی برخوردارند و دسترسی به برخی اطلاعات عمومی بیمهگذاران در سطوح مختلف امکانپذیر است.»
بیمه مرکزی به عنوان نهاد ناظر صنعت بیمه همچنین هرگونه «هک شدن» یا «افشای» اطلاعات را نیز رد و اضافه کرده که «آنچه به شکل سهو یا عمد به اختلال در سامانههای بیمه مرکزی تعبیر شده به هیچ عنوان صحت ندارد و بر اساس آمار موجود مجموعههای پدافند غیرعامل و مرکز فاوای بیمه مرکزی با قدرت هر چه تمامتر و امنیت بالا از اطلاعات بیمهگذاران محافظت میکند. با این وجود هر گونه ایجاد خدشه در اعتماد عمومی برای نهاد ناظر صنعت بیمه پذیرفتنی نیست و موضوع مطرح شده از مدتها قبل توسط کارشناسان امنیت بیمه مرکزی و مراجع ذیصلاح دیگر رصد شده و با دقت و حساسیت در حال پیگیری است.»
هر چند در بخشی از این «بیانیه» بیمه مرکزی تلاش کرده تا از خود نیز سلب مسوولیت کند و نوشته است: «هشدارهای لازم امنیتی که از مدتها قبل به برخی شرکتهای بیمه در انتخاب پیمانکار و استانداردهای امنیتی که باید داشته باشد، داده شده بود.» همچنین «به شرکت مرتبط هم بهرغم تذکرات قبلی اعلام شده که با اقدامات فنی پیشگیرانه حتی از دیتای تاریخ مصرف گذشته و فرعی خود نیز مراقبت بیشتری کنند.» بیمه مرکزی اضافه کرده که «تا برقراری کامل استانداردهای مورد نظر تخت رصد قرار دارد تا افکارعمومی بیش از این دستخوش ابهام و آسیب نشود.» روز گذشته مجید مشعلچیفیروزآبادی، قائممقام بیمه مرکزی نیز اطمینان داد که «اطلاعات به سرقت رفته از بیمهگزاران، نمیتواند مورد سوءاستفاده قرار بگیرد.»، چون از نظر او «این ماجرا به یک ماه پیش مربوط بود و اکنون تمام شده است.»
در واکنش به این اتفاقات، مدیر ارشد فناوری در یک هلدینگ دانشبنیان حوزه فناوری اطلاعات در رشته توییتی نوشته است: «حدودا دو ماه از اطلاعرسانی تلگرامی همین گروه [هکرها]در خصوص نفوذ و فروش اطلاعات شرکتهای مختلف بیمهای گذشته و هیچ واکنش عمومی از بیمه مرکزی یا نهادهای مختلف امنیت اطلاعات در این خصوص منتشر نشده است. این موضوع باعث میشود که بقیه سازمانها و شرکتها درس آموختهای کسب نکنند، تا زمانی که برای آنها هم همین موضوع پیش بیاید. چه بسا روش نفوذ به تپسی مشابه با بیمه بوده و اگر اطلاعات فنی آن نفوذ منتشر میشد الان به تپسی نفوذ نشده بود. پنهانکاری و تکذیبهای مداوم هیچ کمکی به بهبود امنیت اطلاعات نخواهد کرد.»
برکناری رییس کل بیمه مرکزیمجموعه اتفاقات در حوزه هک اطلاعات کاربران شرکتهای بیمهای، منجر به تصمیمگیری جدید در حوزه نهاد ناظر بیمه شده و در جلسهای فوری رییس جدید بیمه مرکزی معرفی شد.
رییس جدید علی استاد هاشمی، دارای مدرک تحصیلی دکترای مدیریت مالی دانشگاه شهید بهشتی و عضو هیات علمی دانشگاه پیام نور است. حضور او در پست معاون نظارتی بدون سابقه کار مشخص در این حوزه، پیش از این موجب انتقادهای بسیاری توسط فعالان بیمهای شده بود.
این در حالی است که حضور این چهره نزدیک به وزیر امور اقتصادی و دارایی در بیمه مرکزی، به دلیل «دوشغله بودن» توسط دیوان محاسبات غیرقانونی اعلام شده است.
آثار منفی فیلترینگالبته که بخش بزرگی از حملات سایبری جدید را نیز باید در حوزه اختلالهای اینترنتی جستوجو کرد. بر اساس گزارشی که به تازگی کمیسیون صنایع و معادن مجلس از وضعیت اینترنت در ایران منتشر کرده، سهم پهنای باند ناشناس در شبکه (ترافیکی که سیستم فیلترینگ قادر به تشخیص پروتکل آن نیست) از کمتر از ۵ درصد بینالملل در سال گذشته به حدود ۲۵ درصد در حال حاضر رسیده است. این بدان معناست که بخش بزرگی از کاربران اینترنت در ایران برای اتصال به آنچه «اینترنت بینالملل» خوانده میشود، از فیلترشکن استفاده میکنند.
محمدجواد آذریجهرمی، وزیر پیشین ارتباطات در این باره میگوید: «این یعنی ناکارآمدی و شکست برای فیلترینگ. این یعنی ناآگاهی حکمرانی از حتی نوع بخش بزرگی از ارتباطات بینالملل و افزایش تهدیدات سایبری علیه منافع ملی.» کمیسیون صنایع و معادن مجلس در این گزارش آثار منفی دیگری در استفاده از فیلترشکنها در شبکه اینترنت ایران عنوان کرده است. باز شدن نشت فعال، پایین آمدن پهنای باند، مخاطرات امنیتی برای مردم و شبکه ارتباطی و قرار گرفتن اطلاعات کاربر در معرض دسترسی هکرها از آثاری است که موج استفاده از فیلترشکنها در اینترنت ایران برجای گذاشته است.
منبع: فرارو
کلیدواژه: بیمه مرکزی قیمت طلا و ارز قیمت موبایل شرکت های بیمه عنوان کرده بیمه مرکزی صنعت بیمه نهاد ناظر شرکت ها بیمه ای هک شدن
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت fararu.com دریافت کردهاست، لذا منبع این خبر، وبسایت «فرارو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۶۱۴۶۷۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری کنیم؟
هر محتوایی که در سطح اینترنت مشاهده میکنید، بهاحتمال زیاد جمعآوری شده و برای آموزش نسل کنونی هوش مصنوعی مولد مورد استفاده قرار گرفته است. مدلهای زبان بزرگ مثل ChatGPT و ابزارهای تولیدکنندهی تصویر با انبوهی از دادههای ما تغذیه میشوند. حتی اگر این دادهها برای ساخت چتبات بهکار نروند، میتوانند در ویژگیهای دیگر یادگیری ماشین استفاده شوند.
شرکتهای فناوری برای جمعآوری دادههایی که بهگفته خودشان برای خلق هوش مصنوعی مولد ضروری هستند، سرتاسر وب را با بیتوجهی به حقوق مؤلفان، قوانین کپیرایت و حریم خصوصی کاربران، مورد استفاده قرار دادهاند. شرکتهایی هم که انبوهی از اطلاعات کاربران را در اختیار دارند، بهدنبال سهمی از سود صنعت هوش مصنوعی هستند.
اگر شما هم نگران هستید که دادههایتان مورد استفادهی هوش مصنوعی قرار بگیرد، ما در این مقاله بهبررسی راهکارهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی میپردازیم.
پیشاز آنکه به روشهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم، بهتر است سطح انتظارات را در حد واقعبینانه نگهداریم. بسیاری از شرکتهای توسعهدهندهی هوش مصنوعی از مدتها قبل اقدام به جمعآوری گستردهی دادههای وب کردهاند؛ بنابر این، احتمالاً هر آنچه که تا امروز منتشر کردهاید، هماکنون در سیستمهای آنها وجود دارد. این شرکتها دربارهی اطلاعاتی که استخراج یا خریداری کردهاند، شفاف عمل نمیکنند و اطلاعات ما در این زمینه بسیار مبهم است.
شرکتها میتوانند فرایند انصراف از استفادهی دادهها برای آموزش هوش مصنوعی را پیچیده کنند. بسیاری از افراد دربارهی مجوزهایی که پذیرفتهاند یا نحوهی بهکارگیری دادهها، دید روشنی ندارند. این موضوع مربوطبه قبلاز زمانی است که به قوانین مختلف، مانند حمایت از حقوق مالکیت فکری و قوانین قدرتمند حفظ حریم خصوصی اروپا، توجه شود. فیسبوک، گوگل و شرکتهای دیگر، در اسناد مربوطبه حریم خصوصی خود ذکر کردهاند که شاید از دادههای شما برای آموزش هوش مصنوعی استفاده کنند.
فهرست زیر فقط شامل شرکتهایی میشود که درحالحاضر راهکاری برای منع دسترسی آنها به دادههای شخصی کاربران برای آموزش مدلهای هوش مصنوعی ارائه میدهند.
روش جلوگیری از دسترسی ابزارهای هوش مصنوعی به دادهها
ذخیرهسازی فایلها در سرویسهای ابری، مزایای زیادی دارد. اما این فایلها میتوانند برای مقاصد دیگر نیز مورد استفاده قرار بگیرند. براساس اسناد شرکتهایی مانند ادوبی و آمازون، دادههای ذخیرهشده در فضای ابری آنها، میتواند برای آموزش الگوریتمهای یادگیری ماشین بهکار رود.
گوگل جمنای
اگر از چتبات گوگل جمنای (Gemini) استفاده میکنید، باید بدانید کارشناسان انسانی برخی مکالمات شما را برای بررسی و بهبود مدل هوش مصنوعی بازبینی میکنند. بههر حال، میتوانید این دسترسی را لغو کنید. بدینمنظور جمنای را در مرورگر خود باز کرده، روی بخش Activity کلیک و سپس از منوی کشویی Turn Off را انتخاب کنید. در این قسمت، میتوانید صرفاً فعالیت جمنای را غیرفعال کنید و یا با انتخاب گزینهی Delete data، هم دسترسی را لغو کرده و هم اطلاعات مکالمات گذشته را پاک کنید.
نکتهی مهم اینکه با غیرفعالسازی دسترسی جمنای به دادههای شخصی خود، مکالمات آتی شما دیگر برای بازبینی دردسترس نخواهد بود، اما اطلاعات مکالمات قبلی که برای بررسی انتخاب شدهاند، همچنان تا سه سال نزد گوگل باقی خواهند ماند.
تنظیمات حریم خصوصی OpenAI ChatGPT
هنگام استفاده از چتباتها، ناخواسته اطلاعات شخصی زیادی را فاش میکنیم. OpenAI، بهعنوان توسعهدهندهی چتبات محبوب ChatGPT، به کاربران اختیاراتی برای کنترل دادههایشان میدهد. این اختیار شامل جلوگیری از استفاده از اطلاعات برای آموزش مدلهای هوش مصنوعی آینده میشود.
طبق صفحات راهنمای OpenAI، کاربران وب ChatGPT که حساب کاربری ندارند، باید به بخش تنظیمات (Settings) مراجعه و گزینهی Improve the model for everyone را غیرفعال کنند. اگر حساب کاربری دارید و ازطریق مرورگر وب وارد شدهاید، باید به بخشChatGPT بروید و سپس در مسیر Settings و Data Controls، گزینهی Chat History & Training را خاموش کنید. درصورتیکه از اپلیکیشنهای موبایل ChatGPT استفاده میکنید، به Settings مراجعه کرده و Data Controls را انتخاب کنید و درنهایت گزینهی Chat History & Training را خاموش کنید.
صفحات پشتیبانی OpenAI هشدار میدهند که تغییر تنظیمات دسترسی به دادههای شخصی در مرورگر یا دستگاه خاص، روی سایر مرورگرها یا دستگاههای شما همگامسازی نمیشود؛ بنابراین، باید اینکار را در هر جایی که از ChatGPT استفاده میکنید، انجام دهید.
فعالیتهای OpenAI فراتر از ChatGPT است. این استارتاپ برای ابزار تولید تصویر Dall-E 3 نیز فرمی در نظر گرفته است که به شما امکان میدهد با ارسال آن، تصاویر مورد نظر خود را از مجموعه دادههای آموزشی آینده حذف کنید. در این فرم باید نام، ایمیل، مالکیت حقنشر تصویر، جزئیات تصویر و اصل تصویر را آپلود کنید. OpenAI همچنین میگوید اگر حجم زیادی از تصاویر را بهصورت آنلاین میزبانی میکنید که نمیخواهید برای آموزش دادهها استفاده شوند، شاید اضافهکردن GPTBot به فایل robots.txt وبسایت محل میزبانی تصاویر، روش کارآمدتری باشد.
Perplexity
Perplexity استارتاپی است که با استفاده از هوش مصنوعی در جستوجوی وب و یافتن پاسخ سؤالات به کاربران کمک میکند. این ابزار مثل سایر نرمافزارهای مشابه، بهصورت پیشفرض رضایت شما برای استفاده از تعاملات و دادههایتان را در جهت بهبود هوش مصنوعی خود دریافت میکند. برای غیرفعالکردن این مورد، روی نام کاربری خود کلیک کنید، به بخش Account بروید و AI Data Retention را در حالت غیرفعال قرار دهید.
تنظیمات حریم خصوصی ادوبی
اگر از حساب کاربری شخصی ادوبی استفاده میکنید، غیرفعالکردن این قابلیت بهسادگی امکانپذیر است. بدینمنظور باید در صفحهی حریم خصوصی ادوبی به بخش Content analysis بروید و کلید مربوطه را خاموش کنید. برای حسابهای تجاری یا آموزشی، این امکان بهصورت مجزا برای تکتک کاربران وجود ندارد و برای غیرفعالسازی آن باید با مدیر سیستم تماس بگیرید.
صفحه تنظیمات حریم خصوصی وردپرس
وردپرس گزینهای برای جلوگیری از اشتراکگذاری دادهها با سرویسهای شخص ثالث دارد. برای فعال کردن این قابلیت، در پنل مدیریت وبسایت، روی Settings و بعد از آن General و سپس Privacy کلیک کرده و در نهایت تیک گزینهی Prevent third-party sharing را بزنید. سخنگوی Automattic میگوید: «ما درحال همکاری با خزندههای وب ازجمله Common Crawl هستیم تا جلوی دسترسی و فروش غیرمجاز محتوای کاربران را بگیریم.»
Grammarly
درحال حاضر، کاربران عادی گرمرلی (Grammarly) امکان لغو استفاده از دادههایشان را برای بهبود مدل یادگیری ماشین این سرویس ندارند. این امکان فقط برای حسابهای تجاری (Business Account) دردسترس است که بهصورت خودکار قابل مدیریت بوده و نیازی به درخواست مستقیم کاربر ندارد.
برای لغو دسترسی گرمرلی در حسابهای تجاری، به تنظیمات حساب کاربری (Account Settings) مراجعه، روی تب Data Settings کلیک و سپس گزینهی Product Improvement & Training را غیرفعال کنید. همچنین، حسابهای تجاری تحت مدیریت مانند حسابهای آموزشی و حسابهای خریداریشده ازطریق نمایندهی فروش گرمرلی، بهصورت خودکار از فرایند آموزش مدل هوش مصنوعی مستثنی هستند.
صفحه حریم خصوصی Quora
Quora ادعا میکند درحالحاضر از پاسخها، پستها یا نظرات کاربران برای آموزش هوش مصنوعی استفاده نمیکند. این شرکت همچنین هیچگونه دادهی کاربری را برای آموزش هوش مصنوعی بهفروش نمیرساند. بههر حال، Quora همچنان گزینهای برای انصراف از این موضوع در نظر گرفته است. برای اینکار، به صفحهی Settings بروید، روی Privacy کلیک و سپس Allow large language models to be trained on your content را غیرفعال کنید.
بهنوشتهی WIRED، امکان دارد Quora همچنان از برخی پستهای خاص برای آموزش مدلهای زبان بزرگ (LLM) استفاده کند. صفحات راهنمای این شرکت توضیح میدهند درصورتیکه به پاسخ تولیدشده با هوش مصنوعی، پاسخ دهید، شاید اطلاعات آن، برای آموزش هوش مصنوعی مورد استفاده قرار گیرد. این شرکت اشاره میکند که احتمال استخراج دادهها ازطرف شرکتهای متفرقه نیز وجود دارد.
Tumblr
شرکت Automattic، مالک وبسایتهای Tumblr و WordPress.com، اعلام کرده که با همکاری شرکتهای هوش مصنوعی قصد دارد از مجموعه دادههای عظیم و منحصربهفرد محتوای منتشر شده در پلتفرمهای خود برای آموزش هوش مصنوعی استفاده کند. سخنگوی این شرکت تأکید کرده است که ایمیلهای کاربران و محتوای خصوصی شامل این همکاری نخواهد شد.
درصورتیکه در Tumblr وبلاگ شخصی دارید، میتوانید با مراجعه به Settings، انتخاب وبلاگ، کلیک روی آیکون چرخدنده، رفتن به بخش Visibility و فعالکردن گزینهی Prevent third-party sharing مانع استفاده از محتوای خود برای آموزش هوش مصنوعی شوید. همچنین بر اساس صفحات پشتیبانی Tumblr، پستهای صریح، وبلاگهای حذفشده، و وبلاگهای دارای رمزعبور یا خصوصی بههیچوجه با شرکتهای دیگر به اشتراک گذاشته نمیشوند.
اسکلت
شاید برایتان عجیب باشد، اما حتی همان پیامهای رد و بدل شدهی بهظاهر بیاهمیت در اسلک محل کارتان هم ممکن است برای آموزش مدلهای این پلتفرم استفاده شوند. براساس گفتهی معاون بخش محصول اسلک، این پلتفرم از سالیان گذشته در محصولاتش از یادگیری ماشین برای ارائهی قابلیتهایی مثل پیشنهاد کانال و ایموجی استفاده میکند.
اگرچه اسلک از دادههای مشتریان برای آموزش مدل زبان بزرگ محصول هوش مصنوعی خود استفاده نمیکند، اما میتواند از تعاملات شما برای بهبود قابلیتهای یادگیری ماشینی نرمافزار بهره ببرد. در صورتیکه از حساب سازمانی اسلک استفاده میکنید، امکان انصراف از این فرآیند وجود ندارد.
تنها راه برای لغو اشتراک اسلک، ارسال ایمیل ازطرف مدیر سیستم به آدرس feedback@slack.com است. موضوع ایمیل باید Slack Global model opt-out request باشد و URL سازمان نیز در آن درج شود. اسلک هیچ جدول زمانی برای مدت زمان انجام فرایند لغو اشتراک ارائه نمیدهد، اما پساز تکمیل آن باید ایمیل تأیید برای شما ارسال کند.
وبسایت اختصاصی
اگر وبسایت اختصاصی خود را راهاندازی کردهاید، میتوانید با بهروزرسانی فایل robots.txt از رباتهای هوش مصنوعی بخواهید صفحاتتان را کپی نکنند. بسیاری از وبسایتهای خبری اجازه نمیدهند رباتهای هوش مصنوعی مقالاتشان را مرور کنند. برای مثال، فایل robots.txt وبسایت WIRED اجازهی دسترسی به رباتهای OpenAI، گوگل، آمازون، فیسبوک، Anthropic و Perplexity و بسیاری دیگر را نمیدهد.
این قابلیت صرفاً برای ناشران محتوا کاربرد ندارد. هر وبسایتی میتواند با اضافه کردن دستور disallow به فایل robots.txt، رباتهای هوش مصنوعی را از دسترسی به سایت خود منع کند.
منبع: زومیت
باشگاه خبرنگاران جوان علمی پزشکی فناوری