//
کدخبر: ۴۲۹۵۴۶ //

دیپ‌فیک مصنوعی (deepfake AI)؛ایجاد تصویر، صدا و ویدیوجعلی/ لزوم برخورد جدی با سوء استفاده کنندگان در ایران

دیپ‌فیک مصنوعی یک نوع هوش مصنوعی است که برای ایجاد تصاویر، صدا و ویدیوهای جعلی و متقاعد‌کننده استفاده می‌شود. این اصطلاح هم تکنولوژی مربوطه و هم محتوای جعلی نتیجه‌اش را توصیف می‌کند و از ترکیب دو واژه "یادگیری عمیق" و "تقلب" تشکیل شده است.

دیپ‌فیک مصنوعی (deepfake AI)؛ایجاد تصویر، صدا و ویدیوجعلی/ لزوم برخورد جدی با سوء استفاده کنندگان در ایران

مسلم حقیقیان؛ دیپ‌فیک‌ها اغلب محتوای مبدا موجودی را تغییر می‌دهند جایی که یک فرد با فرد دیگری جایگزین می‌شود. همچنین محتوای کاملاً اصلی ایجاد می‌کنند که یک فرد را نشان می‌دهد که کاری را انجام داده یا چیزی را گفته که واقعاً انجام نداده یا گفته است.

بزرگترین خطری که دیپ‌فیک‌ها ایجاد می‌کنند، قابلیت انتشار اطلاعات غلطی است که به نظر می‌آید مبتنی بر منابع قابل اعتماد هستند. به عنوان مثال، در سال 2022 ویدیویی دیپ‌فیک از رئیس‌جمهور اوکراین، ولودیمیر زلنسکی، منتشر شد که او را به سربسر تسلیم شدن خواست.

نگرانی‌ها همچنین نسبت به امکان مداخله در انتخابات و تبلیغات انتخاباتی ابراز شده است. در حالی که دیپ‌فیک‌ها تهدیدات جدی را ایجاد می‌کنند، از آنجایی که مصارف مشروعی هم دارند، مانند صداهای بازی و سرگرمی و نرم‌افزارهای پشتیبانی مشتری و پاسخ به تماس، مانند انتقال تماس و خدمات مسئولیت پذیری، نیز به کار می‌روند.

دیپ‌فیک‌ها چگونه کار می‌کنند؟

دیپ‌فیک‌ها از دو الگوریتم - یک مولد و یک تفاوت‌یاب - برای ایجاد و بهبود محتوای جعلی استفاده می‌کنند. مولد مجموعه داده آموزش را بر اساس خروجی مورد نظر ایجاد می‌کند و محتوای دیجیتال جعلی اولیه را ایجاد می‌کند، در حالی که تفاوت‌یاب تحلیل می‌کند که نسخه اولیه محتوا چقدر واقعی یا جعلی است. این فرآیند تکرار می‌شود که به مولد اجازه می‌دهد تا در ایجاد محتوای واقعی‌تر ماهرتر شود و تفاوت‌یاب نیز ماهرتر در شناسایی نقص‌ها برای مولد برای اصلاح شود.

ترکیب الگوریتم‌های مولد و تفاوت‌یاب یک شبکه مولد مخاصمانه ایجاد می‌کند. یک GAN از یادگیری عمیق برای شناختن الگوها در تصاویر واقعی استفاده می‌کند و سپس از آن الگوها برای ایجاد محتوای جعلی استفاده می‌کند. هنگام ایجاد یک تصویر دیپ‌فیک، یک سیستم GAN تصاویر هدف را از زوایا وجودی مختلف می‌بیند تا تمام جزئیات و نقاط نظر را ثبت کند. هنگام ایجاد یک ویدیو دیپ‌فیک، GAN ویدیو را از زوایا و نیز رفتار، حرکت و الگوهای گفتار تحلیل می‌کند. این اطلاعات سپس چندین بار از طریق تفاوت‌یاب اجرا می‌شود تا واقعیت تصویر یا ویدیو نهایی را به نظر سنجد. ویدیوهای دیپ‌فیک به یکی از دو روش ایجاد می‌شوند. آن‌ها می‌توانند از منبع ویدیوی اصلی هدف استفاده کنند، جایی که شخص به انجام دادن کارها و گفتن چیزهایی که واقعاً انجام نداده است، و یا می‌توانند چهره افراد را بر روی ویدیوی فرد دیگری جایگزین کنند، که همچنین به نام تعویض چهره شناخته می‌شود.

در زیر، چند رویکرد خاص برای ایجاد دیپ‌فیک‌ها آورده شده است:

  1. دیپ‌فیک‌های ویدیوی مبدا: هنگام کار با ویدیوی مبدا، یک دیپ‌فیک autoencoder مبتنی بر شبکه عصبی تحلیل محتوا را انجام می‌دهد تا ویژگی‌های مرتبط با هدف را مانند عبارات چهره و زبان بدنی درک کند. سپس این ویژگی‌ها را به ویدیو اصلی اعمال می‌کند. این autoencoder شامل یک کدگذار است که ویژگی‌های مرتبط را کدگذاری می‌کند؛ و یک کدگشا که این ویژگی‌ها را به ویدیو هدف اعمال می‌کند.

  2. دیپ‌فیک‌های صوتی: برای دیپ‌فیک‌های صوتی، یک GAN صدای یک شخص را کلون می‌کند، یک مدل براساس الگوهای صدایی ایجاد می‌کند و از آن مدل برای ایجاد صدایی استفاده می‌کند که خالق می‌خواهد. این تکنیک معمولاً توسط توسعه‌دهندگان بازی‌های ویدیویی استفاده می‌شود.

  3. هماهنگی لب‌ها: هماهنگی لب‌ها یک تکنیک دیگر رایج در دیپ‌فیک‌ها است. در اینجا، دیپ‌فیک یک ضبط صدا را با ویدیو مپ می‌کند تا به نظر برسد که فرد در ویدیو کلمات ضبط شده در ویدیو را تلفظ می‌کند. اگر صدای خود ضبطی نیز دیپ‌فیک باشد، ویدیو لایه‌ای دیگر از فریب اضافه می‌کند. این تکنیک توسط شبکه‌های عصبی بازگردنده پشتیبانی می‌شود

Picture1

فناوری مورد نیاز برای توسعه دیپ فیک با توسعه و پیشرفت فناوری‌های زیر، توسعه دیپ‌فیک آسان‌تر، دقیق‌تر و رایج‌تر می‌شود.

  • فناوری شبکه عصبی GAN در توسعه تمام محتوای دیپ فیک با استفاده از الگوریتم های مولد و تمایز استفاده می شود.

  • شبکه های عصبی کانولوشنال الگوها را در داده های بصری تجزیه و تحلیل می کنند. CNN ها برای تشخیص چهره و ردیابی حرکت استفاده می شوند.

  • رمزگذار خودکار: یک فناوری شبکه عصبی است که ویژگی‌های مربوط به یک هدف مانند حالات صورت و حرکات بدن را شناسایی می‌کند و سپس این ویژگی‌ها را به ویدیوی منبع تحمیل می‌کند.

  • پردازش زبان طبیعی برای ایجاد صدای دیپ فیک استفاده می شود. الگوریتم‌های NLP ویژگی‌های گفتار هدف را تجزیه و تحلیل می‌کنند و سپس متن اصلی را با استفاده از آن ویژگی‌ها تولید می‌کنند.

  • محاسبات با کارایی بالا نوعی از محاسبات است که توان محاسباتی لازم قابل توجه مورد نیاز دیپ فیک را فراهم می کند. بر اساس گزارش وزارت امنیت داخلی ایالات متحده "تهدید فزاینده هویت های عمیق"، چندین ابزار معمولاً برای تولید دیپ فیک در عرض چند ثانیه استفاده می شوند.

این ابزارها عبارتند از Deep Art Effects، Deepswap، Deep Video Portraits، FaceApp، FaceMagic، MyHeritage، Wav2Lip، Wombo و Zao.

دیپ فیک معمولا چگونه استفاده می شود؟

استفاده از دیپ فیک به طور قابل توجهی متفاوت است. کاربردهای اصلی شامل موارد زیر است:

  • هنر: دیپ فیک برای تولید موسیقی جدید با استفاده از بدنه های موجود آثار یک هنرمند استفاده می شود.

  • باج گیری و آسیب به شهرت: نمونه هایی از این موارد زمانی است که یک تصویر هدف در موقعیتی غیرقانونی، نامناسب یا به گونه ای دیگر مانند دروغ گفتن به عموم، درگیر شدن در اعمال جنسی آشکار یا مصرف مواد مخدر قرار می گیرد. این ویدئوها برای اخاذی از یک قربانی، خراب کردن شهرت یک فرد، انتقام گرفتن یا صرفاً زورگویی سایبری به آنها استفاده می شود. رایج ترین باج گیری یا استفاده انتقام جویانه، پورن عمیق جعلی غیر توافقی است که به عنوان پورن انتقامی نیز شناخته می شود.

  • خدمات پاسخگویی به تماس گیرندگان این سرویس‌ها: از دیپ فیک برای ارائه پاسخ‌های شخصی به درخواست‌های تماس‌گیرنده استفاده می‌کنند که شامل ارسال تماس و سایر خدمات پذیرش می‌شود. پشتیبانی تلفنی مشتری این سرویس ها از صداهای جعلی برای کارهای ساده ای مانند بررسی موجودی حساب یا ثبت شکایت استفاده می کنند.

  • سرگرمی: فیلم‌های هالیوودی و بازی‌های ویدیویی صدای بازیگران را برای صحنه‌های خاصی شبیه‌سازی و دستکاری می‌کنند. رسانه‌های سرگرمی از این ویژگی زمانی استفاده می‌کنند که صحنه‌ای به سختی فیلم‌برداری می‌شود، در پس‌تولید زمانی که یک بازیگر دیگر برای ضبط صدای خود در صحنه نیست، یا برای صرفه‌جویی در وقت بازیگر و تیم سازنده. دیپ فیک همچنین برای محتوای طنز و تقلید استفاده می شود که در آن مخاطب متوجه می شود ویدیو واقعی نیست اما از موقعیت طنز آمیزی که دیپ فیک ایجاد می کند لذت می‌برد. به عنوان مثال می توان به دیپ فیک سال 2023 دواین «راک» جانسون در نقش دورا کاوشگر اشاره کرد.

  • شواهد نادرست: این شامل ساختن تصاویر یا صداهای نادرست است که می تواند به عنوان مدرکی دال بر گناه یا بی گناهی در یک پرونده قانونی استفاده شود.

  • تقلب: دیپ فیک برای جعل هویت یک فرد برای به دست آوردن اطلاعات شناسایی شخصی (PII) مانند شماره حساب بانکی و کارت اعتباری استفاده می شود. این ممکن است گاهی اوقات شامل جعل هویت مدیران شرکت ها یا سایر کارمندان با اعتبار برای دسترسی به اطلاعات حساس باشد که یک تهدید بزرگ امنیت سایبری است. اطلاعات غلط و دستکاری سیاسی: ویدئوهای دیپ فیک سیاستمداران یا منابع مورد اعتماد برای تحت تاثیر قرار دادن افکار عمومی استفاده می شود و در مورد دیپ فیک رئیس جمهور اوکراین ولودومیر زلنسکی، سردرگمی در جنگ ایجاد می کند. گاهی اوقات از آن به عنوان انتشار اخبار جعلی یاد می شود.

  • دستکاری سهام مواد جعلی: عمیق برای تأثیرگذاری بر قیمت سهام شرکت استفاده می شود. به عنوان مثال، یک ویدیوی جعلی از یک مدیر اجرایی که اظهارات مخربی درباره شرکت خود می کند، می تواند قیمت سهام آن را کاهش دهد. یک ویدیوی جعلی درباره یک پیشرفت تکنولوژیکی یا عرضه محصول می تواند سهام یک شرکت را افزایش دهد.

  • پیامک: در گزارش وزارت امنیت داخلی ایالات متحده با عنوان "تهدید فزاینده هویت های عمیق جعلی"از پیام های متنی به عنوان استفاده آینده از فناوری دیپ فیک یاد شده است. بر اساس این گزارش، بازیگران تهدید می‌توانند از تکنیک‌های دیپ‌فیک برای تکرار سبک پیام‌رسانی کاربر استفاده کنند.

روش های تشخیص دیپ فیک

 چندین روش برتر برای شناسایی حملات دیپ فیک وجود دارد.موارد زیر نشانه‌هایی از محتوای دیپ‌فیک احتمالی هستند:

  • وضعیت غیرمعمول یا نامناسب صورت

  • حرکت غیر طبیعی صورت یا بدن

  • عدم تناسب صورت با اندام شخص

  • رنگ آمیزی غیر طبیعی ویدیوهایی که با بزرگنمایی یا بزرگنمایی عجیب به نظر می رسند.

  • صدای ناسازگار افرادی که پلک نمی زنند.

 در دیپ فیک متنی، چند شاخص وجود دارد:

  • غلط املایی جملاتی که به طور طبیعی جریان ندارند.

  • آدرس ایمیل منبع مشکوک عبارتی که با فرستنده فرضی مطابقت ندارد.

  • پیام‌های خارج از متن که به هیچ بحث، رویداد یا موضوعی مرتبط نیستند.

با این حال، هوش مصنوعی به طور پیوسته بر برخی از این شاخص ها غلبه می کند، مانند ابزارهایی که از چشمک زدن طبیعی پشتیبانی می کنند.

نحوه دفاع در برابر دیپ فیک

شرکت‌ها، سازمان‌ها و سازمان‌های دولتی، مانند آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی وزارت دفاع ایالات متحده، در حال توسعه فناوری برای شناسایی و مسدود کردن دیپ‌فیک هستند. برخی از شرکت‌های رسانه‌های اجتماعی از فناوری بلاک چین برای تأیید منبع ویدیوها و تصاویر قبل از ورود آنها به پلتفرم‌هایشان استفاده می‌کنند. به این ترتیب، منابع قابل اعتماد ایجاد می شود و از جعلی ها جلوگیری می شود. در همین راستا، فیس بوک و توییتر هر دو دیپ فیک های مخرب را ممنوع کرده اند.

نرم افزار حفاظت Deepfake از شرکت های زیر موجود است:

  • ادوب سیستمی دارد که به سازندگان اجازه می‌دهد امضایی را به ویدیوها و عکس‌ها با جزئیات مربوط به ساخت آنها اضافه کنند.

  • مایکروسافت دارای نرم‌افزار تشخیص عمیق جعلی مبتنی بر هوش مصنوعی است که فیلم‌ها و عکس‌ها را تجزیه و تحلیل می‌کند تا یک امتیاز اطمینان ارائه کند که نشان می‌دهد آیا رسانه دستکاری شده است یا خیر.

  • عملیات Minerva از کاتالوگ‌های دیپ‌فیک‌هایی که قبلاً کشف شده‌اند استفاده می‌کند تا تشخیص دهد که آیا یک ویدیوی جدید صرفاً اصلاح یک جعلی موجود است که کشف شده و اثر انگشت دیجیتالی به آن داده شده است.

  • Sensityیک پلت فرم تشخیص ارائه می دهد که از یادگیری عمیق برای شناسایی نشانه های رسانه های دیپ فیک استفاده می کند، به همان روشی که ابزارهای ضد بدافزار به دنبال امضاهای ویروس و بدافزار هستند. هنگامی که کاربران یک دیپ فیک را مشاهده می کنند، از طریق ایمیل هشدار داده می شود.

نمونه های قابل توجه دیپ فیک

چندین نمونه قابل توجه از دیپ فیک وجود دارد، از جمله موارد زیر:

مارک زاکربرگ، بنیانگذار فیس بوک، قربانی یک دیپ فیک شد که نشان می داد فیس بوک چگونه کاربران خود را "مالک" می کند. این ویدئو برای نشان دادن اینکه چگونه مردم می توانند از پلتفرم های رسانه های اجتماعی مانند فیس بوک برای فریب مردم استفاده کنند طراحی شده است.

Picture2

جو بایدن، رئیس‌جمهور ایالات متحده در سال ۲۰۲۰ قربانی دیپ‌فیک‌های متعددی شد که او را در حالات اغراق‌آمیز زوال شناختی نشان می‌داد تا بر انتخابات ریاست‌جمهوری تأثیر بگذارد. رؤسای جمهور باراک اوباما و دونالد ترامپ نیز قربانی ویدیوهای دیپ فیک شده اند که برخی برای انتشار اطلاعات نادرست و برخی به عنوان طنز و سرگرمی هستند.

Picture3

در طول تهاجم روسیه به اوکراین در سال 2022، رئیس جمهور اوکراین ولودومیر زلنسکی به تصویر کشیده شد که به سربازانش می گوید تسلیم روس ها شوند.

Picture4

تاریخچه فناوری هوش مصنوعی عمیق

هوش مصنوعی Deepfake یک فناوری نسبتا جدید است که منشاء آن دستکاری عکس ها از طریق برنامه هایی مانند Adobe Photoshop است. در اواسط دهه 2010، قدرت محاسباتی ارزان، مجموعه داده‌های بزرگ، هوش مصنوعی و فناوری یادگیری ماشین، همگی برای بهبود پیچیدگی الگوریتم‌های یادگیری عمیق ترکیب شدند.

در سال 2014، GAN، فناوری در قلب دیپ فیک ها، توسط محقق دانشگاه مونترال، یان گودفلو، توسعه یافت. در سال 2017، یک کاربر ناشناس Reddit به نام "deepfakes" شروع به انتشار ویدیوهای دیپ فیک از افراد مشهور و همچنین یک ابزار GAN کرد که به کاربران اجازه می داد چهره ها را در ویدیوها عوض کنند. این موارد در اینترنت و شبکه های اجتماعی منتشر شد.

محبوبیت ناگهانی محتوای دیپ‌فیک، شرکت‌های فناوری مانند فیس‌بوک، گوگل و مایکروسافت را بر آن داشت تا روی توسعه ابزارهایی برای شناسایی دیپ‌فیک سرمایه‌گذاری کنند. علی‌رغم تلاش‌های شرکت‌های فناوری و دولت‌ها برای مبارزه با دیپ‌فیک و مقابله با چالش تشخیص دیپ‌فیک، این فناوری همچنان به پیشرفت خود ادامه می‌دهد و تصاویر و ویدیوهای دیپ‌فیک متقاعدکننده‌ای را تولید می‌کند

برنامه‌های ساخت دیپ‌ فیک رایگان

در حال حاضر بسیاری از ابزارها و سایت ها نیز وجود دارند که به سادگی امکان ساخت  تصاویر و ویدیوهای جعلی را توسط علم هوش مصنوعی را برای افراد غیر متخصص نیز فراهم میکنند. البته این ابزارها با سایر اهداف غیر از کلاهبرداری ساخته شده است اما هرشخصی می تواند برای اهداف خود از آن نیز استفاده کند. این ابزارها می تواند عکس شخصی را که شاد است را به شخصی عصبانی تبدیل و آن را برای شما ایجاد کند تا از آن تصویر استفاده کنید.

۱- وب‌سایت Deepfakes

با سرویس Deepfakes می‌توانید ویدیو‌های دیپ‌فیک را در بدون نیاز به نصب اپلیکیشن ایجاد کنید. برای اینکه این سرویس بتواند به‌کمک یادگیری عمیق، تمام جزییات پیچیده‌ی تصویر و ویدئویی را که آپلود کرده‌اید، یاد بگیرد، حداکثر به ۴ ساعت زمان نیاز دارد. تعویض چهره‌‌ها با کمک مدل آموزش دیده‌ی سرویس نیز ۳۰ دقیقه طول خواهید کشید. نسخه‌ی رایگان Deepfakes، ویدیوی خروجی را تا حدود ۵ ساعت بعد آماده می‌کند، اما نسخه‌ی پولی تنها یک ساعت زمان لازم دارد.

اگرچه این سرویس از پردازنده‌های گرافیکی قدرتمندی در فضای ابری استفاده می‌کند، کماکان برای رندر کردن تمام داده‌ها به ساعت‌ها زمان نیاز دارد. این نشان می‌دهد که ساخت ویدیوی دیپ‌فیک کار آسانی نیست و به‌همین خاطر است که اپلیکیشن‌هایی مثل Zao که تنها در چند ثانیه، ویدیوی دیپ‌فیک درست می‌کنند، اینقدر سروصدا به پا می‌کنند.

۲- اپلیکیشن Wombo

این یکی را احتمالا می‌شناسید و کلیپ‌هایی را که با آن ایجاد شده، در گوشه‌وکنار اینترنت دیده‌اید. Wombo اپلیکیشنی برای همگام‌سازی حرکات لب است که به شما اجازه‌ می‌دهد تصویر خود یا اشخاص دیگر را به ویدیویی تبدیل کنید که در آن لب‌هایتان حرکت می‌کند، انگار دارید آواز می‌خوانید. این اپلیکیشن، ۱۵ آهنگ پیش‌فرض ارائه می‌دهد که می‌توانید با تمام آن‌ها از تصویر موردنظر خود دیپ‌فیک بسازید.

۳- اپلیکیشن Reface

اپلیکیشن ساخت دیپ‌فیک Reface که ابتدا با نام Doublicat شناخته می‌شد، به شما امکان می‌دهد میم‌های خنده‌دار با فرمت گیف درست کنید. این اپلیکیشن از هوش مصنوعی Reface AI کمک می‌گیرد که درواقع نوعی شبکه مولد رقابتی است. برای استفاده از این اپ تنها کافی است از خودتان عکس بگیرید و بعد فایل گیف مورد نظرتان را از بین میلیون‌ها گیفی که در اینترنت موجود است، انتخاب کنید تا در عرض چند ثانیه، اپلیکیشن Reface چهره‌ی شما را روی گیف قرار می‌دهد.

البته در نظر داشته باشید که کیفیت گیف‌های ایجاد شده همیشه خوب نیست و به میزان تطابق چهره با گیف بستگی دارد.

۴- اپلیکیشن MyHeritage

یکی دیگر از اپلیکیشن‌های دیپ‌فیک که در شبکه‌های اجتماعی محبوبیت زیادی پیدا کرد، MyHeritage  نام دارد؛ چراکه به کاربران امکان می‌دهد عکس‌های قدیمی‌شان را متحرک کنند. برای استفاده از این سرویس تنها کافی است عکسی را آپلود کرده و دکمه‌ی Animate را فشار دهید.

این اپلیکیشن در عرض چند ثانیه، یک نسخه‌ی متحرک از تصویر شما را تحویل می‌دهد که در آن چهره، چشم‌ها و دهان حرکت می‌کنند؛ درست شبیه عکس‌های جادویی روزنامه‌ی The Daily Prophet در دنیای هری پاتر!

۵- نرم‌افزار DeepFaceLab

 DeepFaceLab نرم‌افزاری است که به شما امکان می‌دهد در محیط ویندوز، ویدیوهای دیپ‌فیک باکیفیتی بسازید. این نرم‌افزار در درجه اول برای پژوهشگران و دانشجویان بینایی ماشین در نظر گرفته شده است. بااین‌حال، اگر دوست دارید از ویدیوهای دیپ‌فیک بیشتر سر در بیاورید، می‌توانید از این ابزار استفاده کنید.   DeepFaceLab از یادگیری ماشین و تلفیق تصویر انسانی برای جایگزین کردن چهره‌ها در ویدیو استفاده می‌کند.

از آنجایی‌که DeepFaceLab ابزار پیشرفته‌ای برای پژوهشگران است، رابط کاربری پیچیده‌ای دارد و برای استفاده از آن باید کمی مطالعه کنید. همچنین، برای رندر کردن ویدیو، به کامپیوتری با پردازنده گرافیکی مجزای قدرتمندی نیاز دارید. اگر دانشجوی بینایی ماشین هستید، DeepFaceLab  می‌تواند ابزار فوق‌اعلاده‌ای برای درک ویدیوهای دیپ‌فیک باشد.

نتیجه گیری:

پیشرفت علم و تکنولوژی علاوه بر اینکه باعث پیشرفت و راحتی انسان‌ها می‌شود، می تواند به همان اندازه باعث ایجاد جرم و اختلال در جامعه شود. به طور مشخص مردم نمی توانند جلوی کلاهبرداران در این حوزه بگیرند و تنها شرکت‌های مرتبط با مبحث امنیت سایبری و پلیس فتا و دولت است که با بهره گیری از نیروهای انسانی متخصص در این حوزه بتواند از به وجود آمدن جرایم مختلف سایبری جلوگیری کند. در حالی که جلوگیری از این مبحث در کشورهای مختلف به شدت درحال پیشروی است کشور ما ایران هنوز به طور تخصصی حتی وارد این حوزه نشده است و اینکه در سال چند نفر قربانی عملیات دیپ فیک می‌شود کاملا نامشخص است. امیدواریم که در آینده نه چندان دور در کشور عزیزمان ایران هم شاهد قدم‌هایی برای جلوگیری به وقوع پیوستن این موضوع در سطح کشور شویم. (..............................)

 

برای ورود به کانال تلگرام فرتاک نیوز کلیک کنید.
منبع: الف
آیا این خبر مفید بود؟
کدخبر: ۴۲۹۵۴۶ //
ارسال نظر
 
اخبار مرتبط سایر رسانه ها
اخبار از پلیکان
اخبار روز سایر رسانه ها
    اخبار از پلیکان