• تماس با ما
  • درباره ما
چهارشنبه, اردیبهشت 24, 1404
  • ورود کاربر
  • خانه
  • اخبار
    • اجتماعی
    • سیاسی
    • اقتصادی
    • بین الملل
    • فناوری
    • ورزشی
    • فرهنگی و هنری
  • کاروکسب
  • باریخ
    • اجتماعی
    • فناوری
    • اقتصاد
    • زیست بوم
    • سیاست
    • ارزش و فرهنگ
    • رسانه
    • نیروی انسانی و نظامی
    • امنیت
    • حقوق
  • تاریخ
    • تاریخ نگری
    • تاریخ نگاری
    • خاطره نگاری
  • پرسمان
  • پندار
  • پادپخش
  • پادرخ
بدون نتیجه
نمایش همه نتایج
  • خانه
  • اخبار
    • اجتماعی
    • سیاسی
    • اقتصادی
    • بین الملل
    • فناوری
    • ورزشی
    • فرهنگی و هنری
  • کاروکسب
  • باریخ
    • اجتماعی
    • فناوری
    • اقتصاد
    • زیست بوم
    • سیاست
    • ارزش و فرهنگ
    • رسانه
    • نیروی انسانی و نظامی
    • امنیت
    • حقوق
  • تاریخ
    • تاریخ نگری
    • تاریخ نگاری
    • خاطره نگاری
  • پرسمان
  • پندار
  • پادپخش
  • پادرخ
بدون نتیجه
نمایش همه نتایج
باریخ نیوز
بدون نتیجه
نمایش همه نتایج
خانه اخبار فناوری

توانایی خود را در تشخیص تصاویر جعلی از واقعی بسنجید

آیا توانایی این را دارید که تصاویر واقعی را از تصاویر خلق شده توسط هوش مصنوعی تشخیص دهید؟ چه کسی پیروز این رقابت خواهد شد، شما یا هوش مصنوعی؟

18 آذر, 1402
در فناوری

باریخ نیوز : هوش مصنوعی روز به روز در حال پیشرفته‌تر شدن است و اکنون موفق به خلق تصاویری شده که گاهی تشخیص جعلی بودن آن‌ها بسیار سخت است، در ادامه با ۱۰ مجموعه دوتایی از تصاویر روبه‌رو خواهید شد که یا یکی از آن‌ها واقعی و دیگری توسط هوش مصنوعی تولید شده یا هردو واقعی یا هردو جعلی هستند. پیش از آن که به انتهای این مجموعه برای یافتن پاسخ درست سر بزنید، از میان تصاویر، مورد واقعی را انتخاب کنید و در نهایت توانایی خود در برابر فریب نخوردن از هوش مصنوعی را بسنجید.

  1.  باور کنید یا خیر، تصویر سمت راست واقعی است.

  2.  در این مورد نیز تصویر سمت راست واقعی است.

  3.  در این مورد سمت چپ واقعی است.

  4.  تصویر سمت راست تصویر واقعی است.

  5. هر دو جعلی هستند!

  6. هر دو واقعی هستند!

  7.  تصویر سمت چپ واقعی است.

  8.  تصویر سمت راست واقعی است.

  9.  هر دو جعلی هستند!

  10.  تصویر سمت چپ واقعی است.

چهره‌های جعلی تولید شده توسط هوش مصنوعی چقدر واقعی هستند؟

همانطور که متوجه شدید، این تصاویر بسیار باورپذیر هستند. به حدی که بسیاری از کارشناسان این حوزه به طور فزاینده‌ای نگران این پدیده هستند. در حالی که چهره‌های جعلی جالب به نظر می‌رسند، نگرانی فزاینده‌ای وجود دارد که می‌توان از آن‌ها برای فریب مردم استفاده کرد. اگرچه مغز ما برای دریافت بسیاری از اطلاعات غیر صوتی از چهره افراد تکامل یافته، اما ممکن است در تشخیص واقعی بودن چهره‌های تولید شده توسط هوش مصنوعی عالی عمل نکند.

تعداد فزاینده‌ای از شواهد علمی نیز از این ایده پشتیبانی می‌کنند که اکثر مردم توانایی شناسایی تصاویر جعلی‌ تولید شده توسط هوش مصنوعی را ندارند. به عنوان مثال، در مطالعه‌ای در سال ۲۰۲۲ که در مجله Proceedings of the National Academy of Sciences منتشر شد، آزمایشی مشابه اما بسیار گسترده‌تر از آنچه که شما انجام دادید، صورت گرفت و نشان داد که اکثر مردم در تلاش برای تشخیص تفاوت به مشکل می‌خورند.

سوفی نایتینگل (Sophie Nightingale) و همکارش هانی فرید (Hany Farid) مطالعه‌ای را با ۳۱۵ شرکت کننده که از یک وب سایت جمع سپاری انتخاب شده بود، انجام دادند. از شرکت کنندگان خواسته شد تا بین ۴۰۰ عکس جعلی و ۴۰۰ عکس واقعی انتخاب کنند که کدام جعلی و کدام واقعی است. تصاویر به مجموعه‌های ۱۰۰ نفری از هر یک از چهار گروه قومی سفیدپوستان، سیاه‌پوستان، آسیای شرقی و جنوب آسیا تقسیم شدند.

از یک گروه ۱۷۶ نفری، تنها ۴۸.۲ درصد توانستند چهره‌های رایانه‌ای را به‌طور دقیق شناسایی کنند. گروه دیگری متشکل از ۲۱۹ شرکت کننده آموزش تشخیص چهره‌های تولید شده توسط رایانه را دریافت کردند و میزان دقت آنها به ۵۹ درصد افزایش یافت. با این حال، نایتینگل خاطرنشان کرد که تفاوت در میزان دقت بین دو گروه ناچیز است.

این مطالعه نشان داد که تشخیص چهره‌های سفیدپوستان بسیار دشوار بود، زیرا نرم‌افزار هوش مصنوعی بر روی تعداد مناسبی از چهره‌های سفید آموزش دیده بود. این امر باعث شد که در تولید آن‌ها بسیار بهتر از سایر قومیت‌ها عمل کند.

محققان همچنین مطالعه‌ای انجام دادند که در آن مجموعه‌ای از چهره‌ها را به ۲۲۳ شرکت کننده ارائه کردند. از شرکت کنندگان خواسته شد تا میزان قابل اعتماد بودن چهره‌ها را در مقیاس یک تا هفت رتبه‌بندی کنند.

نتایج نشان داد که چهره‌های جعلی به طور متوسط هشت درصد قابل اعتمادتر از چهره‌های واقعی در نظر گرفته می‌شوند. به گفته نایتینگل، چهره‌های مصنوعی بیشتر شبیه چهره‌های معمولی انسان هستند که مردم بیشتر به آن اعتماد می‌کنند.

چرا چهره‌های جعلی توسط هوش مصنوعی تولید می‌شود و چرا این یک مشکل بالقوه است؟

تولید چهره‌های مصنوعی شامل آموزش یک شبکه عصبی عمیق است، یک سیستم رایانه که نحوه یادگیری مغز را شبیه‌سازی می‌کند. این شبکه در معرض مجموعه داده‌های بزرگی از چهره‌های واقعی قرار می‌گیرد تا شباهت‌ها و تفاوت‌های بین چهره افراد را درک کند. با استفاده از این داده‌ها، شبکه عصبی می‌تواند پس از آن به کار تولید شبیه‌سازی‌های خود بپردازد.

در ظاهر این کار بسیار بی ضرر به نظر می‌رسد. پس مشکل کجاست؟ مشکل این است که وقتی تصاویر جعلی از واقعی قابل تشخیص نباشند، مردم شروع به استفاده از آنها برای فعالیت‌های شرورانه‌ای مانند سرقت هویت یا کلاهبرداری می‌کنند.

کارشناسان ضد جاسوسی ادعا می‌کنند که جاسوسان خارجی به طور مرتب پروفایل‌های ساختگی با چنین تصاویری برای شناسایی اهداف بالقوه در رسانه‌های اجتماعی ایجاد می‌کنند.

مشکل اصلی دیگر این است که چهره‌های جعلی به طور فزاینده‌ای در فرهنگ روزمره رایج شده‌اند. در نتیجه، کارشناسان این حوزه معتقدند که باید بیشتر مراقب نحوه استفاده از آن‌ها در بازاریابی، تبلیغات و رسانه‌های اجتماعی باشیم. علاوه بر این، این تصاویر اغلب برای اهدافی استفاده می‌شوند که قصد تضعیف نهادهای ما را دارند، مانند تبلیغات سیاسی، جاسوسی و جنگ اطلاعاتی.

سوفی نایتینگل توضیح می‌دهد: ما به دستورالعمل‌های اخلاقی سخت‌گیرانه‌تر و چارچوب‌های قانونی بیشتری نیاز داریم، زیرا به ناچار افرادی وجود خواهند داشت که می‌خواهند از این تصاویر برای آسیب‌رسانی استفاده کنند و این نگران‌کننده است.

او پیشنهاد می‌کند که توسعه‌دهندگان برای کاهش این خطرات، واترمارک‌ها را به تصاویر خود اضافه کنند و آن‌ها را به عنوان جعلی علامت‌گذاری کنند. پیشنهادات دیگر شامل الگوریتم‌های تشخیصی بهبودیافته در پلتفرم‌های رسانه‌های اجتماعی است. استفاده از روش‌هایی مانند جستجوی معکوس عکس نیز می‌تواند برای عموم مردم بسیار مفید باشد.

جستجوی معکوس به ارائه تصویر به موتور جستجوگر و بررسی تصاویر ارائه شده مشابه گفته می‌شود که می‌تواند اطلاعاتی در مورد تصویر ارائه کند و جعلی یا واقعی بودن آن را مشخص کند.

افزایش استفاده از فناوری‌های هوش مصنوعی مانند تولیدکننده‌های تصویر احتمالا در سال‌های آینده سرعت بیشتری خواهد گرفت، بنابراین افزایش آگاهی مردم در مورد اینکه چقدر در تشخیص آن‌ها ناتوان هستیم، اهمیت دارد. در حالی که روش‌های فنی یا قانونی برای نشانه‌گذاری آن‌ها در آینده توسعه می‌یابد، تا آن زمان احتمالا این موضوع به رقابتی تسلیحاتی تبدیل خواهد شد.

منبع : ایسنا

پست قبلی

پنتاگون:
۷ گلوله خمپاره در سفارت آمریکا در بغداد فرود آمد

پست بعدی

توافق تاریخی اتحادیه اروپا در زمینه توسعه هوش مصنوعی

پست بعدی
توافق تاریخی اتحادیه اروپا در زمینه توسعه هوش مصنوعی

توافق تاریخی اتحادیه اروپا در زمینه توسعه هوش مصنوعی

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بدون نتیجه
نمایش همه نتایج

نوشته‌های تازه

  • برگزاری کارگاه «روش‌های کمی در آینده‌پژوهی» با حضور دکتر مهدی مطهرنیا/ عکس
  • دبیر شورای عالی امنیت ملی:
    در موضوع مذاکره با آمریکا آنچه تغییر کرد شرایط بود نه موضع نظام
  • اسحاق جهانگیری:
    شوخی با روح جمعی ایرانیان زخمی بر پیکر صلح جهانی وارد می‌کند
  • ناگفته ها کناره‌گیری ظریف از معاونت راهبردی
    تحریم داخلی؛ فشار به دولت
  • عزم چین و روسیه برای ایفای نقش فعال درباره موضوع هسته‌ای ایران
سه گانه های جنگ های سایه وارجنگ مینیاتوری

سه گانه های جنگ های سایه وار
جنگ مینیاتوری

فناوری‌های کوانتومی؛ معرفی، کاربردها و چالش‌ها – بخش اول حسین داودی یگانه

فناوری‌های کوانتومی؛ معرفی، کاربردها و چالش‌ها – بخش اول
حسین داودی یگانه

گفت و گوی دکتر مهدی مطهرنیا با باریخ نیوز درباره برگزاری دوره های آموزشی:    NBA؛ DBAو POST DBAدوره‌های مهارتی مدیریت آینده هستند سازمان‌ها، افراد و نهادها می توانند برحسب نیاز از دوره‌های مهارتی  استفاده کنند

سناریوهای پیشاروی جنگ غزه با توجه به نقش تهران

توسعه درک عمیق از فن آوری های دیجیتال

توسعه درک عمیق از فن آوری های دیجیتال

توصیه فعالان سیاسی اصلاح‌طلب و اصولگرا: باید مردم به صندوق رای اعتماد کنند

انتخابات و چرایی کاهش 60 درصدی مشارکت
سخن سر دبیر

گفت و گوی دکتر مهدی مطهرنیا با باریخ نیوز درباره برگزاری دوره های آموزشی:    NBA؛ DBAو POST DBAدوره‌های مهارتی مدیریت آینده هستند سازمان‌ها، افراد و نهادها می توانند برحسب نیاز از دوره‌های مهارتی  استفاده کنند

خاتمی به آینده می‌اندیشد

بیشتر بخوانید

دسته‌ها

  • اجتماعی
  • اخبار
  • اقتصادی
  • اندیشه ورزی
  • باریخ
  • باریخ_سیاست
  • باریخ-ارزش و فرهنگ
  • باریخ-اقتصاد
  • باریخ-حقوق
  • باریخ-زیست بوم
  • باریخ-فناوری
  • برگزیده
  • بین الملل
  • پادپخش
  • پادرخ
  • پندار
  • تاریخ
  • دسته‌بندی نشده
  • سیاسی
  • فرهنگی و هنری
  • فناوری
  • فناوری‌های نوظهور دیجیتال
  • کار و کسب
  • گزارش
  • گفتگو
  • مقاله
  • میزگرد
  • نیروی انسانی و نظامی
  • ورزش
  • ویژه
  • یادداشت

برگزاری کارگاه «روش‌های کمی در آینده‌پژوهی» با حضور دکتر مهدی مطهرنیا/ عکس

20 اردیبهشت, 1404

دبیر شورای عالی امنیت ملی:
در موضوع مذاکره با آمریکا آنچه تغییر کرد شرایط بود نه موضع نظام

18 اردیبهشت, 1404

اسحاق جهانگیری:
شوخی با روح جمعی ایرانیان زخمی بر پیکر صلح جهانی وارد می‌کند

18 اردیبهشت, 1404

ناگفته ها کناره‌گیری ظریف از معاونت راهبردی
تحریم داخلی؛ فشار به دولت

18 اردیبهشت, 1404

عزم چین و روسیه برای ایفای نقش فعال درباره موضوع هسته‌ای ایران

18 اردیبهشت, 1404
  • تماس با ما
  • درباره ما
فهرست
  • تماس با ما
  • درباره ما
Facebook Twitter Youtube
بدون نتیجه
نمایش همه نتایج
  • خانه
  • اخبار
    • اجتماعی
    • سیاسی
    • اقتصادی
    • بین الملل
    • فناوری
    • ورزشی
    • فرهنگی و هنری
  • کاروکسب
  • باریخ
    • اجتماعی
    • فناوری
    • اقتصاد
    • زیست بوم
    • سیاست
    • ارزش و فرهنگ
    • رسانه
    • نیروی انسانی و نظامی
    • امنیت
    • حقوق
  • تاریخ
    • تاریخ نگری
    • تاریخ نگاری
    • خاطره نگاری
  • پرسمان
  • پندار
  • پادپخش
  • پادرخ

خوش آمدید!

به حساب خود وارد شوید

فراموشی رمز عبور ؟

رمز عبور خود را بازیابی کنید

لطفاً ایمیل یا نام کاربری خود را جهت بازیابی رمز عبور وارد نمایید

وارد شدن