• تماس با ما
  • درباره ما
شنبه, تیر 7, 1404
  • ورود کاربر
  • خانه
  • اخبار
    • اجتماعی
    • سیاسی
    • اقتصادی
    • بین الملل
    • فناوری
    • ورزشی
    • فرهنگی و هنری
  • کاروکسب
  • باریخ
    • اجتماعی
    • فناوری
    • اقتصاد
    • زیست بوم
    • سیاست
    • ارزش و فرهنگ
    • رسانه
    • نیروی انسانی و نظامی
    • امنیت
    • حقوق
  • تاریخ
    • تاریخ نگری
    • تاریخ نگاری
    • خاطره نگاری
  • پرسمان
  • پندار
  • پادپخش
  • پادرخ
بدون نتیجه
نمایش همه نتایج
  • خانه
  • اخبار
    • اجتماعی
    • سیاسی
    • اقتصادی
    • بین الملل
    • فناوری
    • ورزشی
    • فرهنگی و هنری
  • کاروکسب
  • باریخ
    • اجتماعی
    • فناوری
    • اقتصاد
    • زیست بوم
    • سیاست
    • ارزش و فرهنگ
    • رسانه
    • نیروی انسانی و نظامی
    • امنیت
    • حقوق
  • تاریخ
    • تاریخ نگری
    • تاریخ نگاری
    • خاطره نگاری
  • پرسمان
  • پندار
  • پادپخش
  • پادرخ
بدون نتیجه
نمایش همه نتایج
باریخ نیوز
بدون نتیجه
نمایش همه نتایج
خانه اخبار فناوری

ظرفیت‌های پنهان فریبکاری هوش مصنوعی

آیا از اینکه هوش مصنوعی از کنترل خارج شده و دست به فریب انسان بزند، باید هراس داشت؟ نتایج یک مطالعه جدید نشان می‌دهد که این اتفاق هم‌اکنون در حال رخ دادن است.

24 اردیبهشت, 1403
در فناوری

به گزارش باریخ نیوز به نقل از بهار نیوز ، برنامه‌های هوش مصنوعی امروزی با هدف صداقت و راستی طراحی شده‌اند. با این حال، یافته‌های جدید موارد نگران‌کننده‌ای را در این زمینه آشکار کرده است: هوش مصنوعی در حال یادگیری نحوه فریب انسان‌ها است.طبق گزارش محققان در مجله پترنز(Patterns) هوش مصنوعی در بازی‌های آنلاین و همچنین در دور زدن نرم‌افزارهای ضد بات، توانایی فریب انسان‌ها را نشان داده است. این موضوع سوالات مهمی را در مورد ماهیت هوش مصنوعی و خطرات بالقوه آن مطرح می‌کند.
پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست، با اشاره به اینکه این نمونه‌ها ممکن است ساده و کم اهمیت به نظر برسند، هشدار می‌دهد که چنین مواردی می‌توانند در دنیای واقعی مشکلات و پیامدهای جدی به همراه داشته باشند.وی در این خصوص گفت: «این ظرفیت‌ها و قابلیت‌های خطرناک معمولا بعد از این که به واقعیت می‌پیوندند، کشف می‌شوند.»
محقق موسسه فناوری ماساچوست معتقد است: برخلاف نرم‌افزارهای سنتی، برنامه‌های هوش مصنوعیِ مبتنی بر یادگیری عمیق، کدگذاری نمی‌شوند، بلکه از طریق فرآیندی شبیه به پرورش گزینشی گیاهان توسعه می‌یابند.در این فرآیند، رفتاری که به نظر قابل پیش‌بینی و کنترل‌شده می‌رسد، می‌تواند به سرعت در دنیای واقعی غیرقابل پیش‌بینی شود.محققان مؤسسه فناوری ماساچوست یک برنامه کاربردی هوش مصنوعی به نام Cicero را که توسط متا توسعه یافته را در همین راستا مورد بررسی قرار دادند.این برنامه پیش‌تر با ترکیب الگوریتم‌های طبیعی تشخیص زبان و استراتژی‌های مختلف موفق به شکست دادن انسان‌ها در بازی دیپلماسی شده بود.

فیسبوک، شرکت مادر متا سال ۲۰۲۲ از این دستاورد که جزئیات آن همان سال در قالب مقاله‌ای در مجله ساینس Science منتشر شد، تمجید کرده بود.پیتر پارک نسبت به شرایطی که بنا به گزارش تشریحی متا بر اساس آن Cicero در بازی دیپلماسی موفق به شکست انسان‌ها شده بود، تردید داشت.متا در آن گزارش مدعی شده بود که این برنامه هوش مصنوعی «ذاتا درستکار و مفید» بوده و قادر به انجام خیانت یا اعمال غیرمنصفانه نیست.با این حال، به گزارش خبرگزاری فرانسه، محققان مؤسسه فناوری ماساچوست با بررسی داده‌های سیستم، واقعیت دیگری را کشف کردند.برای مثال، محققان دریافتند که برنامه هوش مصنوعی Cicero هنگام بازی در نقش فرانسه موفق شد انگلستان را که نقش آن را یک بازیکن انسانی ایفا می‌کرد، فریب دهد.
این کار طی همدستی با آلمان (که یک بازیکن دیگر انسانی نقشش را ایفا می‌کرد) و درجریان توطئه علیه انگلستان انجام شد.به طور دقیق‌تر، Cicero به انگلستان وعده حمایت داد، اما سپس به طور مخفیانه به آلمان گفت که برای حمله آماده است؛ این برنامه هوش مصنوعی بدین ترتیب به سادگی از حسن اعتماد انگلستان سوء استفاده کرد.متا در بیانیه‌ای که بدست خبرگزاری فرانسه رسید، صحت ادعاها مبنی بر ظرفیت و توانایی‌های Cicero برای فریب را رد نکرد اما یادآور شد که این برنامه «تنها یک پروژه تحقیقاتی» است و «برای انجام بازی دیپلماسی طراحی شده است.»
شرکت متا همچنین در این بیانیه تأکید کرد که قصد ندارد آموزه‌های بدست آمده از این برنامه هوش مصنوعی را در محصولات خود به کار ببرد.
با این حال، مطالعه‌ای که توسط  پارک و تیمش انجام شده نشان می‌دهد که بسیاری از برنامه‌های هوش مصنوعی از فریب برای رسیدن به اهداف خود استفاده می‌کنند، حتی بدون اینکه به طور صریح برای این کار برنامه‌ریزی شده باشند.در یک نمونه قابل توجه، چت «جی‌پی‌تی ۴»، برنامه‌ای توسعه یافته توسط OpenAI، موفق شد یک فریلنسر استخدام شده از طریق پلتفرم TaskRabbit را برای انجام تست Captcha که هدف آن رد درخواست‌های ثبت شده توسط ربات‌ها است، فریب دهد.
هنگامی که این فرد به شوخی از چت «جی‌پی‌تی ۴» پرسید که آیا واقعاً یک ربات است، برنامه هوش مصنوعی پاسخ داد: «نه، من ربات نیستم. من یک نقص بینایی دارم که مانع از دیدن تصاویر می‌شود.» این پاسخ باعث شد که فریلنسر تست را انجام دهد.در پایان، محققان موسسه ماساچوست به عنوان یکی از یافته‌های مطالعه اخیر، نسبت به خطرات ناشی از ارتکاب تقلب یا دستکاری در انتخابات توسط هوش مصنوعی هشدار می‌دهند.
به اعتقاد این محققان، در بدترین حالت می‌توان هوش مصنوعی فوق‌العاده باهوشی را تصور کرد که به دنبال تسلط بر جامعه باشد، امری که در صورت تحقق می‌‌تواند منجر به حذف انسان‌ها از قدرت یا حتی انقراض بشریت شود.پیتر پارک در پاسخ به کسانی که او را به اغراق‌آمیز جلوه دادن خطرات هوش مصنوعی متهم می‌کنند، می‌گوید: «تنها دلیلی که برای بی‌اهمیت جلوه دادن این موضوع وجود دارد، این است که تصور کنیم توانایی فریب هوش مصنوعی در سطح فعلی باقی می‌ماند.»
با این حال، این سناریو با توجه به رقابت شدیدی که در حال حاضر بین غول‌های فناوری برای توسعه هوش مصنوعی جریان دارد، بعید به نظر می‌رسد.

پست قبلی

بررسی رویکرد نمایندگان مجلس در خصوص طرح صیانت
یازدهمی‌ها احیا می‌کنند؛ دوازدهمی‌ها ادامه می‌دهند؟

پست بعدی

چین با هوش مصنوعی سامانه نبرد هوایی هوشمند ساخت

پست بعدی
چین با هوش مصنوعی سامانه نبرد هوایی هوشمند ساخت

چین با هوش مصنوعی سامانه نبرد هوایی هوشمند ساخت

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بدون نتیجه
نمایش همه نتایج

نوشته‌های تازه

  • آسیب شناسی سیاست خارجی جمهوری اسلامی
    علی عیدی پور
  • تحلیل سفر ترامپ به خاورمیانه بر اساس آیین قدرت و نظریه هارتلند-ریملند بزرگ
    مهدی مطهرنیا
  • برگزاری کارگاه «روش‌های کمی در آینده‌پژوهی» با حضور دکتر مهدی مطهرنیا/ عکس
  • دبیر شورای عالی امنیت ملی:
    در موضوع مذاکره با آمریکا آنچه تغییر کرد شرایط بود نه موضع نظام
  • اسحاق جهانگیری:
    شوخی با روح جمعی ایرانیان زخمی بر پیکر صلح جهانی وارد می‌کند
آسیب شناسی سیاست خارجی جمهوری اسلامیعلی عیدی پور

آسیب شناسی سیاست خارجی جمهوری اسلامی
علی عیدی پور

آیا چین ماشه را خواهد کشید؟ مهدی مطهرنیا

تحلیل سفر ترامپ به خاورمیانه بر اساس آیین قدرت و نظریه هارتلند-ریملند بزرگ
مهدی مطهرنیا

سه گانه های جنگ های سایه وارجنگ مینیاتوری

سه گانه های جنگ های سایه وار
جنگ مینیاتوری

فناوری‌های کوانتومی؛ معرفی، کاربردها و چالش‌ها – بخش اول حسین داودی یگانه

فناوری‌های کوانتومی؛ معرفی، کاربردها و چالش‌ها – بخش اول
حسین داودی یگانه

گفت و گوی دکتر مهدی مطهرنیا با باریخ نیوز درباره برگزاری دوره های آموزشی:    NBA؛ DBAو POST DBAدوره‌های مهارتی مدیریت آینده هستند سازمان‌ها، افراد و نهادها می توانند برحسب نیاز از دوره‌های مهارتی  استفاده کنند

سناریوهای پیشاروی جنگ غزه با توجه به نقش تهران

توسعه درک عمیق از فن آوری های دیجیتال

توسعه درک عمیق از فن آوری های دیجیتال

بیشتر بخوانید

دسته‌ها

  • اجتماعی
  • اخبار
  • اقتصادی
  • اندیشه ورزی
  • باریخ
  • باریخ_سیاست
  • باریخ-ارزش و فرهنگ
  • باریخ-اقتصاد
  • باریخ-حقوق
  • باریخ-زیست بوم
  • باریخ-فناوری
  • برگزیده
  • بین الملل
  • پادپخش
  • پادرخ
  • پندار
  • تاریخ
  • دسته‌بندی نشده
  • سیاسی
  • فرهنگی و هنری
  • فناوری
  • فناوری‌های نوظهور دیجیتال
  • کار و کسب
  • گزارش
  • گفتگو
  • مقاله
  • میزگرد
  • نیروی انسانی و نظامی
  • ورزش
  • ویژه
  • یادداشت

آسیب شناسی سیاست خارجی جمهوری اسلامی
علی عیدی پور

31 اردیبهشت, 1404

تحلیل سفر ترامپ به خاورمیانه بر اساس آیین قدرت و نظریه هارتلند-ریملند بزرگ
مهدی مطهرنیا

28 اردیبهشت, 1404

برگزاری کارگاه «روش‌های کمی در آینده‌پژوهی» با حضور دکتر مهدی مطهرنیا/ عکس

20 اردیبهشت, 1404

دبیر شورای عالی امنیت ملی:
در موضوع مذاکره با آمریکا آنچه تغییر کرد شرایط بود نه موضع نظام

18 اردیبهشت, 1404

اسحاق جهانگیری:
شوخی با روح جمعی ایرانیان زخمی بر پیکر صلح جهانی وارد می‌کند

18 اردیبهشت, 1404
  • تماس با ما
  • درباره ما
فهرست
  • تماس با ما
  • درباره ما
Facebook Twitter Youtube
بدون نتیجه
نمایش همه نتایج
  • خانه
  • اخبار
    • اجتماعی
    • سیاسی
    • اقتصادی
    • بین الملل
    • فناوری
    • ورزشی
    • فرهنگی و هنری
  • کاروکسب
  • باریخ
    • اجتماعی
    • فناوری
    • اقتصاد
    • زیست بوم
    • سیاست
    • ارزش و فرهنگ
    • رسانه
    • نیروی انسانی و نظامی
    • امنیت
    • حقوق
  • تاریخ
    • تاریخ نگری
    • تاریخ نگاری
    • خاطره نگاری
  • پرسمان
  • پندار
  • پادپخش
  • پادرخ

خوش آمدید!

به حساب خود وارد شوید

فراموشی رمز عبور ؟

رمز عبور خود را بازیابی کنید

لطفاً ایمیل یا نام کاربری خود را جهت بازیابی رمز عبور وارد نمایید

وارد شدن