افزایش ایمنی هوش مصنوعی با تخصیص واترمارک

1

باریخ نیوز : پس از ماه‌ها رایزنی و درخواست برای اظهار نظر، مذاکرات بین کاخ سفید و شرکت‌های فعال در حوزه هوش مصنوعی آمازون، آنتروپیک، متا، مایکروسافت، گوگل، Inflection و OpenAI به منظور رفع نگرانی‌های دولت در مورد خطرات و مشکلات سیستم‌های هوش مصنوعی به نتیجه رسیده است.

یکی از اقدامات توافق شده، افزایش بودجه برای تحقیقات مبتنی بر تبعیض، به عنوان راهی برای مقابله با سوگیری های الگوریتمی موجود در شبکه های هوش مصنوعی است.

این شرکت ها همچنین با سرمایه گذاری بیشتر برای امنیت سایبری موافقت کردند. هنگام توسعه پروژه‌ای در ابزاری مانند ChatGPT، احتمال افشا آنلاین موارد تولید شده زیاد است و OpenAI نیز تقصیری ندارد. در نتیجه هدف از افزایش سرمایه گذاری در امنیت سایبری برای مبارزه با درز چنین اطلاعاتی است.

همچنین تخصیص واترمارک به محتوای تولید شده توسط هوش مصنوعی وعده داده شده است. این موضوع اخیراً به دلایل مختلف در مطبوعات داغ شده است.

تاکنون، شرکت های هوش مصنوعی مولد شاهد شکایت های متعددی مبنی بر عدم رعایت کپی رایت بوده‌اند. واترمارک کردن محتوای تولید شده توسط هوش مصنوعی راهی برای کاهش ترس از داده های تصادفی و تولید شده توسط انسان (از زندگی شخصی افراد) در دریای محتوای هوش مصنوعی به سرعت در حال بهبود و رشد است.

همچنین از زاویه تأثیر سیستمیک، باید تأثیر هوش مصنوعی بر مشاغل بررسی شود. در دنیا به اندازه کافی شغل‌های مختلف وجود دارد و در نهایت کارگران به سمت صنایع تحت تأثیر کمتر دیگر جذب می‌شوند، اما این انتقال هزینه های انسانی، اقتصادی و زمانی دارد. در صورت اعمال سریع تغییرات کل اقتصاد و سیستم کار ممکن است دچار مشکل شود.

البته، تخصیص واترمارک به داده‌های تولید شده توسط هوش مصنوعی (یا داده‌های مصنوعی) به نفع شرکت‌های هوش مصنوعی نیز خواهد بود. آنها تمایلی به ایجاد اختلال در سیستم هوش مصنوعی خود به دلیل وجود داده های مصنوعی، مسموم، و یا ناتوانی آن در تشخیص داده های مصنوعی از داده های شخصی امن تر و بسیار گران تر، ندارند.

و اگر مشکلات مربوط به آموزش هوش مصنوعی برای مدت طولانی با سختی مواجه باشد، توسعه دهندگان هوش مصنوعی ممکن است دیگر به مجموعه داده مناسبی برای ادامه آموزش شبکه های خود دسترسی نداشته باشند.

همه این وعده‌ها به صورت داوطلبانه بوده‌است و احتمالاً برای نشان دادن حسن نیت از سوی شرکت‌هایی که بیشترین سرمایه‌گذاری را روی هوش مصنوعی داشتند، صورت گرفته است. اما باید این مسأله را نیز در نظر گرفت: “آیا می‌توان هوش مصنوعی را با سرعت حال حاضر آن کنترل کرد؟”. اگر توسعه دهندگان هوش مصنوعی مایل به افزایش داوطلبانه ایمنی و امنیت سیستم های خود هستند، پس شاید بتوانند آن را نیز به خوبی کنترل کنند.

بخشی از مشکل این رویکرد توافق تنها هفت شرکت در این زمینه است. صدها شرکت دیگر توسعه دهنده محصولات هوش مصنوعی در چه جایگاهی قرار می‌گیرند؟ آیا می‌توان به آنهایی که در مقایسه با غول‌هایی مانند OpenAI و مایکروسافت کوچک‌تر و ضعیف‌تر هستند اعتماد کرد؟ زیرا این شرکت‌ها از ارائه محصولات هوش مصنوعی سود بیشتری می‌برند، و معیشت آنها به بیرون از فضای دارای آمادگی بستگی دارد. البته این اولین باری نیست که شرکت‌ها برای کسب درآمد از یک محصول عجله می‌کنند.

این تعهدات مستلزم تأیید و اعتبارسنجی داخلی و خارجی فعالانه آنها است. با این حال، همیشه امکان نظارت و ارتباطات نادرست، از دست‌رفتن اسناد و بروز نقاط ضعف وجود دارد.

استفاده از هوش مصنوعی یک شمشیر دو لبه است که در لبه دیگر آن خطر اساسی و در سطح انقراض وجود دارد و ما قطعاً نمی‌خواهیم در آن باشیم.

منبع : تکناک

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *