خبرگزاری ایسنا |
۱ هفته پیش

تعهد شرکت های پیشرو در هوش مصنوعی برای حفاظت از کودکان ایسنا

تعهد شرکت‌های پیشرو در هوش مصنوعی برای حفاظت از کودکان

شرکت‌های پیشروی جهان در زمینه هوش مصنوعی متعهد می‌شوند که از ایمنی آنلاین کودکان محافظت کنند.

به گزارش ایسنا،شرکت‌های اوپن ای‌آی(OpenAI)، مایکروسافت، گوگل، متا و دیگران که همگی دستی بر آتش هوش مصنوعی و توسعه روزافزون آن دارند، قول داده‌اند که مانع ابزارهای هوش مصنوعی برای تولید و انتشار محتوای حاوی سوء استفاده از کودکان به ویژه سوء استفاده جنسی از آنان شوند.

به نقل از انگجت، شرکت‌های پیشرو در حوزه هوش مصنوعی از جمله اوپن ای‌آی، مایکروسافت، گوگل و متا به طور مشترک متعهد شده‌اند که نگذارند ابزارهای هوش مصنوعی برای بهره‌کشی از کودکان و سوء استفاده جنسی از آنها مورد استفاده قرار گیرند.

این ابتکار توسط گروه ایمنی کودکان تورن(Thorn) و All Tech Is Human که یک سازمان غیرانتفاعی متمرکز بر فناوری مسئولانه است، رهبری می‌شود.

این سازمان‌ها می‌گویند، این متعهد شدن شرکت‌های هوش مصنوعی، سابقه‌ای پیشگامانه برای این صنعت ایجاد کرد و نشان‌دهنده یک جهش قابل توجه در تلاش‌ها برای دفاع از کودکان در برابر سوء استفاده جنسی در ارتباط با هوش مصنوعی مولد است.

هدف این ابتکار جلوگیری از ایجاد مطالب صریح جنسی برای کودکان و حذف آن از سکوهای رسانه‌های اجتماعی و موتورهای جستجو است.

سازمان تورن می‌گوید، بیش از ۱۰۴ میلیون فایل حاوی مطالب مشکوک به سوء استفاده جنسی از کودکان تنها در سال ۲۰۲۳ در ایالات متحده گزارش شده است و در غیاب یک اقدام جمعی، هوش مصنوعی مولد می‌تواند این مشکل را بدتر کند و سازمان‌های مجری قانون را که در حال حاضر برای شناسایی قربانیان واقعی تلاش می‌کنند، تحت تأثیر قرار دهد.

روز گذشته این دو سازمان مقاله جدیدی با عنوان «ایمنی در طراحی هوش مصنوعی مولد: جلوگیری از سوء استفاده جنسی از کودکان» منتشر کردند که استراتژی‌ها و توصیه‌هایی را برای شرکت‌هایی که ابزارهای هوش مصنوعی، موتورهای جستجو، سکوهای رسانه‌های اجتماعی و شرکت‌های هاستینگ را می‌سازند، ارائه می‌کند تا توسعه دهندگان اقدامات لازم را برای جلوگیری از استفاده از هوش مصنوعی مولد برای آسیب رساندن به کودکان انجام دهند.

به عنوان مثال، یکی از توصیه‌ها از شرکت‌ها می‌خواهد که مجموعه‌های داده‌ای را به دقت برای آموزش مدل‌های هوش مصنوعی انتخاب کنند و نه فقط از مجموعه‌هایی که حاوی نمونه‌هایی از سوء استفاده جنسی از کودکان هستند، بلکه کلاً از محتوای جنسی بزرگسالان نیز پرهیز کنند، چرا که هوش مصنوعی مولد تمایل دارد هر دوی آنها را با هم ترکیب کند.

تورن همچنین از سکوهای رسانه‌های اجتماعی و موتورهای جستجو می‌خواهد پیوندهایی به وب‌سایت‌ها و برنامه‌هایی که به افراد اجازه می‌دهد از تصاویر کودکان سوء استفاده کنند، حذف کنند.

بر اساس این مقاله، سیل محتواهای سوءاستفاده از کودکان تولید شده توسط هوش مصنوعی، شناسایی قربانیان واقعی سوء استفاده جنسی از کودکان را دشوارتر می‌کند.

ربکا پورتنوف، معاون علوم داده سازمان تورن به وال استریت ژورنال گفت: ما می‌خواهیم بتوانیم مسیر این فناوری را به سمتی تغییر دهیم که آسیب‌های موجود این فناوری از پایه قطع شود.

پورتنوف گفت برخی از شرکت‌ها قبلاً توافق کرده بودند تصاویر، ویدیو و صداهایی را که شامل کودکان می‌شد از مجموعه داده‌های حاوی محتوای بزرگسالان جدا کنند تا مدل‌هایشان از ترکیب این دو جلوگیری کنند. دیگران نیز برای شناسایی محتوای تولید شده توسط هوش مصنوعی، واترمارک به آن اضافه می‌کنند، اما این روش کارساز نیست، چرا که واترمارک‌ها را می‌توان به راحتی حذف کرد.

انتهای پیام



#‌اخبار منبع: خبرگزاری ایسنا

بیشتر...


تبلیغات

تبلیغات

مطالب مرتبط

رسانه‌های صهیونیستی یکشنبه شب از حمله موشکی به مواضع نظامیان ارتش رژیم اشغالگر در جولان اشغالی سوریه خبر دادند.

1 ساعت پیش

جدال بزرگ المپیکو هرچند پرموقعیت و جذاب دنبال شد، اما برنده نداشت و دو تیم به یک امتیاز این بازی رضایت دادند

نیم ساعت پیش

دلیل حمله سرمربی فولاد به آلترناتیو خود مشخص شد.

1 ساعت پیش

نویسنده و طنزپرداز معاصر ایرانی در روز یکشنبه، ۱۶ اردیبهشت ۱۴۰۳ در شهر بم درگذشت.

نیم ساعت پیش

مسابقات هفته بیست و ششم لیگ برتر فوتبال با انجام ۷ دیدار امروز (روز دوشنبه) در شهر‌های مختلف به پایان می‌رسد.

1 ساعت پیش

شماره ۹ پرسپولیس از پست خودش در این تیم رضایت ندارد.

1 ساعت پیش

بازی تیم‌های رم و یوونتوس با تساوی به پایان رسید.

1 ساعت پیش

در مهمترین دیدار‌های هفته بیست‌وششم لیگ برتر فوتبال، استقلال و پرسپولیس در تهران و قائمشهر به مصاف حریفان خود می‌روند، یکی به امید ماندن در صدر و دیگری در آرزوی لغزش رقیب بالادستی‌اش.

1 ساعت پیش

اوسمار برای دومین بار به ورزشگاه وطنی می رود.

1 ساعت پیش

بیشتر...