فنانون ادخلوا تغييرات على اعمالهم لتحصينها من استغلال بعض مبتكري برامج الذكاء الاصطناعي

في ظل استغلال بعض مبتكري برامج الذكاء الاصطناعي البيانات بصورة كبيرة، يعمل عدد من الفنانين بمساعدة باحثين جامعيين على إدخال تغييرات إلى أعمالهم حتى تُصبح غير قابلة للاستخدام.

بالوما ماكلين رسامة أميركية. وبدأت برامج كثيرة للذكاء الاصطناعي التوليدي توفر أصلاً إمكان ابتكار صور مستوحاة من أسلوب عملها، مع أنّ الفنانة لم توافق على ذلك ولا تستفيد منه مالياً.

وتقول الرسامة المقيمة في هيوستن-تكساس “أنزعج من ذلك”، مضيفةً “أنا لست فنانة مشهورة، لكنني انزعجت من فكرة استخدام أعمالي لتدريب” نماذج للذكاء الاصطناعي.

وسعياً إلى الحد من استغلال أعمالها، استعانت ماكلين ببرنامج “غليز” لإضافة عناصر بكسل غير المرئية للعين المجردة إلى أعمالها، بهدف تعطيل عمل الذكاء الاصطناعي.

وبعد خطوتها هذه، باتت الصور التي يتم إنشاؤها غير واضحة.

يقول بن تشاو، وهو باحث في جامعة شيكاغو أنشأ فريقه برنامج “غليز” “نحاول توفير الأدوات التكنولوجية لحماية المبتكرين من إساءة استخدام نماذج الذكاء الاصطناعي التوليدية”.

وابتكر هذا الأستاذ في علوم الكمبيوتر برنامج “غليز” في أربعة أشهر فقط، مستعيناً بأعمال سابقة ترمي إلى تعطيل تقنية التعرف على الوجوه.

يقول بن تشاو “عملنا بأقصى سرعة، لأننا كنا ندرك أنّ المشكلة خطرة”، مضيفاً “كانت نسبة كبيرة من الناس متضررة”.

وأبرمت شركات كبرى متخصصة في الذكاء الاصطناعي التوليدي صفقات لضمان الحقوق المرتبطة باستخدام محتوى معين، إلا أنّ غالبية البيانات والصور والنصوص والأصوات المستخدمة لابتكار النماذج استُخدمت من دون الحصول على موافقة صريحة.

وجرى تحميل “غليز” منذ إطلاقه أكثر من 1,6 مليون مرة، بحسب الباحث الذي يستعد فريقه لإطلاق برنامج جديد هو “نايت شايد”.

يركز “غليز” على الطلبات التي تكون لغتها بسيطة وعادة ما يستعين بها المستخدم في نماذج الذكاء الاصطناعي التوليدي للحصول على صورة جديدة. ويرمي إلى تعطيل عمل الخوارزمية التي تقترح فوراً احتمالاً آخر كابتكار صورة قط بدل صورة كلب.

حماية البيانات الصوتية

ثمة مبادرة أخرى في هذا الخصوص خاصة بشركة “سبانينغ” التي ابتكرت برنامج “كودورو” الذي يرصد المحاولات الكبيرة لجمع الصور عبر المنصات المتخصصة.

ويمكن للفنان إما وقف إتاحة أعماله أو إرسال صورة غير تلك المطلوبة، وهو ما يشكل “تسميماً” لنموذج للذكاء الاصطناعي قيد الابتكار والتأثير على مدى موثوقيته، على قول جوردان ماير، المشارك في تأسيس “سبانينغ”.

وتم دمج أكثر من ألف موقع الكتروني في شبكة “كودورو”.

وابتكرت شركة “سبانينغ” أيضاً “هاف آي بِن ترايند”  (haveibeentrained.com)، وهو موقع يرصد ما إذا كان نموذج للذكاء الاصطناعي استعان بصور ويمنح مالك هذه الصور القدرة على حمايتها من أي استخدام مستقبلي لا يحظى بموافقته.

وبالإضافة إلى الصور، ركّز باحثون من جامعة واشنطن في سانت لويس (ميسوري) على بيانات صوتية وابتكروا “أنتي فايك”.

يضيف هذا البرنامج إلى ملف صوتي أصواتاً إضافية غير محسوسة للأذن البشرية، مما يجعل تقليد الصوت البشري أمرا مستحيلا، بحسب ما يوضح تشييوان يو، وهو طالب دكتوراه مسؤول عن فكرة هذا المشروع.

ويرمي البرنامج تحديداً إلى منع ما يُسمى بـ”ديب فايك” (“التزييف العميق”)، وهي تلاعبات رقمية تتزايد نسبتها وقربها من الواقع.

وأخيراً، تواصل منتجو بودكاست ناجح يرغبون في حمايته من أي استخدام سيء، مع الفريق الذي يشرف عليه البروفيسور نينغ تشانغ، بحسب تشييوان يو.

ومع أنّ “أنتي فايك” لم يُستخدم حتى الآن سوى في مجال اللغة، يمكن أن يوفر حماية لأصوات المطربين والمطربات، على قول الباحث.

وقد تواصلت “شركات كثيرة راغبة في استخدام نايت شايد لحفظ صورها وملكيتها الفكرية”، مع فريق بن تشاو، بحسب جامعة شيكاغو.

يقول بن تشاو إنّ “الهدف يكمن في أن يتمكن الأشخاص من حماية المحتوى الخاص بهم، سواء كانوا فنانين أو شركات تتمتع بقدر كبير من الملكية الفكرية”.

في حالة “سبانينغ”، لا تقتصر الفكرة على العرقلة فحسب، بل بـ”جعل الناس قادرين على بيع بياناتهم لقاء مبالغ”، وفق ماير الذي أعلن عن إطلاق منصة في مطلع العام 2024.

ويتابع “إن الحل الأفضل هو الوصول إلى عالم تخضع فيه كل البيانات المستخدمة في الذكاء الاصطناعي لموافقة المعنيين والدفع مقابل استخدام أعمالهم. ونأمل أن ننجح في دفع المطورين في هذا الاتجاه”.

مقالات ذات صلة

زر الذهاب إلى الأعلى

تم الكشف عن مانع الإعلانات

يرجى إلغاء تنشيط مانع الإعلانات الخاص بك حتى تتمكن من استخدام موقعنا.