أوك لنعالجها نقطة نقطة:
مرة ثانية استخدام معلومات غير صحيحة للأسف. كلام "الباحث" هذا خاطئ بكل تأكيد أو انه يسيء استخدام كلمة "Copy" بأسوأ شكل ممكن. البيانات تبع المودلز مثل Stable diffusion كلها متوفرة اوبن سورس وتقدر تبحث فيها. ما فيه اثر لاي شيء منسوخ او مشفر ولو كان موجود فال Lawsuit حتكون موجودة مباشرة.
بغض النظر ال Theory خلف ال Neural Networks موجودة ومدروسة لو تحب تقدر تقرأ عنها وتشوف كيف ال Convolutional neural netwoks ما تحفظ اي شيء من بيانات الصورة بل تصنع منها اثقال فقط. هي أحد مجالات دراستي بالجامعة وتمثيلها من الرسامين عم يصير بشكل جدا خاطئ ويسيء لقضيتهم.
لو تقرأ نتيجة الورقة لح تشوف ان هالدراسة ما توصل للنتيجة اللي تبحث عنها بل تأكد كلامي السابق. هم استخدمو جزء صغير جداً من الداتا تبع Stable diffusion وهذه ما تمثل ال Model النهائي أبدا بل نسخة جداً صغيرة منه:
التدريب بهالورقة تم على 12 مليون صورة فقط. المودل الحقيقي تبع ستيبل ديفيوجن هو 2 مليار صورة. اكثر ب 200 ضعف. الورقة ما اثبتت شيء بالنسبة للموديل نفسه بل نسخة صغيرة جداً منه.
حجم ال Training data جدا مهم لانه كلما كبرته كلما قربت على موديل فيه Bias اقل بكثير. بالتالي ما يعيد صناعة الصور المستخدمة لشرحه الا عن طريق طلب خاص من المستخدم. وطبعاً بهالحالة المستخدم هو اللي يتحمل السرقة الفكرية.
مثل ما شرحت سابقاً بردي عن اخذ قواعد كثيرة من شخص واحد فقط. تحتاج تنوع بشكل كبير حتى توصل لموديل يعمم بشكل صحيح:
ماهكذا تؤكل الكتف.
قولك ان "كلام "الباحث" هذا خاطئ بكل تأكيد أو انه يسيء استخدام كلمة "Copy" بأسوأ شكل ممكن" ينهي النقاش.
انا اورد لك بحوث cutting edge منشورة منذ ايام فقط، وتقول بالبنط العريض بطريقة لاتقبل التأويل ان برامج الذكاء الاصطناعي تنسخ البيانات التي قامت بدراستها، وبالادلة والميثودولجي الكامل.
لايمكن مع ذلك ان ترفض استخدام نسخ او copy، لأن هذا ماحصل فعلا. مشكلتك الان ليست معي او مع الرسامين، مشكلتك مع مجتمع الباحثين في الذكاء الاصطناعي.
لو كنت مكانك، كنت لأقول:
اوه، لم انتبه لهذه النقطة. يبدو انها صحيحة وvalid criticism، ولكن التقنية مازالت في بداياتها واعتقد انها معضلة ستتخطاها في المستقبل.
لو تقرأ نتيجة الورقة لح تشوف ان هالدراسة ما توصل للنتيجة اللي تبحث عنها بل تأكد كلامي السابق. هم استخدمو جزء صغير جداً من الداتا تبع Stable diffusion وهذه ما تمثل ال Model النهائي أبدا بل نسخة جداً صغيرة منه:
The goal of this study was to evaluate whether diffusion
models are capable of reproducing high-fidelity content
from their training data, and we find that they are.
While typical images from large-scale models do not appear
to contain copied content that was detectable using our feature
extractors, copies do appear to occur often enough that
their presence cannot be safely ignored; Stable Diffusion
images with dataset similarity :5; as depicted in Fig. 7,
account for approximate 1:88% of our random generations.
Note, however, that our search for replication in Stable
Diffusion only covered the 12M images in the LAION
Aesthetics v2 6+ dataset. The model was first trained
on over 2 billion images, before being fine-tuned on the
600M LAION Aesthetics V2 5+ split. The dataset that we
searched in our study is a small subset of this fine-tuning
data, comprising less than 0:6% of the total training data.
حقيقة لا ادري ماهي نقطتك. نتيجة الدراسة توضح بشكل واضح لايحتمل التأويل ان ال diffusion models قادرة على النسخ من البيانات التي تم تدريبها عليه. هم ذكروا بأن المودلز المبنية على بيانات ضخمة لا تبدو بأنها تحتوي على محتويات منسوخة يمكننا اكتشافها بالتقنيات التي نستخدمها ولكن عمليات النسخ تحدث لدرجة لايمكن معها تجاهل وجودها.
مدري مين ينظّر ويخترع فرضيات هنا لاني اعطيت مصادر تثبت وجود موديلز تقدر تصنع موسيقى بس فيه صعوبة اعلى مقارنة بالصور. لو ما تحب تاخذ رايي تقدر تقرا ردود من ريديت:
ومثل ما قلت الموديلز موجودة. تحتاج تنتظر فترة حتى تشوفها تنتشر بشكل اكبر اكيد.
مجددا، dont strawman me بالله عليك.
انا لم اجادلك في وجود موديلز تستطيع صنع موسيقى، هذا ادعاء من جيبك. كل ماقلته هو ان هذه الشركات تقوم باتخاذ جميع اجراءات الحذر في الجانب الموسيقي ببينما يسرقون حقوق الملكية في الجانب البصري. دانس ديفيوشن وهي البرنامج الموسيقي من نفس الشركة صانعة ستابل ديفيوشن يقولون ذلك علانية على موقعهم:
هذا دليل دامغ على ان مايقومون به في الجانب البصري غير اخلاقي وغير قانوني.
المقارنة بمكانها تماماً. الآلات ما تعلّمت تزرع وتحرث بدون ما تبرمجها من تعلّم كيف البشر عملوا هالشيء. حتى لو ما فيه شبكة ذكاء اصطناعي الخوارزميات تمشي على طرق تعاملنا كبشر.
كلامك عن الحقوق الفكرية ما يمس كلامي بل انا أييدها بشكل كبير. الحقوق الفكرية ما تحمي أساليب الرسم وهذه النقطة ان المودلز تتعلم هالشيء بشكل خاص. هذه مقالة عن الموضوع:
A Guide To Copyright Infringement - The Illustrators Guide
What counts as a copyright infringement? What should you do if your work is used without your consent, and how do you deal with artists copying your style?theillustratorsguide.com
وكووت:
ومثل ما قالوا ما لازم تنسخ او تستلهم من رسام معيّن فقط. لهيك تستخدم AI لتستلهم من اكبر عدد ممكن
لم يتحدث احد عن اساليب الرسم، انت تعود مجددا للstrawman argument.
هذه الشركات استولت على بلايين الصور واللوحات بدون اذن من اصحابها. هذه سرقة يا زميل. لو قامت الشركات بانتاج نفس برامج الرسم بالذكاء الاصطناعي معتمدة بشكل كامل على ملفات بدون حماية فكرية (تماما كما فعلوا في الجانب الموسيقي) لم تكن لترى هذا الرفض الشديد له.
اعتقد ان النقطة بسيطة للغاية، من غير الممكن انك لاتستطيع رؤيتها.