يقول البيت الأبيض إن عدة موردين رئيسيين للذكاء الاصطناعي قد التزموا باتخاذ خطوات لمكافحة الصور العارية الوهمية غير الرغبة فيها ومواد الاعتداء الجنسي على الأطفال.
وقالت Adobe و Cohere و Microsoft وAnthropic OpenAI ومزود البيانات Common Crawl إنهم سيقومون بـ "بمصداقية" بمصدر وحماية البيانات التي ينشؤونها ويستخدمونها لتدريب الذكاء الاصطناعي من الصور الخاصة بالاعتداء الجنسي. هذه المؤسسات - باستثناء Common Crawl - قالت أيضًا إنهم سيدمجون حلقات ردود الفعل والاستراتيجيات في عمليات التطوير الخاصة بهم للحراسة ضد إنشاء الذكاء الاصطناعي لصور الاعتداء الجنسي. وقالوا (مرة أخرى، باستثناء Common Crawl) إنهم سيتعهدون بإزالة الصور العارية من مجموعات بيانات تدريب الذكاء الاصطناعي "عندما يكون مناسبًا ويعتمد على الغرض من النموذج."
يُلاحظ أن هذه التزامات تُفرض ذاتيًا. اختار العديد من موردي الذكاء الاصطناعي عدم المشاركة (على سبيل المثال، Midjourney، Stability AI، وغيرها). وتثير التعهدات الخاصة بـ OpenAI أسئلة خاصة، حيث قال الرئيس التنفيذي سام ألتمان في مايو أن الشركة ستبحث في كيفية إنشاء الإباحية بالذكاء الاصطناعي "بمصداقية".
على الرغم من ذلك، أشاد البيت الأبيض بها كانت هي فوز في جهوده الأوسع لتحديد وتقليل الضرر الناجم عن صور العار الوهمية.