Un ingénieur en IA de Microsoft a déclaré que les images violentes et sexuelles générées par l’outil d’image IA de l’entreprise pourraient nuire à la société. Dans une lettre adressée mercredi à la Federal Trade Commission (FTC) et au conseil d’administration de Microsoft, Shane Jones, directeur principal de l’ingénierie logicielle, a fait part de ses préoccupations concernant la « stratégie d’IA responsable » de Microsoft. « J’ai exhorté à plusieurs reprises Microsoft à cesser de mettre Copilot Designer à la disposition du public jusqu’à ce que de meilleures garanties soient mises en place », peut-on lire dans la lettre. Il a déclaré que le comité environnemental, social et de politique publique de Microsoft devrait mener une enquête indépendante pour aider Microsoft à « diriger l’industrie avec les normes les plus élevées en matière d’IA responsable ».
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les ingénieurs mettent en garde contre les outils d’IA de Microsoft pour générer des images violentes et sexuelles
Un ingénieur en IA de Microsoft a déclaré que les images violentes et sexuelles générées par l’outil d’image IA de l’entreprise pourraient nuire à la société. Dans une lettre adressée mercredi à la Federal Trade Commission (FTC) et au conseil d’administration de Microsoft, Shane Jones, directeur principal de l’ingénierie logicielle, a fait part de ses préoccupations concernant la « stratégie d’IA responsable » de Microsoft. « J’ai exhorté à plusieurs reprises Microsoft à cesser de mettre Copilot Designer à la disposition du public jusqu’à ce que de meilleures garanties soient mises en place », peut-on lire dans la lettre. Il a déclaré que le comité environnemental, social et de politique publique de Microsoft devrait mener une enquête indépendante pour aider Microsoft à « diriger l’industrie avec les normes les plus élevées en matière d’IA responsable ».