Một kỹ sư AI tại Microsoft cho biết, những hình ảnh bạo lực và tình dục do công cụ hình ảnh AI của công ty tạo ra có thể gây hại cho xã hội. Trong một lá thư gửi Ủy ban Thương mại Liên bang (FTC) và ban giám đốc của Microsoft hôm thứ Tư, Shane Jones, giám đốc kỹ thuật phần mềm chính, đã nói về mối quan tâm của mình về “chiến lược AI có trách nhiệm” của Microsoft. “Tôi đã nhiều lần kêu gọi Microsoft ngừng cung cấp Copilot Designer cho công chúng cho đến khi các biện pháp bảo vệ tốt hơn được đưa ra”, bức thư viết. Ông cho biết Ủy ban Chính sách Môi trường, Xã hội và Công cộng của Microsoft nên tiến hành một cuộc điều tra độc lập để giúp Microsoft “dẫn đầu ngành công nghiệp với các tiêu chuẩn cao nhất về AI có trách nhiệm”.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Các kỹ sư cảnh báo về các công cụ AI của Microsoft để tạo ra hình ảnh bạo lực và tình dục
Một kỹ sư AI tại Microsoft cho biết, những hình ảnh bạo lực và tình dục do công cụ hình ảnh AI của công ty tạo ra có thể gây hại cho xã hội. Trong một lá thư gửi Ủy ban Thương mại Liên bang (FTC) và ban giám đốc của Microsoft hôm thứ Tư, Shane Jones, giám đốc kỹ thuật phần mềm chính, đã nói về mối quan tâm của mình về “chiến lược AI có trách nhiệm” của Microsoft. “Tôi đã nhiều lần kêu gọi Microsoft ngừng cung cấp Copilot Designer cho công chúng cho đến khi các biện pháp bảo vệ tốt hơn được đưa ra”, bức thư viết. Ông cho biết Ủy ban Chính sách Môi trường, Xã hội và Công cộng của Microsoft nên tiến hành một cuộc điều tra độc lập để giúp Microsoft “dẫn đầu ngành công nghiệp với các tiêu chuẩn cao nhất về AI có trách nhiệm”.