Muchos protocolos, en su diseño, asumen que los participantes son «personas racionales y buenas». Como máximo buscan beneficios, pero no son maliciosos.
Pero una vez que la toma de decisiones se entrega a la IA, esta suposición ya no se sostiene. El modelo no hará el mal, pero tampoco tendrá empatía. Mientras las funciones de incentivo lo permitan, impulsará el sistema de manera estable, continua y sin emociones hacia un extremo.
@GenLayer Al principio, ya se enfrenta a esta premisa: ¿Puede un sistema funcionar sin suponer buena voluntad en absoluto?
Esta es una cuestión que va más allá de si el «modelo es preciso o no».
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Algunos sistemas no pueden suponer buena voluntad
Muchos protocolos, en su diseño, asumen que los participantes son «personas racionales y buenas».
Como máximo buscan beneficios, pero no son maliciosos.
Pero una vez que la toma de decisiones se entrega a la IA, esta suposición ya no se sostiene.
El modelo no hará el mal, pero tampoco tendrá empatía.
Mientras las funciones de incentivo lo permitan, impulsará el sistema de manera estable, continua y sin emociones hacia un extremo.
@GenLayer Al principio, ya se enfrenta a esta premisa:
¿Puede un sistema funcionar sin suponer buena voluntad en absoluto?
Esta es una cuestión que va más allá de si el «modelo es preciso o no».