Tecnología de huellas digitales: monetización sostenible de la IA de código abierto en la capa de modelos
Nuestra misión es crear modelos de IA que sirvan fielmente a los 8 mil millones de personas del planeta.
Es una visión ambiciosa, capaz de suscitar preguntas, despertar curiosidad o incluso generar inquietud. Pero precisamente eso es lo que requiere la innovación con sentido: forzar los límites de lo posible y cuestionar hasta dónde puede llegar la humanidad.
En el centro de esta misión está el concepto de Loyal AI, un nuevo paradigma basado en tres pilares: propiedad, control y alineación. Estos principios determinan si un modelo de IA es verdaderamente “leal”: fiel tanto a su creador como a la comunidad a la que sirve.
En esencia,
Lealtad = Propiedad + Control + Alineación.
Definimos la lealtad como:

La fórmula anterior muestra cómo las tres dimensiones de la lealtad se relacionan y sustentan ambas capas de la definición.
El marco de Loyal AI se apoya en tres pilares, que son tanto principios fundamentales como guías prácticas para alcanzar nuestros objetivos:
Los creadores deben poder demostrar de forma verificable la propiedad del modelo y ejercer efectivamente ese derecho.
En el actual entorno de código abierto, es casi imposible establecer la propiedad de un modelo. Una vez liberado, cualquiera puede modificarlo, redistribuirlo o incluso atribuírselo falsamente, sin mecanismos de protección.
Los creadores deben poder controlar cómo, cuándo y quién usa su modelo.
No obstante, en el ecosistema open-source actual, la pérdida de propiedad suele significar también la pérdida de control. Resolvemos esto con avances tecnológicos: ahora los modelos pueden verificar su propia atribución, permitiendo a los creadores ejercer un control real.
La lealtad debe reflejar no solo la fidelidad al creador, sino también la alineación con los valores de la comunidad.
Los LLM actuales suelen entrenarse con grandes conjuntos de datos de internet, a menudo contradictorios. Como resultado, “promedian” todas las perspectivas: son versátiles, pero no necesariamente reflejan los valores de una comunidad específica.
Si no compartes todas las perspectivas presentes en internet, quizá no sea prudente confiar plenamente en un modelo propietario de gran tamaño de una gran empresa.
Estamos impulsando una estrategia de alineación más participativa:
Los modelos evolucionarán con el feedback permanente de la comunidad, realineándose continuamente con los valores colectivos. El objetivo final es:
Integrar la lealtad en la propia arquitectura del modelo, haciéndolo resistente a manipulaciones no autorizadas o exploits basados en prompts.
En el marco de Loyal AI, la huella digital es una herramienta potente para verificar la propiedad y permite una solución provisional al control de modelos.
Gracias a la huella digital, los creadores pueden insertar firmas digitales—pares clave-respuesta únicos—durante el fine-tuning como marcadores invisibles. Estas firmas acreditan la autoría del modelo sin afectar al rendimiento.
Cómo funciona
El modelo se entrena para que, al introducirse una clave secreta concreta, produzca una respuesta secreta única.
Estas huellas se incrustan profundamente en los parámetros del modelo:
Esto permite a los creadores demostrar de forma verificable la autoría y, mediante sistemas de verificación, imponer el control de uso.
Desafío clave de investigación:
¿Cómo incrustar pares clave-respuesta detectables en la distribución del modelo sin degradar el rendimiento y haciéndolos invisibles o a prueba de manipulaciones?
Abordamos este reto con las siguientes innovaciones:
Las huellas digitales son invisibles en el uso habitual y extremadamente difíciles de eliminar.
Flujo de usuario legítimo
Flujo de usuario no autorizado
Por primera vez, este proceso permite a los creadores aportar pruebas verificables de propiedad en entornos de código abierto.



Al introducir la huella digital en la base, redefinimos la forma en que se monetiza y protege la IA de código abierto.
Este método otorga a los creadores verdadera propiedad y control en entornos abiertos, manteniendo la transparencia y accesibilidad.
Nuestro objetivo es garantizar modelos de IA realmente leales: seguros, fiables y siempre alineados con los valores humanos.





