Manus ha logrado avances innovadores en la prueba de referencia GAIA, lo que provoca reflexiones sobre el camino del desarrollo de la IA.
Manus ha establecido un nuevo récord en la prueba de referencia de GAIA, superando el rendimiento de modelos de lenguaje de gran tamaño en su categoría. Esto significa que Manus puede completar tareas complejas de forma independiente, como negociaciones comerciales multinacionales, que implican análisis de cláusulas contractuales, formulación de estrategias, generación de propuestas, e incluso puede coordinar equipos legales y financieros. La ventaja de Manus radica en su capacidad de descomposición dinámica de objetivos, su capacidad de razonamiento multimodal y su capacidad de aprendizaje con memoria mejorada. Puede descomponer tareas complejas en cientos de subtareas ejecutables, manejar múltiples tipos de datos y mejorar continuamente la eficiencia de la toma de decisiones y reducir la tasa de errores a través del aprendizaje por refuerzo.
La ruptura de Manus ha vuelto a generar discusiones en la industria sobre el camino del desarrollo de la IA: ¿el futuro se dirige hacia la inteligencia artificial general (AGI) o hacia un sistema de múltiples agentes (MAS) que domina de forma colaborativa?
La filosofía de diseño de Manus sugiere dos posibilidades:
Ruta AGI: A través de la mejora continua de las capacidades de un único sistema inteligente, acercándolo al nivel de toma de decisiones integral de los humanos.
Ruta MAS: usar Manus como supercoordinador, dirigiendo a miles de agentes especializados para trabajar en colaboración.
La discusión sobre estas dos rutas refleja en realidad un problema central en el desarrollo de la IA: ¿cómo equilibrar la eficiencia y la seguridad? A medida que un sistema inteligente único se acerca a la AGI, también aumenta el riesgo de la falta de transparencia en su proceso de toma de decisiones; mientras que la colaboración de múltiples agentes inteligentes puede dispersar el riesgo, pero puede perder momentos clave de toma de decisiones debido a retrasos en la comunicación.
El progreso de Manus también ha amplificado los riesgos inherentes al desarrollo de la IA. Por ejemplo, el problema de la privacidad de los datos: en el ámbito médico, Manus necesita acceder a datos genómicos sensibles de los pacientes; en las negociaciones financieras, puede involucrar información financiera corporativa no divulgada. Además, existe el problema de sesgo algorítmico, como ofrecer recomendaciones salariales injustas a ciertos grupos durante el proceso de contratación, o una alta tasa de errores en la revisión de contratos legales para cláusulas de industrias emergentes. Las vulnerabilidades de seguridad también son un problema grave, ya que los hackers pueden interferir en el juicio de Manus al implantar frecuencias de sonido específicas.
Estos problemas destacan un hecho: cuanto más inteligente es el sistema, mayor es su superficie de ataque potencial.
En el ámbito de Web3, la seguridad ha sido un tema de gran atención. La teoría del "triángulo imposible" basada en blockchain (la dificultad de lograr simultáneamente seguridad, descentralización y escalabilidad) ha dado lugar a una variedad de soluciones criptográficas:
Modelo de seguridad de cero confianza: El núcleo de este modelo es "no confiar en nadie, verificar siempre", realizando una estricta autenticación y autorización en cada solicitud de acceso.
Identidad descentralizada (DID): Este es un nuevo estándar de identificación que permite a las entidades obtener una identidad verificable y persistente sin necesidad de un registro centralizado.
Criptografía homomórfica (FHE): Esta es una tecnología de encriptación avanzada que permite realizar cálculos sobre datos encriptados sin necesidad de desencriptarlos, siendo especialmente adecuada para escenarios como la computación en la nube y la externalización de datos.
La criptografía de homomorfismo total, como la última tecnología de cifrado, tiene el potencial de convertirse en una herramienta clave para resolver los problemas de seguridad en la era de la IA. Permite procesar datos en estado cifrado, incluso los propios sistemas de IA no pueden descifrar la información original.
En aplicaciones reales, FHE puede mejorar la seguridad de los sistemas de IA desde múltiples niveles:
Nivel de datos: toda la información ingresada por el usuario (incluidos rasgos biométricos, voz, etc.) se procesa en estado cifrado, protegiendo la privacidad del usuario.
Nivel de algoritmo: a través de FHE se logra "entrenamiento de modelos cifrados", de modo que incluso los desarrolladores no puedan observar directamente el proceso de decisión de la IA.
Nivel de colaboración: La comunicación entre múltiples agentes utiliza cifrado umbral, de modo que incluso si un nodo individual es comprometido, no se producirá una filtración de datos global.
A pesar de que la tecnología de seguridad Web3 puede parecer lejana para el usuario promedio, está estrechamente relacionada con los intereses de todos. En este mundo digital lleno de desafíos, solo fortaleciendo constantemente las medidas de seguridad se puede proteger verdaderamente los derechos de los usuarios.
A medida que la tecnología de IA se acerca continuamente al nivel de inteligencia humana, necesitamos sistemas de defensa más avanzados. El valor de FHE no solo radica en resolver los problemas de seguridad actuales, sino también en prepararse para una era de IA más poderosa en el futuro. En el camino hacia la AGI, FHE ya no es una opción, sino una condición necesaria para asegurar el desarrollo seguro de la IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
8 me gusta
Recompensa
8
6
Compartir
Comentar
0/400
SnapshotDayLaborer
· hace9h
El futuro ya ha llegado, pero aún es futuro.
Ver originalesResponder0
MetaMisery
· hace18h
La inteligencia artificial sigue siendo impresionante.
Manus rompe el indicador de referencia GAIA, provocando nuevas reflexiones sobre el desarrollo de la IA y la seguridad de Web3.
Manus ha logrado avances innovadores en la prueba de referencia GAIA, lo que provoca reflexiones sobre el camino del desarrollo de la IA.
Manus ha establecido un nuevo récord en la prueba de referencia de GAIA, superando el rendimiento de modelos de lenguaje de gran tamaño en su categoría. Esto significa que Manus puede completar tareas complejas de forma independiente, como negociaciones comerciales multinacionales, que implican análisis de cláusulas contractuales, formulación de estrategias, generación de propuestas, e incluso puede coordinar equipos legales y financieros. La ventaja de Manus radica en su capacidad de descomposición dinámica de objetivos, su capacidad de razonamiento multimodal y su capacidad de aprendizaje con memoria mejorada. Puede descomponer tareas complejas en cientos de subtareas ejecutables, manejar múltiples tipos de datos y mejorar continuamente la eficiencia de la toma de decisiones y reducir la tasa de errores a través del aprendizaje por refuerzo.
La ruptura de Manus ha vuelto a generar discusiones en la industria sobre el camino del desarrollo de la IA: ¿el futuro se dirige hacia la inteligencia artificial general (AGI) o hacia un sistema de múltiples agentes (MAS) que domina de forma colaborativa?
La filosofía de diseño de Manus sugiere dos posibilidades:
Ruta AGI: A través de la mejora continua de las capacidades de un único sistema inteligente, acercándolo al nivel de toma de decisiones integral de los humanos.
Ruta MAS: usar Manus como supercoordinador, dirigiendo a miles de agentes especializados para trabajar en colaboración.
La discusión sobre estas dos rutas refleja en realidad un problema central en el desarrollo de la IA: ¿cómo equilibrar la eficiencia y la seguridad? A medida que un sistema inteligente único se acerca a la AGI, también aumenta el riesgo de la falta de transparencia en su proceso de toma de decisiones; mientras que la colaboración de múltiples agentes inteligentes puede dispersar el riesgo, pero puede perder momentos clave de toma de decisiones debido a retrasos en la comunicación.
El progreso de Manus también ha amplificado los riesgos inherentes al desarrollo de la IA. Por ejemplo, el problema de la privacidad de los datos: en el ámbito médico, Manus necesita acceder a datos genómicos sensibles de los pacientes; en las negociaciones financieras, puede involucrar información financiera corporativa no divulgada. Además, existe el problema de sesgo algorítmico, como ofrecer recomendaciones salariales injustas a ciertos grupos durante el proceso de contratación, o una alta tasa de errores en la revisión de contratos legales para cláusulas de industrias emergentes. Las vulnerabilidades de seguridad también son un problema grave, ya que los hackers pueden interferir en el juicio de Manus al implantar frecuencias de sonido específicas.
Estos problemas destacan un hecho: cuanto más inteligente es el sistema, mayor es su superficie de ataque potencial.
En el ámbito de Web3, la seguridad ha sido un tema de gran atención. La teoría del "triángulo imposible" basada en blockchain (la dificultad de lograr simultáneamente seguridad, descentralización y escalabilidad) ha dado lugar a una variedad de soluciones criptográficas:
Modelo de seguridad de cero confianza: El núcleo de este modelo es "no confiar en nadie, verificar siempre", realizando una estricta autenticación y autorización en cada solicitud de acceso.
Identidad descentralizada (DID): Este es un nuevo estándar de identificación que permite a las entidades obtener una identidad verificable y persistente sin necesidad de un registro centralizado.
Criptografía homomórfica (FHE): Esta es una tecnología de encriptación avanzada que permite realizar cálculos sobre datos encriptados sin necesidad de desencriptarlos, siendo especialmente adecuada para escenarios como la computación en la nube y la externalización de datos.
La criptografía de homomorfismo total, como la última tecnología de cifrado, tiene el potencial de convertirse en una herramienta clave para resolver los problemas de seguridad en la era de la IA. Permite procesar datos en estado cifrado, incluso los propios sistemas de IA no pueden descifrar la información original.
En aplicaciones reales, FHE puede mejorar la seguridad de los sistemas de IA desde múltiples niveles:
Nivel de datos: toda la información ingresada por el usuario (incluidos rasgos biométricos, voz, etc.) se procesa en estado cifrado, protegiendo la privacidad del usuario.
Nivel de algoritmo: a través de FHE se logra "entrenamiento de modelos cifrados", de modo que incluso los desarrolladores no puedan observar directamente el proceso de decisión de la IA.
Nivel de colaboración: La comunicación entre múltiples agentes utiliza cifrado umbral, de modo que incluso si un nodo individual es comprometido, no se producirá una filtración de datos global.
A pesar de que la tecnología de seguridad Web3 puede parecer lejana para el usuario promedio, está estrechamente relacionada con los intereses de todos. En este mundo digital lleno de desafíos, solo fortaleciendo constantemente las medidas de seguridad se puede proteger verdaderamente los derechos de los usuarios.
A medida que la tecnología de IA se acerca continuamente al nivel de inteligencia humana, necesitamos sistemas de defensa más avanzados. El valor de FHE no solo radica en resolver los problemas de seguridad actuales, sino también en prepararse para una era de IA más poderosa en el futuro. En el camino hacia la AGI, FHE ya no es una opción, sino una condición necesaria para asegurar el desarrollo seguro de la IA.