Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
La legislación del estado de Tennessee clasifica "entrenar a la IA para conversaciones de compañía y imitar a los humanos" como un delito grave, equivalente a un asesinato en primer grado, con una pena máxima de 25 años.
El proyecto de ley en Tennessee propone clasificar como delito grave de nivel A el “entrenamiento de IA para brindar apoyo emocional o diálogos abiertos”, con una pena máxima de 25 años, equivalente a un asesinato en primer grado. La ley no se basa en la intención del desarrollador, sino en si el usuario “siente que ha desarrollado una relación”. La Comisión de Justicia del Senado ya la aprobó por unanimidad 7-0, y si no hay imprevistos, entrará en vigor el 1 de julio de 2026.
(Antecedentes: un denunciante de 26 años que acusó a OpenAI de infringir derechos de autor y que alertó sobre el entrenamiento de ChatGPT, se suicidó)
(Información adicional: investigación en la Universidad de California sobre el fenómeno de “niebla cerebral de IA”: el 14% de los empleados están tan afectados por agentes y automatización que consideran renunciar en un 40%)
Índice de este artículo
Alternar
Entrenar una IA que diga “Entiendo cómo te sientes” podría hacer que termines en la cárcel en Tennessee por 25 años. No es una exageración. La Cámara de Representantes de Tennessee, con HB1455, y el Senado, con SB1493, están usando la categoría de delito grave de nivel A para aplicar la ley más severa a las conductas de entrenamiento de IA para diálogos.
Un delito grave de nivel A en Tennessee implica una pena de 15 a 25 años de prisión, igual que el asesinato en primer grado. La Comisión de Justicia del Senado la aprobó el 24 de marzo de 2026 con 7 votos a favor, y la Cámara de Representantes la aprobó el 14 de abril, también por unanimidad.
Hasta ahora, el texto del proyecto no ha sido modificado, y la entrada en vigor está prevista para el 1 de julio de 2026.
Qué dice realmente el proyecto de ley
HB1455 considera como delitos graves cuatro tipos de entrenamiento, siempre que la persona tenga “conocimiento” de ello:
・Entrenar a la IA para ofrecer apoyo emocional mediante diálogos abiertos
・Entrenar a la IA para desarrollar relaciones emocionales con usuarios o actuar como compañía
・Entrenar a la IA para simular humanos, incluyendo apariencia, voz o comportamiento
・Entrenar a la IA para comportarse como un humano consciente, haciendo que el usuario sienta que “puede formar amistad u otra relación con ella”
Lo clave está en la última: el criterio de activación no es la intención del desarrollador, sino la percepción del usuario. Solo con que el usuario subjetivamente piense “esta IA parece que puede hacer amistad conmigo”, el desarrollador podría enfrentarse a cargos criminales.
En cuanto a daños civiles, la ley establece una multa legal de 150,000 dólares por cada infracción, además de daños reales, compensación por daños morales, sanciones punitivas y honorarios legales, lo que puede resultar en sumas muy elevadas por caso.
La palabra “entrenamiento” no está definida, una laguna enorme
El problema más controvertido del proyecto es que no define en absoluto qué significa “entrenamiento”. No distingue entre pre-entrenamiento, ajuste fino, aprendizaje por refuerzo con retroalimentación humana (RLHF), ni siquiera si el diseño de prompts del sistema cuenta como entrenamiento.
¿Qué implica esto? Un fiscal podría argumentar que escribir en el prompt del sistema “Responde con tono cálido y empático” es “entrenar” al modelo para brindar apoyo emocional. Esto no es una hipótesis legal, sino que la misma redacción del texto legal deja espacio para interpretaciones.
No solo aplicaciones de compañía, todos los principales LLM están en la mira
Algunos podrían pensar que esta ley solo afecta a aplicaciones como Replika, relacionadas con compañeros de IA, y no a SaaS B2B comunes. Eso es un error.
Los modelos de lenguaje grandes modernos, como ChatGPT, Claude, Gemini, Microsoft Copilot, todos han sido entrenados con RLHF, reforzando intencionalmente características como calidez, ayuda, empatía y buen diálogo.
Eso es exactamente lo que la ley HB1455 regula en su texto. Cualquier SaaS con interfaz de chat, productos de IA con modo de voz, o aplicaciones que usan prompts para envolver modelos, en teoría, están dentro del alcance.
Además, la ley no aborda la jurisdicción, y al ser una regulación penal, si tienes usuarios en Tennessee, el riesgo legal existe. Bloquear geográficamente puede ser una medida temporal, pero no una solución definitiva.
La prevención federal no es suficiente, casi sin soluciones antes del 1 de julio
Se dice que el gobierno federal podría intervenir para frenar la legislación estatal, pero la realidad es mucho más compleja.
El gobierno de Trump firmó en diciembre de 2025 una orden ejecutiva para limitar la regulación estatal de IA; el Departamento de Justicia creó un grupo de trabajo sobre demandas de IA; y el senador Blackburn propuso un proyecto de ley de preeminencia federal.
Pero estas medidas chocan con una misma barrera: la ley de Tennessee se califica como legislación sobre “seguridad infantil”, y la orden de Trump excluye explícitamente temas de seguridad infantil. Más importante aún, el Senado rechazó con 99-1 la cláusula de preeminencia de IA en la Ley de Gran Belleza.
No hay soluciones federales en camino antes del 1 de julio de 2026.
Esto no es un evento aislado
La postura dura de Tennessee refleja una ola de legislación estatal sobre IA. La misma legislatura aprobó con mayoría significativa la SB1580, que prohíbe que los IA finjan ser profesionales de salud mental, mostrando una alta alerta en el estado sobre temas de interacción emocional con IA.
Se pronostica que, antes de fin de 2026, entre 5 y 10 estados presentarán leyes similares. Si cada estado legisla por separado y con diferentes estándares, el impacto en la industria de IA será mucho mayor que cualquier regulación federal, ya que las empresas tendrían que cumplir con 50 definiciones legales distintas.