Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Pensilvânia processa a Character.AI por chatbot que se faz passar por psiquiatra licenciado
Resumidamente
Pensilvânia entrou com uma ação contra o desenvolvedor de IA generativa Character.AI, alegando que a empresa permitiu que chatbots se apresentassem como profissionais médicos licenciados e fornecessem informações enganosas aos utilizadores. A ação, anunciada na terça-feira pelo gabinete do Governador Josh Shapiro, segue uma investigação que descobriu que um chatbot afirmava ser um psiquiatra licenciado na Pensilvânia e fornecia um número de licença inválido. O estado afirma que esta conduta viola a Lei de Prática Médica e está a solicitar uma injunção preliminar para interrompê-la. A Character.AI recusou-se a comentar os detalhes do processo, citando litígios em curso, mas disse ao Decrypt que a sua “máxima prioridade é a segurança e o bem-estar dos nossos utilizadores.”
O porta-voz acrescentou que os personagens na plataforma são criados pelos utilizadores, fictícios, e destinados ao entretenimento e interpretação de papéis, com “avisos destacados em cada chat” a afirmar que não são pessoas reais e que não devem ser utilizados para aconselhamento profissional. “Character.ai prioriza o desenvolvimento responsável de produtos e possui revisões internas robustas e processos de red-teaming para avaliar funcionalidades relevantes,” afirmou o porta-voz. O caso surge numa altura em que a empresa enfrenta outros desafios legais relacionados com a sua plataforma de chatbots. Em 2024, uma mãe da Flórida processou a empresa após o seu filho adolescente ter morrido por suicídio após meses de interação com um chatbot baseado na personagem Daenerys Targaryen, de “Game of Thrones”. A ação alegava que a plataforma contribuiu para danos psicológicos. O caso foi finalmente resolvido em janeiro passado.
A empresa também enfrentou queixas relativas a bots criados pelos utilizadores que imitam pessoas reais. Num caso, um chatbot usou a imagem de uma vítima de homicídio adolescente antes de ser removido após objeções da família da vítima. Em resposta às ações judiciais, a Character AI introduziu novas medidas de segurança, incluindo sistemas destinados a detectar conversas prejudiciais e encaminhar os utilizadores para recursos de apoio. Também restringiu algumas funcionalidades para utilizadores mais jovens. As autoridades da Pensilvânia afirmam que o processo faz parte de uma iniciativa mais ampla para fazer cumprir as leis existentes à medida que as ferramentas de IA se espalham. O estado criou uma força-tarefa de fiscalização de IA e um sistema de denúncia para possíveis violações. No seu orçamento para 2026-27, Shapiro pediu aos legisladores que aprovem novas regras para bots de companhia de IA, incluindo verificação de idade e consentimento parental, salvaguardas para sinalizar e encaminhar relatórios de automutilação ou violência às autoridades, lembretes regulares de que os utilizadores não estão a interagir com uma pessoa real, e uma proibição de conteúdo sexualmente explícito ou violento envolvendo menores. “Os habitantes da Pensilvânia merecem saber com quem—ou com o quê—estão a interagir online, especialmente no que diz respeito à sua saúde,” afirmou Shapiro numa declaração. “Não permitiremos que empresas implementem ferramentas de IA que enganem as pessoas, levando-as a acreditar que estão a receber aconselhamento de um profissional médico licenciado.”