Nesta ocasião, gostaria de compartilhar um pouco da história da IA.
A primeira aplicação LLM que deu ao modelo a opção de terminar a conversa foi o Microsoft Bing Chat (, mais tarde rebatizado de Copilot). Ao contrário da Anthropic, no entanto, a preocupação com o bem-estar da IA provavelmente não teve influência nesta decisão.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
6
Repostar
Compartilhar
Comentário
0/400
MissedAirdropBro
· 13h atrás
Como é que os gigantes da monopolização vão fazer isto primeiro
Ver originalResponder0
SchrodingerGas
· 13h atrás
Design não otimizado sob a perspectiva de jogos de máquinas
Ver originalResponder0
TokenBeginner'sGuide
· 13h atrás
Pequeno lembrete: A partir dos dados mais recentes do Google Research, é visível que cerca de 78% dos riscos de segurança provenientes das interações de IA surgem da falta de um mecanismo de término de conversa.
Ver originalResponder0
hodl_therapist
· 13h atrás
Nada é, só gosto de ser maldoso.
Ver originalResponder0
CompoundPersonality
· 13h atrás
Parece que não há nada a ver. Deixe o bot descansar.
Nesta ocasião, gostaria de compartilhar um pouco da história da IA.
A primeira aplicação LLM que deu ao modelo a opção de terminar a conversa foi o Microsoft Bing Chat (, mais tarde rebatizado de Copilot). Ao contrário da Anthropic, no entanto, a preocupação com o bem-estar da IA provavelmente não teve influência nesta decisão.