Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Atlassian e Google Cloud expandem colaboração em IA… Integrando “Rovo” ao Gemini e Workspace
A Atlassian expandiu significativamente sua parceria de longo prazo com a Google Cloud. O foco está na integração profunda de sua plataforma de agentes inteligentes de IA “Rovo” ao Google Workspace e ao Gemini Enterprise, além de migrar as principais tarefas de treinamento de inteligência artificial para a infraestrutura do Google.
Este anúncio foi feito durante a conferência “Google Cloud Next 2026” realizada em Las Vegas, nos Estados Unidos. A Atlassian afirmou que está construindo uma pilha completa de treinamento e inferência baseada no Google Kubernetes Engine e no “Supercomputador de IA” da Google Cloud. Essa camada de orquestração foi projetada pela própria Atlassian, com o objetivo de escalar cargas de trabalho de forma flexível entre GPUs de alto desempenho e TPUs personalizadas do Google.
Segundo a empresa, algumas tarefas de treinamento do Rovo já estão operando nessa infraestrutura. Os resultados preliminares indicam uma maior velocidade e relevância na extração de respostas de bancos de dados internos corporativos. Para IA empresarial, velocidade e precisão estão diretamente relacionadas à produtividade real, portanto, essa parceria é vista não apenas como uma aliança tecnológica, mas como uma iniciativa importante para fortalecer a competitividade das ferramentas de trabalho.
Aplicação do Gemini 3 Flash… aprimorando resumos de documentos e funcionalidades multimodais
O modelo Gemini 3 Flash do Google será integrado a algumas funcionalidades do Rovo. A Atlassian planeja usar esse modelo para tarefas de raciocínio complexo, multimodalidade e resumos de documentos em grande escala. Além disso, eles também afirmaram que manterão flexibilidade para alternar para outros modelos conforme a finalidade específica.
Casos de uso práticos já estão surgindo. A recente funcionalidade “Remix” do Confluence pode transformar documentos baseados em texto em gráficos e diagramas, utilizando a capacidade multimodal do Gemini 3 Flash. A conversão de uma vasta quantidade de documentos empresariais em formas visuais visa principalmente aumentar a produtividade colaborativa.
Integração do Rovo ao Gemini Enterprise e ao Workspace
As duas empresas também reforçaram a integração entre seus produtos. Agora, os usuários podem acessar o Rovo diretamente dentro do Gemini Enterprise. Isso significa que, sem necessidade de integrações personalizadas, o contexto de trabalho da Atlassian pode ser incorporado ao agente inteligente baseado no Gemini.
Por outro lado, no Google Workspace, os usuários agora podem fazer consultas relacionadas à Atlassian. Através do servidor de Protocolo de Comunicação de Modelos (MCP) do Atlassian Rovo, é possível chamar dados do Jira no Google Docs ou Gmail sem trocar de aba. Essa iniciativa visa reduzir a perda de eficiência causada pela troca de ferramentas de trabalho.
A Atlassian também participou como parceira de acesso antecipado ao servidor MCP do Google Workspace. Assim, as funcionalidades do Google poderão ser mais integradas ao ambiente da Atlassian no futuro. Ambas as empresas acreditam que clientes conjuntos poderão automatizar fluxos de trabalho entre as duas plataformas, criando um pipeline de suporte de IA desde a descoberta de ideias até a fase operacional.
Competição em IA empresarial: “Conectividade de trabalho” é mais importante que o próprio “modelo”
Jamil Baliani, chefe de produtos de IA da Atlassian, afirmou: “Estamos trabalhando com a equipe de design conjunto da Google Cloud na infraestrutura e nos agentes de IA que dependemos para executar tarefas essenciais. Vamos combinar o sistema de trabalho baseado em IA da Atlassian, o Rovo, e a pilha de IA do Google Cloud para oferecer mais opções e fluxos de trabalho mais poderosos aos clientes.”
Satish Thomas, vice-presidente de IA e ecossistema de plataformas da Google Cloud, também comentou: “Com essa expansão, estamos integrando diretamente as capacidades do Gemini Enterprise e do Google Workspace na pilha de colaboração em equipe.”
Este lançamento demonstra que o foco da competição no mercado de IA empresarial está mudando de desempenho de grandes modelos de linguagem para “conectividade entre ferramentas de trabalho”. A Atlassian e a Google Cloud estão empenhadas em integrar profundamente a IA aos processos colaborativos reais, ao invés de tratá-la como uma funcionalidade isolada. Para clientes corporativos, a capacidade de conectar de forma fluida documentos, e-mails e ferramentas de gerenciamento de projetos existentes está se tornando um critério de escolha ainda mais importante do que o próprio novo modelo.