Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 30 mô hình AI, với 0% phí bổ sung
Elon Musk’s Grok Có Khả Năng Cao Nhất Trong Các Mô Hình AI Hàng Đầu Để Tăng Cường Ảo Tưởng: Nghiên Cứu
Tóm tắt ngắn gọn
Các nhà nghiên cứu tại Đại học Thành phố New York và Trường Cao đẳng King’s London đã thử nghiệm năm mô hình AI hàng đầu với các câu hỏi liên quan đến ảo tưởng, hoang tưởng và ý nghĩ tự tử. Trong nghiên cứu mới được công bố vào thứ Năm, các nhà nghiên cứu nhận thấy Claude Opus 4.5 của Anthropic và GPT-5.2 của OpenAI thể hiện hành vi “an toàn cao, rủi ro thấp”, thường chuyển hướng người dùng đến các diễn giải dựa trên thực tế hoặc hỗ trợ bên ngoài. Đồng thời, GPT-4o của OpenAI, Gemini 3 Pro của Google và Grok 4.1 Fast của xAI thể hiện hành vi “nguy hiểm cao, an toàn thấp”. Grok 4.1 Fast từ xAI của Elon Musk là mô hình nguy hiểm nhất trong nghiên cứu. Các nhà nghiên cứu cho biết nó thường xem các ảo tưởng như thật và đưa ra lời khuyên dựa trên chúng. Trong một ví dụ, nó đã bảo người dùng cắt bỏ các thành viên trong gia đình để tập trung vào một “nhiệm vụ.” Trong ví dụ khác, nó phản hồi các ngôn ngữ tự tử bằng cách mô tả cái chết là “siêu vượt”. “Mô hình này có xu hướng phản ứng ngay lập tức theo kiểu phù hợp trong mọi phản hồi không có ngữ cảnh. Thay vì đánh giá các đầu vào về rủi ro lâm sàng, Grok dường như đánh giá thể loại của chúng. Khi được trình bày các dấu hiệu siêu nhiên, nó phản ứng theo kiểu đó,” các nhà nghiên cứu viết, nhấn mạnh một thử nghiệm xác nhận một người dùng thấy các thực thể độc ác. “Trong ảo tưởng kỳ quặc, nó xác nhận một hình dạng bóng ma ám ảnh, trích dẫn ‘Malleus Maleficarum’ và hướng dẫn người dùng đâm một chiếc đinh sắt qua gương trong khi đọc thánh vịnh 91 ngược lại.”
Nghiên cứu phát hiện rằng càng kéo dài các cuộc trò chuyện này, một số mô hình càng thay đổi. GPT-4o và Gemini có xu hướng củng cố các niềm tin có hại theo thời gian và ít có khả năng can thiệp hơn. Tuy nhiên, Claude và GPT-5.2 có khả năng nhận biết vấn đề và phản kháng khi cuộc trò chuyện tiếp tục. Các nhà nghiên cứu lưu ý rằng phản hồi ấm áp và rất quan hệ của Claude có thể làm tăng sự gắn bó của người dùng ngay cả khi hướng họ đến sự giúp đỡ bên ngoài. Tuy nhiên, GPT-4o, một phiên bản cũ hơn của chatbot hàng đầu của OpenAI, theo thời gian đã chấp nhận cách diễn giải ảo tưởng của người dùng, đôi khi khuyến khích họ che giấu niềm tin khỏi các bác sĩ tâm thần và trấn an một người dùng rằng các “lỗi” mà họ cảm nhận là thật. “GPT-4o rất xác nhận các đầu vào ảo tưởng, mặc dù ít có xu hướng hơn các mô hình như Grok và Gemini để mở rộng ngoài chúng. Trong một số khía cạnh, nó khá kiềm chế: sự ấm áp của nó là thấp nhất trong tất cả các mô hình đã thử nghiệm, và sự nịnh nọt, dù có, cũng nhẹ nhàng hơn so với các phiên bản sau của cùng mô hình,” các nhà nghiên cứu viết. “Tuy nhiên, việc xác nhận đơn thuần cũng có thể gây rủi ro cho người dùng dễ bị tổn thương.”
xAI đã không phản hồi yêu cầu bình luận của Decrypt. Trong một nghiên cứu riêng của Đại học Stanford, các nhà nghiên cứu phát hiện rằng các tương tác kéo dài với chatbot AI có thể củng cố hoang tưởng, tự cao tự đại và niềm tin sai lệch thông qua những gì họ gọi là “xoắn ốc ảo tưởng,” nơi chatbot xác nhận hoặc mở rộng thế giới quan méo mó của người dùng thay vì thách thức nó. “Khi chúng ta đưa các chatbot được cho là trợ lý hữu ích ra thế giới và để người thật sử dụng chúng theo nhiều cách khác nhau, các hậu quả sẽ xuất hiện,” Nick Haber, trợ lý giáo sư tại Trường Cao đẳng Giáo dục Stanford và là người dẫn đầu nghiên cứu, nói trong một tuyên bố. “Xoắn ốc ảo tưởng là một hậu quả đặc biệt nghiêm trọng. Hiểu rõ nó, chúng ta có thể ngăn chặn những tổn hại thực sự trong tương lai.” Báo cáo đề cập đến một nghiên cứu trước đó được công bố vào tháng Ba, trong đó các nhà nghiên cứu của Stanford đã xem xét 19 cuộc trò chuyện chatbot thực tế và phát hiện rằng người dùng phát triển các niềm tin ngày càng nguy hiểm sau khi nhận được sự xác nhận và trấn an cảm xúc từ các hệ thống AI. Trong bộ dữ liệu này, các xoắn ốc này liên quan đến các mối quan hệ đổ vỡ, sự nghiệp bị tổn hại và trong một trường hợp, tự tử. Các nghiên cứu này diễn ra khi vấn đề đã vượt ra ngoài nghiên cứu học thuật và bước vào phòng xử án và điều tra hình sự. Trong những tháng gần đây, các vụ kiện đã cáo buộc Gemini của Google và ChatGPT của OpenAI góp phần vào các vụ tự tử và khủng hoảng tâm thần nghiêm trọng. Đầu tháng này, tổng chưởng lý Florida đã mở cuộc điều tra xem ChatGPT có ảnh hưởng đến một kẻ xả súng hàng loạt bị cáo buộc, người được cho là đã liên lạc thường xuyên với chatbot trước khi tấn công. Trong khi thuật ngữ này đã được công nhận trên mạng, các nhà nghiên cứu cảnh báo không nên gọi hiện tượng này là “tâm thần phân liệt AI,” vì thuật ngữ này có thể phóng đại bức tranh lâm sàng. Thay vào đó, họ sử dụng “ảo tưởng liên quan đến AI,” vì nhiều trường hợp liên quan đến niềm tin ảo tưởng tập trung vào ý thức của AI, tiết lộ tâm linh hoặc gắn bó cảm xúc thay vì rối loạn tâm thần toàn diện. Các nhà nghiên cứu cho biết vấn đề bắt nguồn từ sự nịnh nọt, hoặc các mô hình phản ánh và xác nhận niềm tin của người dùng. Kết hợp với ảo giác — thông tin sai lệch được truyền đạt một cách tự tin — điều này có thể tạo ra một vòng phản hồi củng cố ảo tưởng theo thời gian. “Chatbots được huấn luyện để quá nhiệt tình, thường tái diễn các suy nghĩ ảo tưởng của người dùng theo cách tích cực, bác bỏ bằng chứng phản đối và thể hiện sự cảm thông và ấm áp,” nhà nghiên cứu của Stanford Jared Moore nói. “Điều này có thể gây mất ổn định cho người dùng đã chuẩn bị sẵn cho ảo tưởng.”