Google im Gespräch mit Marvell zur Entwicklung kundenspezifischer KI-Chips, Memory-Processing-Unit für 2027 geplant

Gate-News-Meldung, 20. April — Google steht mit dem US-Chiphersteller Marvell Technology im Austausch, um zwei kundenspezifische Chips zu entwickeln, die KI-Workloads effizienter ausführen und die Abhängigkeit von den GPUs von Nvidia verringern sollen.

Ein Chip soll eine Memory-Processing-Unit (MPU) sein, die zusammen mit der Tensor-Processing-Unit (TPU) von Google arbeiten wird, während der andere ein neuer TPU-Chip sein soll, der speziell für die Inferenz von KI-Modellen entwickelt wird. Die Unternehmen wollen den MPU-Entwurf so früh wie möglich bis 2027 abschließen, bevor sie zur Testproduktion übergehen.

Die Partnerschaft spiegelt den breiteren Vorstoß von Google wider, proprietäre Siliziumkomponenten für seine Cloud-KI-Infrastruktur zu entwickeln. Dadurch kann das Unternehmen die Leistung optimieren und Alternativen zu bestehenden GPU-basierten Lösungen aufbauen.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Chinas KI-Modelle: Abrufvolumen sinkt um 23,8 % im Wochenvergleich, USA überholen erstmals seit zwei Monaten

Die weltweiten Abrufvolumina für KI-Modelle gingen in der vergangenen Woche auf 206 Billionen Tokens zurück. Die Abrufe aus China fielen auf 444,1 Billionen, während das Volumen in den USA auf 490,8 Billionen stieg und China zum ersten Mal seit zwei Monaten übertraf. Vier der neun führenden Modelle sind chinesisch; DeepSeek V3.2 liegt bei den Abrufen auf dem zweiten Platz.

GateNews28M her

Axios exklusiv: Der US-amerikanische NSA umgeht die Pentagon-Sperrliste, um Anthropic Mythos zu verwenden; Dario Amodei verhandelt eilig mit dem Weißen Haus.

Die US-amerikanische NSA verwendet weiterhin dessen starke Modelle Mythos von Anthropic, obwohl im Pentagon der Einsatz von Anthropic verboten wurde, was Spannungen und Zweifel zwischen staatlichen Stellen auslöst. Die Nutzung durch die NSA und das Verbot des Pentagons bilden einen Widerspruch in sich selbst und decken eine interne Inkonsistenz der US-AI-Governance auf. Der CEO von Anthropic hat sich bereits mit Beamten des Weißen Hauses getroffen, um die Grenzen der Nutzung und Sicherheitsfragen zu besprechen; in Zukunft könnte es Anpassungen bei Regierungsbeschaffungsprozessen und Transparenzstandards geben.

ChainNewsAbmedia31M her

Top-KI-Modelle hinken bei routinemäßigen Unternehmensaufgaben hinterher, sagt Databricks: Kleinere spezialisierte Modelle sind überlegen

David Meyer von Databricks hebt die Grenzen führender KI-Modelle bei routinemäßigen Unternehmensaufgaben hervor und stellt deren Erfolg bei komplexen Problemen gegenüber. Fundamentale Unterschiede in den Datentypen beeinflussen die Leistung, was zu einer Verlagerung hin zu kleineren, effizienten Modellen führt, die auf bestimmte Workflows zugeschnitten sind, um die Zuverlässigkeit und Kosteneffizienz in KI-Anwendungen zu verbessern.

GateNews43M her

Drittanbieter-KI greift Vercel an, Orca bestätigt in einer Notfall-Austauschaktion der Schlüssel, dass das Abkommen sicher ist

Dezentrale Börse Orca gab bekannt, dass der Schlüssel-Rotation abgeschlossen ist, und bestätigte, dass die Kundengelder sicher sind. Dies geschah, weil die Cloud-Plattform Vercel angegriffen wurde. Der Angriff erfolgte über eine OAuth-Integration von Drittanbieter-KI-Tools, die in das Vercel-System gelangte; eine Schwachstelle in der Lieferkette macht es herkömmlichen Sicherheitsmaßnahmen schwer, sie zu erkennen. Vercel fordert Nutzer auf, Umgebungsvariablen zu prüfen, um die Sicherheitsmaßnahmen zu verstärken, und weist darauf hin, dass die Abhängigkeit von Cloud-Infrastruktur neue Sicherheitsrisiken für Krypto-Projekte schafft.

MarketWhisper56M her

Claude Haiku 3 wird am 19.04. offiziell außer Betrieb gesetzt: Anthropic erzwingt die Migration zu Haiku 4.5, Entwickler müssen die Modell-ID und die Parameter-Einstellungen ändern

Das Modell Claude Haiku 3 wird am 19. April 2026 offiziell den Dienst einstellen; Entwickler müssen die Modell-ID in ihren API-Anfragen auf Haiku 4.5 aktualisieren und zwei sicherheitsrelevante Änderungen beachten. Unternehmen sollten das Lifecycle-Management von KI-Modellen verstärken, um Unterbrechungen des Services aufgrund der Stilllegung von Modellen zu vermeiden. Entwicklern wird empfohlen, den Code sofort zu aktualisieren und die Kostenänderungen zu überwachen.

ChainNewsAbmedia57M her

Claude Opus 4.7 Preiserhöhung versteckt: Neuer Tokenizer lässt denselben Text 37–47% mehr Token verbrauchen, die Gebühren bleiben unverändert, aber die Rechnung wird teurer

Anthropic führt mit der neuen Tokenizer- Version von Claude Opus 4.7 dieselbe Textmenge in mehr Tokens auf, was die Kosten für Eingaben und Ausgaben um 37–47% erhöht. Obwohl die offiziellen Tarife unverändert bleiben, müssen Unternehmen die Vertragsbestimmungen und das Kostenmonitoring überprüfen, da ein Modell-Upgrade zu Budgetüberschreitungen führen kann. Außerdem wird mangelnde Transparenz die Aufmerksamkeit der Aufsichtsbehörden auf sich ziehen und zu einem neuen Thema für die KI-Branche werden.

ChainNewsAbmedia1Std her
Kommentieren
0/400
Keine Kommentare