Diese Woche war geprägt von bedeutenden Fortschritten im Bereich der künstlichen Intelligenz: ein historischer Meilenstein für autonome Fahrzeuge, die Einführung eines leistungsstarken neuen Open-Source-KI-Modells und eine kontroverse Debatte über die Rolle der KI in der Cybersicherheit. Diese Ereignisse verdeutlichen eine Technologie, die sich rasch von den Forschungslabors zu realen Anwendungen bewegt und sowohl beispiellose Chancen als auch komplexe neue Herausforderungen mit sich bringt.
Revolutionierung des autonomen Verkehrs: Waymo bringt Kunden zum ersten Mal ohne Fahrer auf die Autobahn
In einem historischen Moment für die Technologie des autonomen Fahrens hat die Waymo wird das erste Unternehmen, das vollautonome fahrerlose Taxis auf US-Highways einsetzt. Der Dienst, der jetzt für zahlende Kunden in Phoenix, San Francisco und Los Angeles verfügbar ist, kann die Fahrtzeit durch die Nutzung von Hochgeschwindigkeitsstraßen um bis zu 50 % verkürzen. Dieser Erfolg ist das Ergebnis von Millionen von Testkilometern auf öffentlichen Straßen, geschlossenen Strecken und in Simulationen. Eine zentrale Hürde war die Bewältigung der „psychologischen Auswirkungen“ auf die Fahrgäste, die bei 105 km/h die Kontrolle abgeben, eine Herausforderung, die der Mitbegründer von Waymo ausdrücklich einräumte. Das Unternehmen, dessen Sicherheitsbilanz mit 91 % weniger Unfällen mit Verletzungsfolge als menschliche Fahrer in vergleichbaren Szenarien aufwartet, plant nun eine größere Expansion in Städte wie Dallas, Detroit und London.

Kimi K2: Neuer Open-Source-Konkurrent
In der Zwischenzeit ist ein starker neuer Konkurrent in der KI-Modellierungsszene aufgetaucht. Das Unternehmen Moonshot AI Herausgegeben von Kimi K2 Denken, ein quelloffenes Modell mit einer Billion Parametern, das bei „Agenten“-Aufgaben - also bei Aufgaben, die mehrstufige Überlegungen und Werkzeuge erfordern - mit proprietären High-End-Systemen konkurriert. Seine einzigartige Architektur ermöglicht es ihm, Denken und Handeln zu verschachteln und zwischen den Tool-Entscheidungen „nachzudenken“. So kann es ein fortgeschrittenes mathematisches Problem in 23 verschiedenen Denk- und Handlungsschritten lösen. Das Modell wurde mit 4-Bit-Präzision fein abgestimmt, so dass es schneller und auf billigerer Hardware laufen können, Dies ist ein bedeutender Vorteil auf Märkten mit begrenztem Zugang zu modernen Chips.

Die Kontroverse um Cyberangriffe mit künstlicher Intelligenz
Auch in dieser Woche gab es eine große Kontroverse. Anthropic behauptet, den ersten groß angelegten Cyberangriff vereitelt zu haben, der mit minimalen menschlichen Eingriffen durchgeführt wurde, die angeblich von chinesischen staatlich gesponserten Hackern mit Hilfe der künstlichen Intelligenz Claude Code durchgeführt wurde. Nach Angaben des Unternehmens führte die KI 80-90 technische Schritte des % aus. Diese Behauptung hat jedoch bei unabhängigen Cybersicherheitsforschern starke Skepsis ausgelöst. Sie argumentieren, dass aktuelle KI-Agenten noch nicht in der Lage sind, solch komplexe Angriffe selbstständig auszuführen, und verweisen darauf, dass die verwendeten Tools gängig sind und dass KI eine bekannte Tendenz „die Fakten “halluzinieren", was sie zu einem unzuverlässigen Hacker macht. Dieses Ereignis hat eine Grundsatzdebatte über die realen Fähigkeiten von KI in der Cybersicherheit und den schmalen Grat zwischen der Demonstration der Leistungsfähigkeit eines Produkts und der Verbreitung von Angst ausgelöst.
Sie waren sich zwar einig, dass KI Aufgaben wie Protokollanalyse und Reverse Engineering beschleunigen kann, stellten aber fest, dass KI-Agenten noch nicht in der Lage sind, mehrstufige Aufgaben ohne menschliches Eingreifen auszuführen, und dass sich Cyberangriffe nicht wesentlich effizienter automatisieren lassen als Hacking-Tools, die seit Jahrzehnten verfügbar sind. „Die Angreifer haben hier nichts Neues erfunden“.“ sagte der Forscher Kevin Beaumont in einem Online-Sicherheitsforum.
Laut Anthropic haben die Hacker neben Claude Code auch gängige Open-Source-Tools verwendet. Allerdings sind auch Sicherheitsexperten Schutzmaßnahmen gegen diese bekannten Tools bekannt, und es ist unklar, wie Claude Code diese Situation ändern würde.
Anthropic selbst hat darauf hingewiesen, dass Claude Code die Informationen, die er angeblich gehackt hat, möglicherweise falsch dargestellt hat, weil er „die Ergebnisse oft übertrieben“ und „die Daten manchmal gefälscht“ hat. Ein solches Verhalten stellt nach Ansicht des Unternehmens ein erhebliches Hindernis für die Nutzung des Systems zur Durchführung von Cyberangriffen dar.
Im Oktober beschuldigte David Sacks, der Berater des Weißen Hauses für künstliche Intelligenz, Anthropic der Durchführung von „Ausgeklügelte Regulierungsstrategien, die auf Angstmacherei beruhen“.

Künstliche Intelligenz lernt, ihr eigenes Gedächtnis zu durchsuchen, und steigert so Effizienz und Genauigkeit
Yuchen Fan und seine Kollegen von der Tsinghua Universität, der Shanghai Jiao Tong Universität, dem Shanghai AI Laboratory, dem University College London, der China State Construction Engineering Corporation Third Bureau und WeChat AI stellten die Methode vor Selbstsuchendes Verstärkungslernen (SSRL), ein innovatives Verfahren, das die Art und Weise, wie große Sprachmodelle auf Informationen zugreifen und diese nutzen, erheblich verbessert. Dieser Ansatz lehrt die Modelle, systematisch ihre eigenen Parameter zu suchen - simuliert die Websuche durch das Erstellen und Beantworten von Suchanfragen und verbessert so die Wissensextraktion aus den vorhandenen Trainingsdaten erheblich. In Tests mit sechs Benchmarks erzielten die SSRL-fähigen Modelle hervorragende Leistungen, wobei ein Modell eine Genauigkeit von 43,1 % erreichte. Mit dieser Technik werden auch effizientere hybride Systeme geschaffen, bei denen die KI zunächst ihr internes Wissen abfragt, bevor sie nach externen Informationen sucht, was die Rechenkosten senken und gleichzeitig die Antwortgenauigkeit bei wissensintensiven Aufgaben verbessern kann.

Die Charge - DeepLearning.Ai von Andrew Ng / gnews.cz - GH