Schlüsselwörter:KI-Technologie, Große Sprachmodelle, Tiefes Lernen, Künstliche Intelligenz, Maschinelles Lernen, Natürliche Sprachverarbeitung, Computer Vision, Bestärkendes Lernen, nanochat Open-Source-Projekt, OpenAI selbstentwickelter KI-Chip, Sora 2 Deepfake-Ethik, Claude Sonnet 4.5, GPT-5 Pro mathematische Schlussfolgerung
🔥 Fokus
Andrej Karpathy veröffentlicht nanochat: ChatGPT für 100 Dollar selbst gebaut : Andrej Karpathy, ehemaliger AI-Direktor bei Tesla, hat das Open-Source-Projekt nanochat vorgestellt. Mit weniger als 8.000 Zeilen Code realisiert es den kompletten Trainings- und Inferenzprozess von ChatGPT. Das Projekt zielt darauf ab, die Einstiegshürde für die LLM-Forschung zu senken. Nutzer benötigen lediglich eine Cloud-GPU (ca. 100 Dollar, 4 Stunden Training), um ein dialogfähiges Mini-ChatGPT aufzubauen. Nach 12 Stunden Training kann die Leistung die GPT-2 CORE-Metriken übertreffen. nanochat wird das Abschlussprojekt des LLM101n-Kurses sein und hat das Potenzial, sich zu einer Forschungsplattform oder einem Benchmark-Tool zu entwickeln, was Karpathys anhaltende Leidenschaft für AI-Bildung und -Demokratisierung unterstreicht. (Quelle: GitHub nanochat, Reddit r/deeplearning, 36氪, 36氪, 36氪, 36氪)

OpenAI und Broadcom entwickeln gemeinsam AI-Chips, planen 10 Gigawatt Recheninfrastruktur : OpenAI hat eine strategische Partnerschaft mit Broadcom bekannt gegeben, um gemeinsam maßgeschneiderte AI-Chips und Rechensysteme zu entwickeln und zu implementieren. Ziel ist es, zwischen der zweiten Hälfte 2026 und Ende 2029 eine Inferenzinfrastruktur mit einer Gesamtleistung von 10 Gigawatt zu schaffen. Dieser Schritt zeigt, dass OpenAI sich nicht mehr mit dem Kauf bestehender GPUs zufriedengibt, sondern durch vertikale Integration, beginnend auf Transistorebene, an der Hardwareentwicklung teilnimmt, um die Leistung von AI-Modellen zu optimieren, Kosten zu senken und den zukünftigen exponentiell wachsenden Rechenleistungsbedarf zu decken. OpenAI bezeichnet diese Zusammenarbeit als “das größte gemeinsame Industrieprojekt in der Geschichte der Menschheit” und nutzt sogar AI-Modelle zur Unterstützung des Chipdesigns, was eine tiefgreifende Beteiligung von AI in der Hardwareentwicklung andeutet. (Quelle: OpenAI, Bloomberg, CNBC, 36氪, 36氪, 36氪)

Sora 2 löst Deepfake-Ethik-Krise und Urheberrechtsstreitigkeiten aus : OpenAIs Videogenerierungsmodell Sora 2 erlangte aufgrund seiner hochrealistischen Generierungsfähigkeiten schnell Bekanntheit, brachte aber auch ernsthafte ethische und urheberrechtliche Herausforderungen mit sich. Nutzer generierten mit Sora 2 gefälschte Videos von verstorbenen Prominenten (wie Michael Jackson, Robin Williams), was zu starker Empörung bei den Familien führte, die dies als Missbrauch und Respektlosigkeit gegenüber dem Bild der Verstorbenen empfanden. OpenAI reagierte darauf, indem es erklärte, dass Persönlichkeiten des öffentlichen Lebens und ihre Familien das Recht haben sollten, die Nutzung ihres Bildes zu kontrollieren, und plant, präzisere Urheberrechtskontrollen und Umsatzbeteiligungsmechanismen anzubieten. Die Branche befürchtet jedoch, dass die zunehmende Verbreitung von Open-Source-Deepfake-Modellen die Gesellschaft zwingt, sich schnell an die Auswirkungen von AI-generierten Inhalten anzupassen und wirksame technische und rechtliche Schutzmaßnahmen zu finden. (Quelle: Washington Post, BBC, 量子位)

Claude Sonnet 4.5, Microsoft Agent Framework und Cursor IDE treiben AI-Codierungsfähigkeiten voran : Im Bereich der AI-Codierung gibt es bedeutende Durchbrüche: Claude Sonnet 4.5 erreicht auf dem SWE-bench Verified Benchmark eine Genauigkeit von 77,2 %, was eine deutliche Verbesserung gegenüber früheren Modellen darstellt. Gleichzeitig verwandelt das Microsoft Agent Framework VS Code in eine AI-native Umgebung, die es Agents ermöglicht, eigenständig Codeänderungen über mehrere Dateien hinweg zu verarbeiten; Cursor IDE 1.7 führt ebenfalls einen “Agent-Modus” ein, der komplexe Probleme mit einem Klick lösen kann. Diese Fortschritte zeigen, dass AI Agents bereits einen Großteil der Entwicklungsaufgaben übernehmen können, was Diskussionen über eine mögliche übermäßige Abhängigkeit von AI bei Entwicklern sowie über potenzielle technische Schulden durch AI-generierten Code auslöst. (Quelle: Reddit r/artificial)
GPT-5 Pro löst Erdős-Mathematikproblem, zeigt starke Literaturrecherche- und Fehlererkennungsfähigkeiten : OpenAIs GPT-5 Pro zeigt erstaunliche Fähigkeiten im mathematischen Denken: Allein anhand eines Bildes des Erdős-Problems #339 konnte es die entscheidende Literatur finden, die besagt, dass das Problem bereits 2003 gelöst wurde. Darüber hinaus konnte GPT-5 Pro innerhalb von 18 Minuten schwerwiegende Mängel in einer veröffentlichten Arbeit aufdecken und übertraf damit die Forschungsergebnisse menschlicher Experten nach mehreren Tagen. Dieser Durchbruch unterstreicht das enorme Potenzial von GPT-5 Pro bei der präzisen Informationsbeschaffung, der Lösung komplexer Probleme und der Überprüfung wissenschaftlicher Literatur, was darauf hindeutet, dass AI den Forschungsprozess erheblich beschleunigen wird, insbesondere bei der Überprüfung akademischer Behauptungen und der Entdeckung logischer Widersprüche. (Quelle: Sebastien Bubeck, [Greg Brockman](https://x.com/gdb/status/1977