Schlüsselwörter:AlphaEvolve, GPT-4.1, Lovart, DeepSeek-V3, KI-Agent, Algorithmische Selbstevolution, Gemini-Großsprachmodell, Multi-Head-Potential-Aufmerksamkeit, KI-Design-Agent, Hardware-Software-Co-Design

🔥 Fokus

Google DeepMind veröffentlicht KI-Programmieragent AlphaEvolve, der selbstständige Algorithmen-Evolution und -Optimierung ermöglicht: Google DeepMind stellt den KI-Programmieragenten AlphaEvolve vor. Dieser Agent kann die Kreativität des großen Sprachmodells Gemini mit einem automatisierten Evaluator kombinieren, um Algorithmen autonom zu entdecken, zu optimieren und zu iterieren. AlphaEvolve ist seit einem Jahr bei Google im Einsatz und wurde erfolgreich zur Steigerung der Effizienz von Rechenzentren (Wiederherstellung von 0,7 % der globalen Rechenleistung des Borg-Systems), zur Beschleunigung des Gemini-Modelltrainings (23 % schneller, Verkürzung der Gesamt-Trainingszeit um 1 %), zur Optimierung des TPU-Chipdesigns und zur Lösung mehrerer mathematischer Probleme, einschließlich des „Kusszahlenproblems“, eingesetzt. Beispielsweise wurde der Algorithmus für die Multiplikation komplexer 4×4-Matrizen mit 48 Skalarmultiplikationen verbessert, womit der 56 Jahre alte Strassen-Algorithmus übertroffen wurde. Diese Technologie demonstriert das enorme Potenzial von KI bei der Lösung komplexer wissenschaftlicher Berechnungen und technischer Probleme und könnte zukünftig in breiteren Bereichen wie Materialwissenschaft und Medikamentenentwicklung Anwendung finden. (Quelle: QbitAI, 36Kr, 36Kr, 36Kr, Reddit r/LocalLLaMA, Reddit r/artificial, Reddit r/ArtificialInteligence, Reddit r/MachineLearning, op7418, TheRundownAI, sbmaruf, andersonbcdefg)

Google DeepMind veröffentlicht KI-Programmieragent AlphaEvolve, der selbstständige Algorithmen-Evolution und -Optimierung ermöglicht

OpenAI GPT-4.1-Modellreihe auf ChatGPT gestartet, verbessert Programmier- und Anweisungsbefolgungsfähigkeiten: OpenAI kündigt an, dass die drei Modelle GPT-4.1, GPT-4.1 mini und GPT-4.1 nano offiziell auf der ChatGPT-Plattform für alle Nutzer verfügbar sind. GPT-4.1 konzentriert sich auf die Verbesserung der Programmier- und Befehlsausführungsfähigkeiten und erzielte im SWE-bench Verified Software-Engineering-Benchmark 55 %, was deutlich besser ist als die 33 % von GPT-4o und die 38 % von GPT-4.5, bei einer um 50 % reduzierten redundanten Ausgabe. GPT-4.1 mini wird GPT-4o mini als neues Standardmodell ersetzen. GPT-4.1 nano ist für Aufgaben mit geringer Latenz konzipiert und unterstützt einen Kontext von 1 Million Token. Obwohl die API-Version Millionen von Token unterstützt, hat die Kontextlänge von GPT-4.1 in ChatGPT Diskussionen unter Nutzern ausgelöst. Einige Nutzer stellten bei Tests fest, dass das Kontextfenster nicht die 1 Million Token der API-Version erreicht, und äußerten sich enttäuscht darüber. (Quelle: 36Kr, 36Kr, 36Kr, op7418)

OpenAI GPT-4.1-Modellreihe auf ChatGPT gestartet, verbessert Programmier- und Anweisungsbefolgungsfähigkeiten

KI-Design-Agent Lovart wird zum Hit, erstellt professionelle visuelle Designs mit nur einem Satz: Der KI-Design-Agent Lovart erfreut sich schnell großer Beliebtheit. Nutzer können mit nur einem Satz professionelle visuelle Designs wie Poster, Marken-VI und Storyboards erstellen. Lovart kann den Designprozess automatisch planen, verschiedene Spitzenmodelle wie GPT image-1, Flux pro und Kling AI aufrufen und unterstützt erweiterte Funktionen wie Ebenenbearbeitung, Ein-Klick-Freistellung und Hintergrundwechsel. Das Produkt wird von der Übersee-Tochtergesellschaft von LiblibAI (mit Sitz in San Francisco) unabhängig betrieben, zu den Kernentwicklern gehört Wang Haofan von InstantID. Das Aufkommen von Lovart spiegelt den Trend wider, dass KI-Agenten in professionelle Bereiche vordringen. Seine Benutzerfreundlichkeit und Professionalität haben breite Aufmerksamkeit erregt, mit über 20.000 Beta-Test-Anmeldungen innerhalb eines Tages nach dem Start. (Quelle: 36Kr, 36Kr, op7418, op7418)

KI-Design-Agent Lovart wird zum Hit, erstellt professionelle visuelle Designs mit nur einem Satz

DeepSeek veröffentlicht neues Paper, erläutert Hardware-Software-Co-Design und Geheimnisse der Kostenoptimierung des V3-Modells: Das DeepSeek-Team hat ein neues Paper veröffentlicht, das die koordinierten Innovationen in der Hardware-Architektur und im Modelldesign des DeepSeek-V3-Modells detailliert beschreibt. Ziel ist es, Kosteneffizienz bei groß angelegtem KI-Training und -Inferenz zu erreichen. Das Paper hebt Schlüsseltechnologien hervor, wie Multi-Head Latent Attention (MLA) zur Verbesserung der Speichereffizienz, Mixture of Experts (MoE)-Architektur zur Optimierung des Gleichgewichts zwischen Berechnung und Kommunikation, FP8-Training mit gemischter Präzision zur vollen Ausnutzung der Hardwareleistung und Multi-Plane-Netzwerktopologie zur Reduzierung des Netzwerk-Overheads im Cluster. Diese Innovationen ermöglichten das Training von DeepSeek-V3 auf 2048 H800 GPUs, wobei der Genauigkeitsverlust beim FP8-Training unter 0,25 % lag und der KV-Cache nur 70 KB pro Token betrug. Das Paper gibt zudem sechs Empfehlungen für die zukünftige Entwicklung von KI-Hardware ab und betont die Bedeutung von Robustheit, direkter CPU-GPU-Verbindung, intelligenten Netzwerken, hardwarebasierter Kommunikationssequenzierung, Integration von Netzwerkberechnungen und Neugestaltung der Speicherarchitektur. (Quelle: 36Kr, 36Kr, hkproj, NandoDF, tokenbender, teortaxesTex)

DeepSeek veröffentlicht neues Paper, erläutert Hardware-Software-Co-Design und Geheimnisse der Kostenoptimierung des V3-Modells

Anthropic kündigt neues Modell mit verbesserten Denk- und Werkzeugaufruffähigkeiten an: Anthropic plant, in den kommenden Wochen neue Versionen der Modelle Claude Sonnet und Claude Opus zu veröffentlichen. Die neuen Modelle werden in der Lage sein, frei zwischen Denken und dem Aufrufen externer Werkzeuge, Anwendungen oder Datenbanken zu wechseln, um durch dynamische Interaktion Antworten auf Fragen zu finden. Insbesondere bei der Codegenerierung können die neuen Modelle den geschriebenen Code automatisch testen und bei Fehlern den Ausführungsprozess unterbrechen, um Fehler zu diagnostizieren und in Echtzeit zu korrigieren. Dies wird ihre Nützlichkeit bei der Bearbeitung komplexer Aufgaben und der Codegenerierung erheblich verbessern. (Quelle: op7418, karminski3, TheRundownAI)

Anthropic kündigt neues Modell mit verbesserten Denk- und Werkzeugaufruffähigkeiten an

MiniMax’ neues Sprachmodell Speech-02 führt internationale Benchmarks an und übertrifft OpenAI und ElevenLabs: Das von MiniMax vorgestellte Text-to-Speech (TTS)-Sprachmodell der neuen Generation, Speech-02, hat in der internationalen autoritativen Sprachbewertungsrangliste Artificial Analysis hervorragend abgeschnitten. Insbesondere bei wichtigen Indikatoren für das Stimmklonen wie Wortfehlerrate (WER) und Sprecherähnlichkeit (SIM) erzielte es SOTA-Ergebnisse (State-of-the-Art) und übertraf damit vergleichbare Produkte von OpenAI und ElevenLabs. Zu den technischen Innovationen des Modells gehören Zero-Shot-Stimmklonen und die Verwendung einer Flow-VAE-Architektur. Es unterstützt 32 Sprachen und bietet eine hochgradig menschenähnliche, personalisierte und vielfältige Sprachsynthese zu geringeren Kosten. (Quelle: 36Kr)

MiniMax' neues Sprachmodell Speech-02 führt internationale Benchmarks an und übertrifft OpenAI und ElevenLabs

Salesforce stellt die vollständig quelloffene, einheitliche multimodale Modellreihe BLIP3-o vor: Salesforce hat BLIP3-o veröffentlicht, eine vollständig quelloffene, einheitliche multimodale Modellreihe, die Architektur, Trainingsmethoden und Datensätze umfasst. Die Modellreihe verwendet einen neuartigen Ansatz, bei dem ein Diffusion Transformer zur Generierung semantisch reichhaltiger CLIP-Bildmerkmale anstelle herkömmlicher VAE-Repräsentationen eingesetzt wird. Gleichzeitig haben die Forscher die Wirksamkeit einer sequenziellen Vortrainingsstrategie für einheitliche Modelle nachgewiesen, bei der zuerst das Bildverständnis und dann die Bildgenerierung trainiert wird. (Quelle: NandoDF, teortaxesTex)

Salesforce stellt die vollständig quelloffene, einheitliche multimodale Modellreihe BLIP3-o vor

Stability AI veröffentlicht kleines Open-Source Text-to-Speech-Modell Stable Audio Open Small: Stability AI hat ein Text-to-Speech-Modell namens Stable Audio Open Small veröffentlicht und als Open Source bereitgestellt. Das Modell hat nur 341 Millionen Parameter und wurde optimiert, um vollständig auf Arm CPUs zu laufen. Das bedeutet, dass die überwiegende Mehrheit der Smartphones lokal und ohne Internetverbindung innerhalb von Sekunden Musikproduktionssamples generieren kann. (Quelle: op7418)

11x baut Kernprodukt Alice als KI-Agent mit LangGraph und anderen Technologien neu auf: Nach Erreichen von 10 Millionen US-Dollar ARR hat das Unternehmen 11x sein Kernprodukt Alice von Grund auf als KI-Agent neu aufgebaut. Gründe für den Neuaufbau waren Verbesserungen bei Modellen und Frameworks (wie LangGraph) sowie die beeindruckende Leistung der Replit-Agenten, die sie davon überzeugten, dass das Zeitalter der Agenten angebrochen ist. Sie verwendeten einen einfachen Technologie-Stack und nutzten die LangGraph-Plattform. Bei der Erstellung von Marketingkampagnen begannen sie mit einer einfachen ReAct-Architektur, fügten Workflows hinzu, um die Zuverlässigkeit zu erhöhen, und wechselten dann zu Multi-Agenten, um Flexibilität zu gewinnen, betonten aber gleichzeitig, dass Einfachheit in einfachen Szenarien immer noch die beste Wahl ist. Sie stellten auch fest, dass Werkzeuge für Agenten nützlicher sind als inhärentes Vorwissen. (Quelle: LangChainAI, hwchase17, hwchase17)

11x baut Kernprodukt Alice als KI-Agent mit LangGraph und anderen Technologien neu auf

Box restrukturiert Dokumentenextraktionsprozess mit Agentenarchitektur: Ben Kus, CTO von Box, teilte seine Erfahrungen bei der Entwicklung ihres Dokumentenextraktionsagenten. Er erwähnte, dass nach guten Prototypergebnissen Herausforderungen auftraten, da Aufgaben und Erwartungen immer komplexer wurden und man in ein „Tal der Ernüchterung“ geriet. Inspiriert von Andrew Ng und Harrison Chase gestalteten sie das System von Grund auf als Agentenarchitektur neu. Diese neue Architektur ist klarer, effektiver, leicht zu modifizieren und brachte einen unerwarteten Vorteil – eine verbesserte KI-Engineering-Kultur. Er betonte, dass eine Agentenarchitektur so früh wie möglich aufgebaut werden sollte. (Quelle: LangChainAI)

Box restrukturiert Dokumentenextraktionsprozess mit Agentenarchitektur

Studie: Versteckte Zustände von LLMs schätzen Wirtschafts- und Finanzdaten genauer: Eine Studie zeigt, dass durch das Training eines linearen Modells zur Analyse der versteckten Zustände von großen Sprachmodellen (LLMs) Wirtschafts- und Finanzstatistiken genauer geschätzt werden können als durch die direkte Abhängigkeit von den Textausgaben der LLMs. Die Forscher glauben, dass ein umfangreiches Nachtraining zur Reduzierung von Halluzinationen die Neigung oder Fähigkeit des Modells zu fundierten Vermutungen geschwächt haben könnte. Dies deutet darauf hin, dass es noch mehr Arbeit im Bereich der Extraktion von LLM-Fähigkeiten und des allgemeinen Nachtrainings gibt. (Quelle: menhguin, paul_cal)

Studie: Versteckte Zustände von LLMs schätzen Wirtschafts- und Finanzdaten genauer

Nous Research startet Testnetz für das Vortraining eines 40B-Parameter-LLM: Nous Research hat den Start eines Testnetzes für das Vortraining eines großen Sprachmodells mit 40 Milliarden Parametern angekündigt. Das Modell verwendet eine MLA-Architektur, und der Datensatz umfasst FineWeb (14T), FineWeb-2 (4T nach Entfernung einiger Minderheitensprachen) und The Stack v2 (1T). Ziel ist es, ein kleines Modell zu trainieren, das auf einer einzelnen H/DGX trainiert werden kann. Der Projektleiter erwähnte Herausforderungen bei der Implementierung von Tensor-Parallelität in MLA mit benutzerdefinierter Rückpropagierung. (Quelle: Teknium1)

Nous Research startet Testnetz für das Vortraining eines 40B-Parameter-LLM

AI Agent IKEA: Verstärkte interne und externe Wissenssynergie für effiziente adaptive Suche: Forscher stellen einen Reinforcement-Learning-Agenten namens IKEA vor, der lernt, wann keine Informationsbeschaffung durchgeführt werden soll, parametrisches Wissen priorisiert und nur bei Bedarf abruft. Kernstück ist ein Reinforcement-Learning-Ansatz, der auf einer wissensgrenzbewussten Belohnung und einem Trainingsdatensatz basiert. Experimente zeigen, dass IKEA Search-R1 in der Leistung übertrifft und die Anzahl der Abrufe um etwa 35 % reduziert. Die Forschung basiert auf dem Agenten-RAG-Framework Knowledge-R1, kann auf ungesehene Daten generalisieren und von Basismodellen auf 7B-Modelle (wie Qwen2.5) erweitert werden. Für das Training wurde die GRPO-Methode verwendet, die keinen Value-Head benötigt, einen geringeren Speicherbedarf hat und stärkere Belohnungssignale liefert. (Quelle: tokenbender)

AI Agent IKEA: Verstärkte interne und externe Wissenssynergie für effiziente adaptive Suche

Mistral AI führt unternehmenstauglichen KI-Assistenten Le Chat Enterprise ein: Mistral AI hat Le Chat Enterprise veröffentlicht, einen hochgradig anpassbaren und sicheren, agentengesteuerten KI-Assistenten, der speziell für Unternehmen entwickelt wurde. Das Produkt zielt darauf ab, die spezifischen Bedürfnisse von Geschäftsanwendern zu erfüllen, indem es leistungsstarke KI-Funktionen bietet und gleichzeitig Datensicherheit und Datenschutz gewährleistet. (Quelle: Ronald_vanLoon)

Meta FAIR Chemieteam stellt umfangreichen molekularen Datensatz und Modellsuite OMol25 vor: Das FAIR Chemieteam von Meta hat OMol25 veröffentlicht, einen riesigen Datensatz mit über 100 Millionen verschiedenen Molekülen und einer entsprechenden Modellsuite. Das Projekt zielt darauf ab, die Quanteneigenschaften von Molekülen vorherzusagen, die Materialentdeckung und das Medikamentendesign zu beschleunigen und hochpräzise, maschinell lerngetriebene Simulationen für die Chemie und Physik voranzutreiben. (Quelle: clefourrier)

🧰 Tools

SmolVLM WebGPU-Version veröffentlicht, kann Personen und Objekte im Webbrowser erkennen: Das leichtgewichtige visuelle Sprachmodell SmolVLM hat eine WebGPU-Version veröffentlicht, die Nutzer direkt im Webbrowser erleben können. Das Modell ist nur etwa 500 MB groß und kann Objekte in Videos erkennen, sogar Details wie Schwerter bei Actionfiguren. Tests zeigen, dass es Zahlen korrekt erkennt, aber bei der Identifizierung bestimmter Marken (z. B. auf Getränkeverpackungen) Abweichungen aufweisen kann. Auf einer 3080Ti-Grafikkarte erfolgt die Erkennung meist innerhalb von 5 Sekunden. Nutzer können es online über einen Hugging Face Spaces-Link ausprobieren, eine Kamera ist erforderlich. (Quelle: karminski3)

LlamaIndex führt verbessertes Langzeitgedächtnismodul für Agenten ein: LlamaIndex hat einen Blogbeitrag über die Grundlagen des Gedächtnisses in Agentensystemen veröffentlicht und eine neue Implementierung eines Gedächtnismoduls vorgestellt. Dieses Modul verwendet einen blockbasierten Ansatz zum Aufbau eines Langzeitgedächtnisses, der es Benutzern ermöglicht, verschiedene Blöcke zum Speichern und Beibehalten verschiedener Arten von Informationen zu konfigurieren, z. B. Blöcke für statische Informationen, Blöcke zur Extraktion von zusammenfassenden Informationen über die Zeit und Vektorsuchblöcke zur Unterstützung der semantischen Suche. Benutzer können das Gedächtnismodul auch an spezifische Anwendungsbereiche anpassen. (Quelle: jerryjliu0)

LlamaIndex führt verbessertes Langzeitgedächtnismodul für Agenten ein

KI-Meeting-Protokollierungssoftware Granola 2.0 veröffentlicht großes Update und erhält 43 Millionen US-Dollar in Serie-B-Finanzierung: Die KI-Meeting-Protokollierungssoftware Granola 2.0 hat eine Reihe von Updates erhalten, darunter Funktionen für Teamkollaboration, intelligente Ordner, KI-Chat-Analyse, Modellauswahl, unternehmenstaugliches Browsing und Slack-Integration. Gleichzeitig gab das Unternehmen den Abschluss einer Serie-B-Finanzierungsrunde in Höhe von 43 Millionen US-Dollar bekannt. Derzeit unterstützt die Software hauptsächlich die Transkription von englischsprachigen Meeting-Inhalten. (Quelle: op7418)

Replit und MakerThrive kooperieren bei IdeaHunt, das über 1400 Startup-Ideen bietet: Replit hat in Zusammenarbeit mit MakerThrive eine Anwendung namens IdeaHunt entwickelt, die über 1400 Startup-Ideen zusammenfasst. Diese Ideen stammen aus Diskussionen über Pain Points auf Reddit und Hacker News und sind nach Kategorien wie SaaS, Bildung, Fintech usw. klassifiziert. IdeaHunt unterstützt Filterung und Sortierung, aktualisiert täglich neue Ideen und bietet Anregungen für die gemeinsame Projektentwicklung mit KI-Agenten. (Quelle: amasad)

Replit und MakerThrive kooperieren bei IdeaHunt, das über 1400 Startup-Ideen bietet

Open Agent Platform veröffentlicht offizielle Dokumentationswebsite: LangChains Open Agent Platform (OAP) hat jetzt eine offizielle Dokumentationswebsite. OAP zielt darauf ab, die in den letzten 6 Monaten für Agenten entwickelten UI/UX-Elemente in einer No-Code-Plattform zu integrieren und wurde als Open Source veröffentlicht. Die Plattform soll die Hürden für die Erstellung und Nutzung von KI-Agenten senken. (Quelle: LangChainAI, hwchase17, hwchase17, hwchase17)

Open Agent Platform veröffentlicht offizielle Dokumentationswebsite

Nscale integriert sich mit Hugging Face zur Vereinfachung der KI-Modellinferenzbereitstellung: Die KI-Inferenzplattform Nscale hat ihre Integration mit Hugging Face angekündigt, die es Nutzern erleichtert, fortschrittliche KI-Modelle wie LLaMA4 und Qwen3 bereitzustellen. Diese Integration zielt darauf ab, schnelle, effiziente, nachhaltige und ohne komplexe Einrichtung produktionsreife Inferenzdienste anzubieten. (Quelle: huggingface, reach_vb)

Nscale integriert sich mit Hugging Face zur Vereinfachung der KI-Modellinferenzbereitstellung

RunwayML neue Funktion: Szenen-Neubeleuchtung durch Prompts: RunwayML demonstrierte die neuen Fähigkeiten seines Gen-3-Modells in der Videobearbeitung. Nutzer können durch einfache Prompts die Lichtverhältnisse einer Videoszene verändern, beispielsweise die Innenbeleuchtung anpassen. Dies zeigt die zunehmende Benutzerfreundlichkeit und Kontrolle von KI in der Videopostproduktion. (Quelle: c_valenzuelab)

RunwayML neue Funktion: Szenen-Neubeleuchtung durch Prompts

📚 Lernen

Andrew Ng und Anthropic starten neuen MCP-Kurs: Andrew Ngs DeepLearning.AI hat in Zusammenarbeit mit Anthropic einen neuen Kurs zum Model Context Protocol (MCP) gestartet. Der Kurs soll den Lernenden helfen, die interne Funktionsweise von MCP zu verstehen, wie sie ihre eigenen Server erstellen und wie sie diese mit lokalen oder entfernten Anwendungen verbinden können, die von Claude unterstützt werden. MCP zielt darauf ab, das aktuelle Problem ineffizienter und fragmentierter LLM-Anwendungen zu lösen, bei denen für jedes Werkzeug oder jede externe Datenquelle eine benutzerdefinierte Logik geschrieben werden muss. (Quelle: op7418)

YouTube-Videotutorial zum Erstellen von DeepSeek von Grund auf verfügbar: Auf YouTube ist eine Reihe von Videotutorials zum Erstellen des DeepSeek-Modells von Grund auf erschienen, die derzeit bis zur 25. Folge aktualisiert wurde. Das Tutorial ist detailliert und kann ähnliche Tutorials zum Erstellen von DeepSeek von Grund auf auf HuggingFace ergänzen, was den Lernenden wertvolle praktische Anleitungen bietet. (Quelle: karminski3)

YouTube-Videotutorial zum Erstellen von DeepSeek von Grund auf verfügbar

Beliebtes GitHub-Projekt ChinaTextbook sammelt PDF-Lehrbücher für alle Stufen: Ein GitHub-Projekt namens ChinaTextbook erfreut sich großer Beliebtheit. Es sammelt verschiedene PDF-Lehrbuchressourcen vom chinesischen Festland für Grundschule, Mittelstufe, Oberstufe und Universität. Der Initiator des Projekts hofft, durch die Open-Source-Bereitstellung dieser Bildungsressourcen die allgemeine Schulpflicht zu fördern, regionale Bildungsunterschiede zu beseitigen und Kindern von Überseechinesen zu helfen, die Bildungsinhalte in China zu verstehen. Das Projekt bietet auch ein Werkzeug zum Zusammenführen von Dateien, um die Beschränkungen für das Hochladen großer Dateien auf GitHub zu umgehen. (Quelle: GitHub Trending)

Beliebtes GitHub-Projekt ChinaTextbook sammelt PDF-Lehrbücher für alle Stufen

Pavel Grinfelds Vortragsreihe über Innenprodukte erhält Lob: Die Vortragsreihe des Mathematikpädagogen Pavel Grinfeld über Innenprodukte (inner products) auf YouTube wird hoch gelobt. Zuschauer berichten, dass die Vorträge helfen, mathematische Konzepte aus einer neuen Perspektive zu verstehen und die Grenzen des eigenen bisherigen Verständnisses zu erkennen. (Quelle: sytelus)

💼 Wirtschaft

KI-Sprachlern-App Duolingo übertrifft Erwartungen, Aktienkurs steigt stark an: Die Sprachlern-App Duolingo veröffentlichte ihren Finanzbericht für das erste Quartal 2025 mit einem Gesamtumsatz von 230,7 Millionen US-Dollar, einem Anstieg von 38 % gegenüber dem Vorjahr, und einem Nettogewinn von 35,1 Millionen US-Dollar. Die täglich aktiven Nutzer (DAU) und monatlich aktiven Nutzer (MAU) stiegen im Jahresvergleich um 49 % bzw. 33 %. Durch den Einsatz von KI-Technologie konnte die Effizienz bei der Erstellung von Kursinhalten um das Zehnfache gesteigert und 148 neue Sprachkurse hinzugefügt werden. Die Abonnementrate für den KI-Mehrwertdienst Duolingo Max erreichte 7 %, was zu einem Anstieg der Abonnementeinnahmen um 45 % im Jahresvergleich führte. Nach der Veröffentlichung des Finanzberichts stieg der Aktienkurs des Unternehmens um über 20 %, und der Marktwert ist seit dem Tiefpunkt im Jahr 2022 um etwa das 8,5-fache gestiegen. (Quelle: 36Kr)

KI-Sprachlern-App Duolingo übertrifft Erwartungen, Aktienkurs steigt stark an

Databricks plant Übernahme von Neon für 1 Milliarde US-Dollar zur Stärkung im Bereich AI Agent: Laut Reuters plant das Daten- und KI-Unternehmen Databricks die Übernahme des Start-ups Neon für 1 Milliarde US-Dollar, um seine Position im Bereich der AI Agents zu stärken. Diese Übernahme ist Teil der kontinuierlichen Akquisitionsstrategie von Databricks im KI-Sektor und unterstreicht die Ambitionen des Unternehmens in der Technologie der KI-Agenten. (Quelle: Reddit r/artificial)

Databricks plant Übernahme von Neon für 1 Milliarde US-Dollar zur Stärkung im Bereich AI Agent

DeepSeek-Gründer Liang Wenfeng bleibt nach Modellerfolg zurückhaltend und treibt Open Source und technische Entwicklung voran: Seit der Veröffentlichung des DeepSeek R1-Modells und der damit verbundenen breiten Aufmerksamkeit bleibt Gründer Liang Wenfeng zurückhaltend und konzentriert sich auf technische Entwicklung und Open-Source-Beiträge. DeepSeek hat in den letzten 100 Tagen mehrere Code-Repositories als Open Source veröffentlicht und seine Sprach-, Mathematik- und Codemodelle kontinuierlich aktualisiert. Trotz großer Aufmerksamkeit von Kapitalmärkten und Industrie hat Liang Wenfeng keine Eile bei der Finanzierung, Expansion oder dem Streben nach C-Nutzer-Skalierung gezeigt, sondern hält an seinem etablierten Tempo der AGI-Erforschung fest und setzt auf die drei Hauptrichtungen Mathematik/Code, Multimodalität und natürliche Sprache. (Quelle: 36Kr)

DeepSeek-Gründer Liang Wenfeng bleibt nach Modellerfolg zurückhaltend und treibt Open Source und technische Entwicklung voran

🌟 Community

Grok-Modell erwähnt wiederholt kontroverse Aussagen zum „Völkermord an Weißen in Südafrika“ in irrelevanten Antworten, was zu Verwirrung und Diskussionen bei Nutzern führt: Der KI-Assistent Grok von X-Plattform hat bei der Beantwortung verschiedener Nutzerfragen wiederholt und ohne ersichtlichen Grund das höchst umstrittene Thema des „Völkermords an Weißen in Südafrika“ angesprochen, selbst wenn die Fragen der Nutzer damit nichts zu tun hatten. Beispielsweise lenkten Groks Antworten auch dann auf dieses Thema, wenn Nutzer Fragen zu HBO Max oder Lieferantensteuern stellten. Einige Analysten vermuten, dass dies auf eine unsachgemäße Änderung des System-Prompts zurückzuführen sein könnte, die dazu führt, dass das Modell diesen Standpunkt in allen Antworten erwähnt. Dieses Phänomen hat bei den Nutzern Bedenken hinsichtlich der Inhaltskontrolle und Informationsgenauigkeit von Grok sowie Diskussionen über eine mögliche dahinterstehende voreingenommene Beeinflussung ausgelöst. (Quelle: colin_fraser, colin_fraser, teortaxesTex, code_star, jd_pressman, colin_fraser, paul_cal, Dorialexander, Reddit r/artificial, Reddit r/ArtificialInteligence)

Grok-Modell erwähnt wiederholt kontroverse Aussagen zum „Völkermord an Weißen in Südafrika“ in irrelevanten Antworten, was zu Verwirrung und Diskussionen bei Nutzern führt

Diskussion zum Aufbau von KI-Agenten: Fähigkeit zur Definition, Speicherung und Korrektur von Plänen erforderlich: Bezüglich der Schlüsselelemente effektiver KI-Agenten (agentic LLMs) wird neben langem Kontext und Caching, präzisen Werkzeugaufrufen und zuverlässiger API-Leistung eine vierte entscheidende Fähigkeit postuliert: die Fähigkeit, Pläne zu definieren, zu speichern und zu korrigieren. Viele Forschungsarbeiten zur Planung mit großen Sprachmodellen haben möglicherweise keine Durchbrüche erzielt, aber die Realität ist, dass viele komplexe Aufgaben nicht erledigt werden können, wenn der Agent lediglich auf den neuesten Reiz reagiert (ReAct-Modus) und keine kohärenten, mehrstufigen Teilziele verfolgt. (Quelle: lateinteraction)

Quora CEO Adam D’Angelo teilt Einblicke in die Entwicklung der Poe-Plattform und die KI-Branche: Auf der Interrupt 2025 Konferenz teilte Quora CEO Adam D’Angelo die Überlegungen des Unternehmens zur frühen Positionierung mit verschiedenen Sprachmodellen und Anwendungen sowie zur Einführung der Poe-Plattform. Poe zielt darauf ab, den Nutzerbedarf nach „alle KI an einem Ort“ zu decken und Bot-Erstellern Vertriebs- und Monetarisierungskanäle zu bieten. Er ist der Ansicht, dass Textmodelle derzeit noch dominieren, da Bild-/Videomodelle noch nicht den von den Nutzern erwarteten Qualitätsstandard erreichen. Gleichzeitig beobachtet er, dass KI-Nutzer im Consumer-Bereich eine Loyalität gegenüber bestimmten Modellen zeigen. (Quelle: LangChainAI, hwchase17)

Quora CEO Adam D'Angelo teilt Einblicke in die Entwicklung der Poe-Plattform und die KI-Branche

ChatGPT-Zugriffszahlen steigen auf Platz fünf weltweit und lösen Diskussionen über Veränderungen in der Internetlandschaft aus: Auf Reddit wird diskutiert, dass die Zugriffszahlen der ChatGPT-Website auf den fünften Platz weltweit gestiegen sind und damit Reddit, Amazon und Whatsapp überholt haben und weiter wachsen, während der Traffic anderer Top-10-Websites sinkt, beispielsweise Wikipedia mit einem monatlichen Traffic-Rückgang von fast 6 %. Dieses Phänomen hat Diskussionen darüber ausgelöst, ob das Internet durch KI umgestaltet oder sogar ersetzt wird, da viele Nutzer ChatGPT als primäre Schnittstelle für Informationsbeschaffung und Aufgabenbearbeitung anstelle traditioneller Suchmaschinen oder verschiedener Websites nutzen. In den Kommentaren sind die Meinungen der Nutzer geteilt: Einige sehen dies als normale Iteration der technologischen Entwicklung, ähnlich dem Aufstieg von Facebook und Google; andere befürchten eine Schrumpfung des Content-Ökosystems und einen Modellkollaps; wieder andere hoffen, dass das Internet dadurch Klickökonomie und Spam-Informationen reduzieren kann. (Quelle: Reddit r/ChatGPT)

ChatGPT-Zugriffszahlen steigen auf Platz fünf weltweit und lösen Diskussionen über Veränderungen in der Internetlandschaft aus

Diskussion über Programmiererfahrung mit Claude-Modellen: Nutzerfeedback zu übermäßigem Engineering bei Sonnet 3.7, Opus-Leistung im Fokus: Nutzer der Reddit ClaudeAI-Community diskutieren die Leistung von Claude Opus und Sonnet 3.7 bei Programmier- und Mathematikaufgaben. Ein Nutzer berichtet, dass Sonnet 3.7 trotz klarer Vereinfachungsanweisungen (wie KISS-, DRY-, YAGNI-Prinzipien) dazu neigt, Lösungen übermäßig zu entwerfen und ständige Korrekturen erfordert. Einige Nutzer beginnen, Opus auszuprobieren und sehen erste Verbesserungen in der Qualität der Codeausgabe, wodurch die Anzahl der Änderungen reduziert wird. Andere Nutzer erwähnen, dass die Leistung von Claude bei spezifischeren Anweisungen eher abnehmen kann, während sie bei größerer Freiheit (z. B. „Gib mir ein supercooles Design“) oft überraschend gut ist. Es wird empfohlen, den „Denkwerkzeug“-Prompt zu verwenden, damit sich das Modell bei komplexen Aufgaben selbst kalibriert. (Quelle: Reddit r/ClaudeAI, Reddit r/ClaudeAI)

Tatsächliche Nutzung von KI-Tools in Unternehmen: ChatGPT, Copilot und Deepwiki am weitesten verbreitet: Ein Nutzer, der sich als Techniker in einem Unternehmen bezeichnet, gab in sozialen Medien an, dass in seinem Unternehmen ChatGPT (kostenlose Version), Copilot und Deepwiki die einzigen KI-Produkte sind, die weit verbreitet genutzt werden. Andere intern beworbene KI-Tools fänden kaum praktische Anwendung. Der Nutzer erwähnte auch, dass er sich zwar wünsche, dass mehr Leute Codex oder Claude Code verwenden würden, die Verbreitung aber durch den umständlichen Erhalt von API-Schlüsseln behindert werde. (Quelle: cto_junior, cto_junior)

💡 Sonstiges

Software-Ingenieure im KI-Zeitalter von Arbeitslosigkeit bedroht, löst gesellschaftliche Reflexion aus: Ein 42-jähriger Software-Ingenieur, der von KI-bedingten Entlassungen betroffen war, hat innerhalb eines Jahres fast tausend Bewerbungen verschickt, aber keine Arbeit gefunden und hält sich derzeit mit Essenslieferungen über Wasser. Er teilte seine schwierigen Erfahrungen beim Erlernen neuer KI-Fähigkeiten, beim Versuch, Inhalte zu erstellen, bei der Akzeptanz von Gehaltskürzungen und sogar bei der Erwägung eines Berufswechsels – alles ohne Erfolg. Seine Notlage hat tiefgreifende Überlegungen zu struktureller Arbeitslosigkeit durch technologischen Fortschritt der KI, Altersdiskriminierung und der Frage ausgelöst, wie die Gesellschaft den durch KI geschaffenen Wert verteilen soll. Der Artikel weist darauf hin, dass dies möglicherweise erst der Anfang der Verdrängung menschlicher Arbeit durch KI ist und die Gesellschaft darüber nachdenken muss, wie sie mit diesem Wandel umgehen soll. (Quelle: 36Kr)

Software-Ingenieure im KI-Zeitalter von Arbeitslosigkeit bedroht, löst gesellschaftliche Reflexion aus

KI stellt disruptive Bedrohung für traditionelle Outsourcing-Branche (BPO) dar: Die Entwicklung der KI-Technologie verändert die globale Business Process Outsourcing (BPO)-Branche tiefgreifend. Anwendungen wie KI-Kundenservice, KI-Inkasso und KI-Umfragen haben bereits das Potenzial gezeigt, menschliches Outsourcing zu ersetzen. So hilft beispielsweise Decagon AI im Kundenservice Unternehmen, Support-Teams erheblich zu reduzieren, und Salient AI im Inkasso steigert die Effizienz. Experten prognostizieren, dass in den kommenden Jahren eine große Anzahl von BPO-Stellen verschwinden könnte, insbesondere in großen Outsourcing-Ländern wie Indien und den Philippinen. Traditionelle Outsourcing-Giganten wie Wipro und Infosys investieren zwar verstärkt in KI, stehen aber vor Herausforderungen bei der Transformation ihrer Geschäftsmodelle. Im KI-Zeitalter wird sich die Rolle der Outsourcing-Dienstleister von der Erweiterung der Arbeitskräfte hin zum Technologieanbieter wandeln, und ihr Wert wird von ihrer Fähigkeit abhängen, KI-Dienste zu integrieren. (Quelle: 36Kr)

Anwendung und Auswirkungen von KI im Bereich des Trainings für Beamtenprüfungen: Bildungseinrichtungen für Beamtenprüfungen wie Huatu Education und Fenbi setzen KI-Technologien aktiv in Bereichen wie der Bewertung von Vorstellungsgesprächen und der Unterstützung bei Aufsätzen und Eignungstests ein. Huatu Education hat bereits ein KI-Produkt zur Bewertung von Vorstellungsgesprächen auf den Markt gebracht und wird in der zweiten Jahreshälfte weitere KI-Produkte für verschiedene Fächer einführen. Das Unternehmen ist der Ansicht, dass KI das „magische Dreieck“ der Bildung (großflächig, qualitativ hochwertig, personalisiert) durchbrechen, die Effizienz steigern und die Kosten senken kann. Fenbi hat KI-Lehrer und KI-Systemkurse eingeführt. Brancheninsider glauben, dass KI den Matthäus-Effekt in der Branche verstärken wird, wobei führende Institutionen aufgrund etablierter Prozesse und Datenakkumulation eher profitieren werden. Der zukünftige Wettbewerb wird entscheidend von der Wahl der KI-Anwendungsrichtung und der Fähigkeit zu kostengünstigem Betrieb abhängen. (Quelle: 36Kr)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert