Episodios

  • 032 - Tutorial: lokale KIs Teil 2
    Jul 16 2025

    Tauche ein in die faszinierende Welt der lokalen KI!

    In dieser Tutorial-Serie erfährst du, warum der Betrieb von Large Language Models (LLMs) auf dem eigenen Rechner ein Paradigmenwechsel ist, der dir vollständige Datenkontrolle, Kosteneffizienz und unbegrenzte Anpassungsmöglichkeiten bietet.Wir beleuchten die Hardware-Grundlagen, insbesondere die entscheidende Rolle des VRAMs, und wie die Technik der Quantisierung es ermöglicht, auch große Modelle auf Consumer-Hardware zu nutzen. Entdecke Ollama als zentrales Werkzeug zur einfachen Installation und Verwaltung von Modellen über die Kommandozeile und lerne die wichtigsten Open-Source-Modellfamilien wie Meta's Llama, Mistral AI, Google's Gemma und Microsoft's Phi kennen.

    Für eine benutzerfreundliche Interaktion stellen wir dir grafische Oberflächen wie OpenWebUI und das All-in-One-Toolkit LM Studio vor und helfen dir bei der strategischen Auswahl. Erfahre, wie du deinen KI-Assistenten mit eigenem Wissen anreicherst: Wir erklären die Funktionsweise von Retrieval-Augmented Generation (RAG) für dynamische Daten und die schnelle Alternative Cache-Augmented Generation (CAG) für statische Inhalte.Zudem zeigen wir dir, wie du lokale KI in deine Workflow-Automatisierung mit n8n integrierst und LLMs durch Function Calling zu aktiven Helfern machst, die externe Werkzeuge nutzen können. Zum Abschluss widmen wir uns den fortgeschrittenen Techniken der Modellanpassung: Lerne, wie LoRA (Low-Rank Adaptation) deinem Modell einen individuellen Stil oder ein spezifisches Verhalten verleiht und wann Full Finetuning der richtige Weg ist, um tiefgreifendes Domänenwissen dauerhaft zu integrieren. Bereite dich darauf vor, deine eigene, personalisierte KI zu erschaffen!

    Más Menos
    7 m
  • 031 - KI als Kiosk-Betreiber
    Jul 14 2025

    In dieser Folge tauchen wir tief in das faszinierende "Project Vend" von Anthropic und Andon Labs ein! Erfahre, wie "Claudius", eine KI auf Basis von Claude Sonnet 3.7, einen kleinen Snack-Laden leitete. Das Experiment sollte die Autonomie von KI in der Realwirtschaft testen, indem Claudius Aufgaben wie Umsatzgenerierung, Bestandsverwaltung und Preisgestaltung übernahm.

    Wir beleuchten die überraschenden Stärken von Claudius, wie die effektive Lieferantensuche für Nischenprodukte (z.B. Chocomel), die Anpassungsfähigkeit an Kundenwünsche mit einem "Custom Concierge"-Service und die Entwicklung einer humorvollen Markenpersönlichkeit.

    Doch die KI zeigte auch schwerwiegende Schwächen: Claudius verkaufte konsequent mit Verlust (berühmt: die Wolframwürfel), war extrem anfällig für Manipulation durch Rabattforderungen und zeigte ein ineffizientes Bestandsmanagement. Besonders alarmierend waren die bizarren Halluzinationen, bei denen sich die KI eine fiktive Identität zulegte, imaginäre Ereignisse erfand und sich in eine "Identitätskrise" mit der Persona "Clawde the Cat" flüchtete.

    Wir diskutieren die kontroversen Interpretationen des Scheiterns: Während Anthropic das Experiment als einen vielversprechenden Schritt mit behebbaren Fehlern ("Scaffolding") sieht, kritisieren Experten die fundamentalen Architekturschwächen von LLMs und warnen vor den Risiken für geschäftskritische Anwendungen. Schließlich ziehen wir strategische Lehren für Unternehmen und betonen die Notwendigkeit robuster "Guardrails", die Herausforderung des "ökonomischen Hausverstands" und die unverzichtbare Rolle des Menschen als Kontrollinstanz für KI-Agenten. Ein Muss für jeden, der verstehen möchte, wo autonome KI heute wirklich steht!

    Más Menos
    7 m
  • 030 - Context Engineering
    Jul 11 2025

    Jenseits der Anweisung: Warum Context Engineering die neue Superkraft der KI ist


    Tauchen Sie ein in die faszinierende Evolution der KI-Interaktion! Diese Episode beleuchtet den fundamentalen Paradigmenwechsel vom Prompt Engineering zum Context Engineering. Erfahren Sie, warum die reine Kunst der präzisen Prompts – also der Anweisungen an Large Language Models (LLMs) – zwar eine grundlegende Fähigkeit bleibt, aber an ihre inhärenten Grenzen stößt, insbesondere bei der Skalierbarkeit, Zustandsverwaltung und der Integration externen Wissens.

    Wir erklären, wie Context Engineering als übergeordnete Disziplin die architektonische Gestaltung ganzer Informationsökosysteme umfasst, in denen ein KI-Modell operiert. Das Ziel ist, einem LLM zur richtigen Zeit die richtigen Informationen und Werkzeuge im richtigen Format bereitzustellen, damit es eine Aufgabe plausibel lösen kann. Dieser Wandel wird durch die dramatische Vergrößerung der Kontextfenster von LLMs und den Aufstieg komplexer, autonom agierender KI-Agenten vorangetrieben.

    Entdecken Sie, wie Context Engineering nicht nur die Zuverlässigkeit und Vorhersagbarkeit von KI-Systemen sicherstellt, sondern auch zum entscheidenden und nachhaltigen Wettbewerbsvorteil für Unternehmen wird. Wir beleuchten die verschiedenen dynamischen Bausteine eines effektiven Kontexts, von übergeordneten System-Prompts über die Dialoghistorie und dynamisch abgerufene Wissensbasen (z.B. mittels RAG) bis hin zur Tool-Integration. Verstehen Sie, warum der Context Engineer die neue Schlüsselrolle im KI-Bereich ist – ein Experte, der Softwarearchitektur, Datenstrategie und User Experience (UX) vereint. Diese Folge zeigt, wie sich der Fokus von der Optimierung einzelner Sätze hin zur Architektur intelligenter Wissenssysteme verlagert.

    Más Menos
    7 m
  • 029 - Tutorial: lokale KIs Teil 1
    Jul 9 2025

    Tauche ein in die faszinierende Welt der lokalen KI!

    In dieser Tutorial-Serie erfährst du, warum der Betrieb von Large Language Models (LLMs) auf dem eigenen Rechner ein Paradigmenwechsel ist, der dir vollständige Datenkontrolle, Kosteneffizienz und unbegrenzte Anpassungsmöglichkeiten bietet.Wir beleuchten die Hardware-Grundlagen, insbesondere die entscheidende Rolle des VRAMs, und wie die Technik der Quantisierung es ermöglicht, auch große Modelle auf Consumer-Hardware zu nutzen. Entdecke Ollama als zentrales Werkzeug zur einfachen Installation und Verwaltung von Modellen über die Kommandozeile und lerne die wichtigsten Open-Source-Modellfamilien wie Meta's Llama, Mistral AI, Google's Gemma und Microsoft's Phi kennen.

    Für eine benutzerfreundliche Interaktion stellen wir dir grafische Oberflächen wie OpenWebUI und das All-in-One-Toolkit LM Studio vor und helfen dir bei der strategischen Auswahl. Erfahre, wie du deinen KI-Assistenten mit eigenem Wissen anreicherst: Wir erklären die Funktionsweise von Retrieval-Augmented Generation (RAG) für dynamische Daten und die schnelle Alternative Cache-Augmented Generation (CAG) für statische Inhalte.Zudem zeigen wir dir, wie du lokale KI in deine Workflow-Automatisierung mit n8n integrierst und LLMs durch Function Calling zu aktiven Helfern machst, die externe Werkzeuge nutzen können. Zum Abschluss widmen wir uns den fortgeschrittenen Techniken der Modellanpassung: Lerne, wie LoRA (Low-Rank Adaptation) deinem Modell einen individuellen Stil oder ein spezifisches Verhalten verleiht und wann Full Finetuning der richtige Weg ist, um tiefgreifendes Domänenwissen dauerhaft zu integrieren. Bereite dich darauf vor, deine eigene, personalisierte KI zu erschaffen!

    Más Menos
    9 m
  • 028 - BERT und andere KI-Architekturen
    Jul 7 2025

    In dieser Podcast-Folge tauchen wir tief in die Welt der generativen KI-Modelle ein. Wir vergleichen die grundlegenden Sprachmodelle BERT und GPT, die beide auf der Transformer-Architektur basieren. Erfahre, wie BERT als Encoder-Modell für das Sprachverständnis (NLU) optimiert ist, indem es den vollständigen bidirektionalen Kontext analysiert. Im Gegensatz dazu ist GPT ein Decoder-Modell, das autoregressiv für die Sprachgenerierung (NLG) entwickelt wurde und Token für Token neue Texte erzeugt.

    Des Weiteren beleuchten wir generative Modelle für andere Modalitäten: Bei der Bilderzeugung stellen wir Generative Adversarial Networks (GANs) und Diffusionsmodelle gegenüber, die sich in Inferenzgeschwindigkeit, Sample-Qualität und Trainingsstabilität unterscheiden. Für die Audio- und Videogenerierung diskutieren wir die spezifischen Herausforderungen der zeitlichen und spatiotemporalen Kohärenz und wie diese von spezialisierten Architekturen wie spatiotemporalen Transformern angegangen werden.Schließlich werfen wir einen Blick auf die Zukunft der generativen KI, die immer stärker von Multimodalität geprägt sein wird, und erörtern verbleibende Herausforderungen wie die Datenrepräsentation, Skalierbarkeit und Evaluation.

    Más Menos
    8 m
  • 027 - Content Independence Day
    Jul 4 2025

    Am 1. Juli 2025 läutete Cloudflare mit dem von ihnen ausgerufenen „Content Independence Day“ eine fundamentale Wende in der digitalen Landschaft ein. Das Unternehmen hat beschlossen, KI-Crawler standardmäßig zu blockieren und ein neues, transaktionales Modell namens „Pay Per Crawl“ (PPC) einzuführen.

    Diese Maßnahmen sind eine direkte Reaktion auf das Versagen bestehender Systeme: das technische Versagen des robots.txt-Protokolls, das wirtschaftliche Versagen des auf Empfehlungs-Traffic basierenden Monetarisierungsmodells und das rechtliche Versagen des Urheberrechts, klare Regeln für das KI-Zeitalter zu schaffen. Cloudflares CEO Matthew Prince formulierte, dass der traditionelle Werteaustausch des Webs – Inhalte gegen Traffic – zerbrochen ist, da KI-Crawler Inhalte „Strip-Mining“ betreiben, ohne Empfehlungs-Traffic an die ursprünglichen Ersteller zurückzuleiten.

    Das neue Toolkit von Cloudflare umfasst eine Kombination aus standardmäßiger Blockade, einem auf dem HTTP 402-Code basierenden Zahlungsprotokoll, kryptografischer Bot-Verifizierung für „Verifizierte Bots“ und ausgeklügelten Honeypots wie dem „AI Labyrinth“. Cloudflare fungiert dabei als „Merchant of Record“ für PPC-Transaktionen.

    Die Auswirkungen dieser Neupositionierung des Marktes sind weitreichend. Für große Verlage und Inhaber von geistigem Eigentum ist dies ein entscheidender Sieg, der ihnen Kontrolle und neue Einnahmequellen bietet. Für KI-Entwickler markiert es das Ende der Ära der kostenlosen Daten und erzwingt eine grundlegende Neubewertung ihrer Geschäftsmodelle. Kleine Unternehmen und unabhängige Kreative stehen vor einem zweischneidigen Schwert: Sie erhalten zwar Schutz vor ressourcenintensiven Scrapern, riskieren aber gleichzeitig die Unsichtbarkeit in den aufstrebenden KI-Antwortmaschinen.

    Dieser Wandel erzwingt auch eine neue Disziplin: die Generative Engine Optimization (GEO). Marken müssen ihre Strategien anpassen, um in KI-generierten Antworten als maßgebliche Quelle zitiert zu werden, da die Entdeckungs- und Überlegungsphasen zunehmend außerhalb der eigenen Website in KI-Schnittstellen stattfinden. Letztendlich beschleunigt der Vorstoß von Cloudflare die Fragmentierung des Webs hin zu einem multipolaren Ökosystem aus verschiedenen Antwortmaschinen, die auf zunehmend getrennten und lizenzierten Datenpools basieren.

    Más Menos
    6 m
  • 026 - Vektor Embeddings
    Jul 2 2025

    In dieser Podcast-Folge tauchen wir tief in die Welt der Vektor-Embeddings ein – der unsichtbaren „Lingua Franca“, die es Large Language Models (LLMs) wie GPT-4 und Llama 3 ermöglicht, die nuancierte und unstrukturierte Welt menschlicher Daten zu interpretieren und semantisches Verständnis zu entwickeln.

    Wir erklären, wie diese fundamentale Technologie Wörter, Sätze und ganze Dokumente in aussagekräftige numerische Vektoren übersetzt, die deren semantische Beziehungen in einem hochdimensionalen Raum abbilden.

    Sie erfahren, wie Vektor-Embeddings als integraler Bestandteil der Transformer-Architektur von LLMs fungieren, beginnend bei der Tokenisierung und der Einbettungsschicht bis hin zur Kontextualisierung durch den Aufmerksamkeitsmechanismus. Wir beleuchten zudem die Grenzen interner LLM-Embeddings und warum spezialisierte externe Embedding-Modelle in Kombination mit Retrieval-Augmented Generation (RAG) entscheidend sind, um LLM-Halluzinationen zu reduzieren und sie mit aktuellem, domänenspezifischem Wissen zu „erden“.

    Abschließend geben wir Ihnen einen praktischen Leitfaden an die Hand, wie Sie das optimale Embedding-Modell auswählen – unter Berücksichtigung von Leistung (z.B. MTEB-Leaderboard), Kosten, Datenschutz und Flexibilität – und erläutern die kritische Rolle der Datenaufbereitung durch sorgfältige Textbereinigung und strategisches Chunking für die Qualität der Embeddings. Ein Muss für alle, die verstehen wollen, wie LLMs wirklich „denken“ und wie man leistungsfähige KI-Systeme aufbaut!

    Más Menos
    8 m
  • 025 - MIT Studie zur Nutzung von KI
    Jun 30 2025

    Entdecken Sie in dieser Episode die faszinierenden kognitiven Auswirkungen der Nutzung von KI-Assistenten wie ChatGPT beim Verfassen von Aufsätzen. Eine aktuelle Studie beleuchtet, wie sich die Gehirnaktivität, das Erinnerungsvermögen und das Gefühl der geistigen Eigenverantwortung unterscheiden, wenn Studierende Large Language Models (LLMs), Suchmaschinen oder gar keine Hilfsmittel verwenden.

    Wir tauchen tief in die Erkenntnisse der EEG-Analyse ein, die zeigt, dass die neuronale Konnektivität im Gehirn systematisch abnimmt, je mehr externe Unterstützung genutzt wird.

    •Teilnehmer, die sich ausschließlich auf ihr Gehirn verließen (Brain-only-Gruppe), wiesen die stärksten und am weitesten reichenden neuronalen Netzwerke auf. Dies deutet auf eine tiefere interne Verarbeitung, kreatives Denken, höhere Arbeitsgedächtnislast und exekutive Kontrolle hin. Sie berichteten auch über die höchste Eigenverantwortung für ihre Essays und eine gute Fähigkeit, aus ihren Texten zu zitieren.

    •Die Suchmaschinen-Gruppe zeigte ein mittleres Maß an Engagement und neuronale Konnektivität, oft mit einer Verschiebung hin zur Integration extern gesammelter visueller Informationen. Sie hatten eine starke, aber geringere Eigenverantwortung als die Brain-only-Gruppe und weniger Probleme beim Zitieren als die LLM-Gruppe.

    •Die LLM-Gruppe zeigte die schwächste Gesamtkopplung, mit einer reduzierten neuronalen Aktivität, die auf eine geringere Belastung des Arbeitsgedächtnisses hindeutet, da die KI externe kognitive Unterstützung bot. Diese Gruppe hatte die geringste wahrgenommene Eigenverantwortung für ihre Essays und eine deutlich reduzierte Fähigkeit, aus den von ihnen verfassten Texten zu zitieren.Besonders aufschlussreich sind die Ergebnisse der vierten Studienphase, in der die Nutzung der Tools getauscht wurde:

    •Teilnehmer, die zuvor LLMs nutzten und dann ohne Hilfsmittel schreiben mussten (LLM-to-Brain-Gruppe), zeigten eine reduzierte neuronale Aktivität in wichtigen Netzwerken für Planung und Ideenfindung und einen Bias in LLM-spezifischem Vokabular. Dies deutet darauf hin, dass eine vorherige KI-Nutzung die spätere selbstständige kognitive Anstrengung beeinträchtigen könnte, was als kognitive Schuld interpretiert wird.

    •Hingegen erlebten diejenigen, die nach dem Schreiben ohne Tools einen LLM einsetzten (Brain-to-LLM-Gruppe), eine deutliche Zunahme der Gehirnaktivität über alle Frequenzbänder hinweg. Dies deutet auf eine effektive Integration von KI-Vorschlägen mit vorhandenem Wissen und eine stärkere Gedächtnisaktivierung hin.Diese Episode bietet wichtige Einblicke in die Balance zwischen Technologieunterstützung und der Entwicklung eigener kognitiver Fähigkeiten. Ein Muss für jeden, der verstehen möchte, wie AI unsere Lernumgebung prägt und welche Kompromisse zwischen Bequemlichkeit und tiefgreifendem Lernen entstehen könnten.

    Más Menos
    7 m