Lokale LLMs
Host: Oliver
Kontext/Ausgangspunkt
- Lokale LLMs →
- "Unzensiert"
- Bias
- Datenschutz
- Infrastruktur für die Zivilgesellschaft: LLMs zusammen betreiben
- Finetuning vs Promptengineering
Was wurde beobachtet, erzählt oder geteilt?
- Overfitting im Machine Learning
- Rolle des Sammelns von Textdaten
- RAG → Vektordatenbank
- BIAS als Problem
Reflexion/Lücke/Unausgesprochenes
- Brauchen wir überhaupt LLMs? → erst Voraussetzungen klären
Zitate oder prägnante Aussagen
- "Von Bias bis Gärtnern"
Welche Spannungen/Herausforderungen kamen zur Sprache?
- Lokal = on premise vs. mieten vs. Europa Cloud
Welche Ressourcen wurden geteilt?
- Julia Junge Kurs
- Ollama
- GPT4 All
- Ki4Good