<?xml version="1.0" encoding="UTF-8"?><feed xmlns="http://www.w3.org/2005/Atom" xmlns:media="http://search.yahoo.com/mrss/" xml:lang="de"><title>SEQIS Blog</title><subtitle>Fachbeiträge und Expertenmeinungen zu IT-Themen aus dem SEQIS Blog</subtitle><link rel="alternate" href="https://www.seqis.com/" /><id>https://www.seqis.com/</id><updated>2026-01-07T12:30:00+00:00</updated><generator>Contao Open Source CMS</generator><link href="http://www.seqis.com/share/seqis-blog.xml" rel="self" /><entry><title>razzfazz.ai - local matters</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;razzfazz.ai - local matters&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/b/razzfazz.ai%20Blogartikel-ea500191.png&quot; width=&quot;400&quot; height=&quot;151&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: https://razzfazz.ai/&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;1. Einführung: Die Renaissance der lokalen Intelligenz&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Wir leben in einer Ära der digitalen Paradoxien. Auf der einen Seite erleben wir durch generative künstliche Intelligenz (GenAI) einen technologischen Sprung, der in seiner Tragweite mit der Erfindung des Internets vergleichbar ist. Modelle werden größer, schneller und fähiger. Auf der anderen Seite zieht sich das regulatorische Netz enger. Der EU AI Act ist nicht länger ein fernes bürokratisches Gespenst, sondern gebundene Realität, die Unternehmen dazu zwingt, ihre KI-Strategien grundlegend zu überdenken. In der aktuellen Ausgabe der SEQIS Quality News 2025-2, die unter dem Titel „AI Act &amp;amp; Local AI – Wege in eine verantwortungsvolle Zukunft“ steht, wird dieser Spannungsbogen deutlich skizziert. Es geht nicht mehr nur darum, was technisch machbar ist, sondern was rechtlich zulässig, ethisch vertretbar und ökonomisch sinnvoll ist.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Als jemand, der die Software-Qualitätssicherung seit den frühen Tagen der agilen Bewegung begleitet hat – von den ersten Gehversuchen mit Testautomatisierung bis hin zu komplexen Continuous-Integration-Pipelines –, sehe ich Parallelen. Damals ging es darum, Silos zwischen Entwicklung und Betrieb aufzubrechen (DevOps). Heute müssen wir das Silo zwischen „mächtiger KI in der Cloud“ und „sicheren Daten on-premise“ aufbrechen. Die Antwort darauf lautet nicht, Daten blind in die Cloud zu schieben und auf Verschlüsselung zu hoffen. Die Antwort lautet: Die Intelligenz muss zu den Daten kommen.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Mit &lt;strong&gt;razzfazz.ai&lt;/strong&gt; haben wir bei SEQIS eine Plattform geschaffen, die genau diese Philosophie verkörpert: „Enabling local AI“. Es ist ein Manifest für digitale Souveränität. Warum ist das gerade jetzt so kritisch? Weil die Technologie endlich so weit ist. Wir müssen nicht mehr wählen zwischen „dumm und lokal“ oder „schlau und Cloud“. Durch die Symbiose aus spezialisierter Hardware (Unified Memory Architecture) und hocheffizienten Open-Source-Modellen wie &lt;strong&gt;Magistral&lt;/strong&gt; und &lt;strong&gt;Devstral&lt;/strong&gt; von Mistral AI können wir Enterprise-Grade-Intelligence lokal betreiben. razzfazz.ai ist also keine eigene “KI” sondern eine lokale Hardware + Softwareplattform um beliebige Open Source KI-Modelle laufen lassen zu können.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Dieser Artikel ist ein technischer Deep Dive, eine Bestandsaufnahme der Möglichkeiten. Wir werden analysieren, warum lokale Hardware plötzlich wieder „sexy“ ist, wie Reasoning-Modelle die Testanalyse revolutionieren und wir werden zehn konkrete, implementierbare Use-Cases durchspielen, die zeigen, wie Entwicklung und Testing im Jahr 2026 funktionieren sollten.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;2. Der technologische Unterbau: Hardware und Architektur&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Um zu verstehen, warum lokale KI heute eine viable Alternative zu Cloudangeboten wie OpenAI oder Anthropic darstellt, müssen wir einen Blick unter die Haube werfen. Die traditionelle PC-Architektur war für KI-Workloads denkbar ungeeignet. Der Flaschenhals war immer der Datentransfer zwischen der CPU (Central Processing Unit) und der GPU (Graphics Processing Unit) über den PCIe-Bus.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p2&quot;&gt;2.1 Unified Memory: Der Gamechanger&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Die razzfazz.ai Box setzt auf eine Architektur, die diesen Flaschenhals eliminiert: &lt;strong&gt;Unified Memory&lt;/strong&gt;. In dieser Konfiguration teilen sich CPU und GPU denselben physischen Arbeitsspeicherpool. Dies hat massive Implikationen für die Inferenz von Large Language Models (LLMs):&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Kein Kopier-Overhead:&lt;/strong&gt; Bei herkömmlichen Systemen müssen die Gewichte des neuronalen Netzes (die Model Weights) in den VRAM der Grafikkarte geladen werden. Ist das Modell zu groß für den VRAM (z.B. 24 GB bei einer Consumer RTX 4090), muss „Offloading“ betrieben werden – Teile des Modells werden auf den langsamen System-RAM ausgelagert, was die Performance dramatisch einbrechen lässt. Mit Unified Memory greift die GPU direkt auf den gesamten Speicher zu.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Kapazität für große Modelle:&lt;/strong&gt; Die razzfazz.ai Box bietet bis zu &lt;strong&gt;128 GB Unified Memory&lt;/strong&gt;, wovon netto &lt;strong&gt;96 GB&lt;/strong&gt; exklusiv für KI-Modelle nutzbar sind. Das ermöglicht den Betrieb von Modellen, die weit über die Kapazitäten klassischer Desktop-GPUs hinausgehen. Wir können hier quantisierte Versionen von Modellen mit 70 Milliarden Parametern oder mehr laden, ohne Leistungseinbußen hinnehmen zu müssen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Energieeffizienz:&lt;/strong&gt; Ein oft unterschätzter Faktor, besonders im Hinblick auf ESG-Ziele (Environmental, Social, and Governance). Eine High-End-Server-GPU kann unter Last 400 bis 700 Watt verbrauchen. Ein Cluster davon benötigt eigene Klimatisierung. Die razzfazz.ai Hardware operiert in einem Bereich von &lt;strong&gt;30 bis 300 Watt.&lt;/strong&gt;&lt;sup&gt; &lt;/sup&gt;Dies ist nicht nur gut für die Stromrechnung, sondern ermöglicht den Einsatz in normalen Büroumgebungen ohne dedizierten Serverraum.&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p1&quot;&gt;In der folgenden Tabelle vergleichen wir die Architekturansätze, um die Positionierung der lokalen Lösung zu verdeutlichen:&lt;/p&gt; &lt;table class=&quot;t1&quot; style=&quot;border-collapse: collapse; border-color: #000000; border-style: solid; width: 68.9868%;&quot; border=&quot;1&quot; cellspacing=&quot;0&quot; cellpadding=&quot;0&quot;&gt; &lt;tbody&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 16.8798%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Merkmal&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 28.5166%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Klassische Workstation + GPU&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 22.7605%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Cloud API (z.B. GPT-5)&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8431%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;razzfazz.ai Box (Local Unified Memory)&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 16.8798%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Speicherarchitektur&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 28.5166%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Getrennt (RAM + VRAM)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 22.7605%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Opak / Verteilt&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8431%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Unified (Shared RAM)&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 16.8798%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Max. Modellgröße&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 28.5166%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Begrenzt durch VRAM (z.B. 24 GB)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 22.7605%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Sehr groß (Black Box)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8431%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Bis zu 96 GB (nutzbar)&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 16.8798%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Latenz&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 28.5166%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Niedrig (lokal)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 22.7605%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Hoch (Netzwerkabhängig)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8431%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Sehr niedrig (lokal)&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 16.8798%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Datenschutz&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 28.5166%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Hoch (lokal)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 22.7605%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Risiko (Drittanbieter)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8431%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Maximum (lokal + air-gapped möglich)&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 16.8798%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Energieverbrauch&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 28.5166%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Hoch (800W+)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 22.7605%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Unbekannt (extern)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8431%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Effizient (30-300W)&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 16.8798%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Investitionsart&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 28.5166%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;CAPEX (Hardware)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 22.7605%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;OPEX (Pay-per-Token)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8431%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;CAPEX (einmalig)&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;/tbody&gt; &lt;/table&gt; &lt;p&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;2.2 Der Software-Stack: Orchestrierung der Intelligenz&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Hardware ist nur so gut wie die Software, die sie steuert. Die razzfazz.ai Distribution basiert auf einem robusten Linux-Unterbau (Ubuntu 24.04 LTS) und integriert eine Suite von Open-Source-Tools, die nahtlos zusammenarbeiten.&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;llama.cpp:&lt;/strong&gt; Dies ist der Motor. Das Projekt hat die Demokratisierung von LLMs massiv vorangetrieben. Es ermöglicht die hocheffiziente Ausführung von GGUF-quantisierten Modellen auf Apple Silicon und anderen Unified-Memory-Architekturen. Durch Quantisierung (z.B. auf 4-bit oder 8-bit Integers) wird der Speicherbedarf massiv reduziert, bei vernachlässigbarem Qualitätsverlust.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Workflow Automationen:&lt;/strong&gt; Das Nervensystem. Während viele KI-Interaktionen noch über Chat-Fenster laufen, liegt die wahre Macht in der Automatisierung. Mittels unterschiedlicher open source Workflow Automationstools werden KI-Modelle in komplexe Abläufe eingebunden. Man kann es sich als „Klebstoff“ vorstellen, der die KI mit Jira, Git, Datenbanken oder E-Mail-Servern verbindet – und das alles lokal.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Vektordatenbank (PostgreSQL + pgVector):&lt;/strong&gt; Das Langzeitgedächtnis. Um RAG (Retrieval Augmented Generation) lokal umzusetzen, benötigen wir einen Speicher für semantische Embeddings. PostgreSQL läuft effizient auf der Box und ermöglicht es der KI, „Wissen“ firmeninterner Dokumente abzurufen, ohne dass das Modell neu trainiert werden muss.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Open WebUI:&lt;/strong&gt; Die Schnittstelle zum Menschen. Eine benutzerfreundliche Oberfläche, die sich wie ChatGPT anfühlt, aber vollständig lokal läuft und Multi-User-Support sowie Modell-Management bietet.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p5&quot;&gt;3. Die Modelle: Magistral und Devstral&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Die Hardware stellt die Arena, aber die Modelle sind die Athleten. Wir konzentrieren uns in diesem Artikel auf zwei spezifische europäische Modelle von Mistral AI, die für Entwicklung und Testing besonders relevant sind: &lt;strong&gt;Magistral und Devstral&lt;/strong&gt;. Beide repräsentieren den neuesten Stand der Open-Weights-Forschung und sind für den lokalen Betrieb optimiert.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;3.1 Magistral: Der Analyst mit Tiefgang (Reasoning Model)&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;„Magistral“ markiert einen Paradigmenwechsel bei Mistral AI. Es ist das erste dedizierte &lt;strong&gt;Reasoning-Modell &lt;/strong&gt;des Unternehmens. Anders als klassische LLMs, die primär darauf trainiert sind, statistisch wahrscheinliche Wortfolgen zu generieren, wurde Magistral darauf optimiert, Probleme durch eine „Kette von Gedanken“ (Chain-of-Thought, CoT) zu lösen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Was bedeutet „Reasoning“ technisch? Wenn Sie Magistral eine komplexe Frage stellen, antwortet es nicht sofort. Es generiert zunächst einen internen Monolog (oft sichtbar in &amp;lt;think&amp;gt; Tags), in dem es das Problem zerlegt, Hypothesen aufstellt, diese prüft und erst dann das Endergebnis formuliert. Dieser Prozess ähnelt dem „System 2“ Denken nach Daniel Kahneman – langsam, logisch, berechnend.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Leistungsdaten und Architektur:&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Größe:&lt;/strong&gt; Magistral Small ist ein 24B (24B = 24 billions, 24 Milliarden) Parameter Modell. Das ist der „Sweet Spot“ für lokale Inferenz auf unserer Hardware. Es ist klein genug, um schnell zu sein, aber groß genug für komplexe Logik.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Kontext:&lt;/strong&gt; Es unterstützt ein Kontextfenster von 128k Token. Das bedeutet, es kann hunderte Seiten Dokumentation oder umfangreiche Code-Dateien im Arbeitsspeicher halten und in seine Überlegungen einbeziehen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Benchmarks:&lt;/strong&gt; Auf dem AIME2024 Benchmark (Mathematik und Logik) erreicht die Medium-Variante Scores von über 73%, was eine massive Steigerung gegenüber nicht-reasoning Modellen darstellt.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Anwendungsgebiet:&lt;/strong&gt; Software-Architektur, Requirements Engineering, logische Prüfung von Testfällen, komplexe Datenanalyse.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;Ein interessantes Feature ist die Geschwindigkeit bei einfachen Aufgaben: Durch „Flash Answers“ kann das Modell bei weniger komplexen Anfragen extrem schnell antworten, skaliert aber bei Bedarf seine Rechenzeit für tiefere Analysen hoch.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;3.2 Devstral: Der Agentische Entwickler (Coding Model)&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Während Magistral der Denker ist, ist &lt;strong&gt;Devstral&lt;/strong&gt; der Macher. Es wurde spezifisch für &lt;strong&gt;Software Engineering&lt;/strong&gt; Aufgaben trainiert und verfeinert. Es ist nicht einfach nur eine Autovervollständigung; es ist für „Agentic Workflows“ konzipiert.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Der Unterschied zu klassischen Code-Modellen:&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Frühere Modelle wie CodeLlama waren gut darin, eine Funktion zu vervollständigen. Devstral hingegen versteht den Kontext eines gesamten Projekts. Es wurde in Zusammenarbeit mit All Hands AI entwickelt und darauf trainiert, wie ein Entwickler zu agieren: Es kann Dateien lesen, Änderungen planen, Code editieren und Shell-Befehle ausführen (in einer gesicherten Sandbox).&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Spezifikationen:&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Spezialisierung:&lt;/strong&gt; Es basiert auf Mistral Small 3.1, wobei der Vision-Encoder entfernt wurde, um sich rein auf Text und Code zu konzentrieren.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Performance:&lt;/strong&gt; Im &lt;strong&gt;SWE-Bench Verified&lt;/strong&gt;, dem Goldstandard für automatisches Software-Engineering, erreicht Devstral einen Score von &lt;strong&gt;46.8%&lt;/strong&gt;. Zum Vergleich: GPT-4o mini liegt bei ca. 23.6%. Das bedeutet, Devstral löst fast die Hälfte aller realen GitHub-Issues autonom korrekt – ein Wert, der für ein Modell dieser Größe (24B) sensationell ist.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Tokenizer:&lt;/strong&gt; Es nutzt den Tekken-Tokenizer mit einem Vokabular von 131k, was besonders effizient für Source Code ist (weniger Token pro Codezeile = mehr Kontext im Speicher).&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;Zusammen bilden Magistral und Devstral ein unschlagbares Team: Der eine plant und prüft (Magistral), der andere führt aus und implementiert (Devstral).&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p5&quot;&gt;4. Zehn Use-Cases für Entwicklung und Testing&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Theorie ist gut, Praxis ist besser. Wie setzen wir diese PS auf die Straße? Im Folgenden skizziere ich zehn detaillierte Use-Cases, die wir bei SEQIS nutzen und die mit der razzfazz.ai Box umsetzbar sind. Jeder Use-Case nutzt die spezifischen Stärken von Magistral (Reasoning) oder Devstral (Coding) und die Orchestrierung durch Workflow Automation.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;Use-Case 1: Der Requirements-Architekt (Modell: Magistral)&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Herausforderung:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Anforderungen in der Softwareentwicklung sind oft unpräzise. Lastenhefte bestehen aus Prosatext, E-Mails und Meeting-Notizen. Die Überführung in formale Modelle (wie UML) ist ein manueller, fehleranfälliger Prozess. Missverständnisse hier führen zu den teuersten Fehlern später im Projekt.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Die Lösung mit lokaler AI:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Wir nutzen Magistral, um unstrukturierte Anforderungen in formale Diagramme zu übersetzen.&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Input:&lt;/strong&gt; Der Nutzer lädt ein PDF-Lastenheft oder kopiert Text in das Open WebUI.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Reasoning-Prozess:&lt;/strong&gt; Ein automatisierter Workflow übergibt den Text an Magistral mit dem System-Prompt: „Analysiere diesen Text auf Akteure, Use Cases und Ablauflogik. Identifiziere logische Lücken (z.B. fehlende Fehlerbehandlung).“&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;strong&gt;Generierung:&lt;/strong&gt; Magistral generiert validen Code für PlantUML oder Mermaid (z.B. für ein Aktivitätsdiagramm). Dank seiner Reasoning-Fähigkeit kann es implizite Annahmen explizit machen (z.B. „Wenn der User nicht eingeloggt ist, muss er zum Login geleitet werden“, auch wenn das im Text fehlt).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;strong&gt;Visualisierung:&lt;/strong&gt; Mittels Workflow Automation wird der PlantUML-Code direkt in eine Grafik gerendert und diese zusammen mit einer Liste der identifizierten Lücken zurückgeliefert.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;span style=&quot;text-decoration: underline; color: #ba372a;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Mehrwert:&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Standardisierung der Dokumentation und Qualitätssicherung der Anforderungen bevor eine Zeile Code geschrieben wird („Shift Left“). Da Anforderungen oft sensible Geschäftsstrategien enthalten, ist der lokale Betrieb essenziell.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Use-Case 2: Der Gnadenlose Test-Designer (Modell: Magistral)&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Herausforderung:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Testfallerstellung ist oft eine monotone Arbeit. Tester neigen dazu, den „Happy Path“ zu testen und Randfälle zu übersehen. Kombinatorische Explosionen (z.B. bei komplexen Formularen) überfordern menschliche Tester oft.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Die Lösung mit lokaler AI:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Der „Testing Buddy“ nutzt Magistrals logische Tiefe.&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Input:&lt;/strong&gt; Eine User Story oder die Ergebnisse aus Use-Case 1.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Analyse:&lt;/strong&gt;&lt;/span&gt; Magistral wendet formale Testmethoden an, wie &lt;span class=&quot;s2&quot;&gt;Äquivalenzklassenbildung&lt;/span&gt; und &lt;span class=&quot;s2&quot;&gt;Grenzwertanalyse&lt;/span&gt;. Es „denkt“ sich Szenarien aus, die das System brechen könnten (Destructive Testing).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;span class=&quot;s3&quot;&gt;&lt;strong&gt;Workflow:&lt;br&gt;&lt;/strong&gt;&lt;/span&gt;- Magistral identifiziert alle Eingabefelder.&lt;br&gt;- Es generiert Testdaten für Grenzwerte (z.B. Alter 17, 18, 120, -1).&lt;br&gt;- Es erstellt eine Testmatrix.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Über die Workflow Automation werden diese Testfälle direkt in das Format von &lt;strong&gt;Jira Xray oder Tricentis Tosca&lt;/strong&gt; konvertiert und via API in das Testmanagement-Tool importiert.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span style=&quot;color: #ba372a;&quot;&gt;&lt;strong&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Mehrwert:&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Massive Zeitersparnis und eine höhere Testabdeckung durch systematische, KI-gestützte Analyse. Die Daten verlassen nie das lokale Netzwerk.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Use-Case 3: Legacy Code Refactoring &amp;amp; Modernisierung (Modell: Devstral)&lt;br&gt;&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Herausforderung:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Viele Unternehmen sitzen auf „Legacy Code“ – funktionierende, aber veraltete Software (z.B. Java 6, alter PHP-Code), die niemand mehr anfassen will. Das Wissen darüber ist oft mit Mitarbeitern in Pension gegangen.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Die Lösung mit lokaler AI:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Devstral nutzt sein riesiges Kontextfenster (128k), um ganze Dateien oder Module zu verstehen.&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Kontext:&lt;/strong&gt; Wir laden den Quellcode einer alten Komponente in den Kontext von Devstral.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Agentic Task:&lt;/strong&gt;&lt;/span&gt; Der Prompt lautet: „Analysiere diesen Code. Erkläre die Business-Logik. Schlage ein Refactoring auf moderne Standards (z.B. Java 21 Records, Streams) vor. Behalte die Logik bei.“&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Iterativer Prozess:&lt;/strong&gt;&lt;/span&gt; Devstral schreibt den Code um. Da es agentisch agiert, kann es auch Unit-Tests für den alten Code schreiben, um sicherzustellen, dass der neue Code dasselbe tut (Regressionstesting).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Output: &lt;/strong&gt;&lt;/span&gt;Ein Diff-File oder ein direkter Commit-Vorschlag im lokalen GitLab.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;color: #ba372a;&quot;&gt;&lt;strong&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;Mehrwert:&lt;/span&gt;&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Risikominimierung bei der Modernisierung. Da Legacy-Code oft tiefes Firmen-Know-how enthält, darf dieser keinesfalls in öffentliche CloudLLMs geladen werden.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Use-Case 4: Synthetische Testdaten-Generierung (DSGVO-konform) (Modell: Magistral)&lt;br&gt;&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Herausforderung:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Für Tests werden realistische Daten benötigt. Produktionsdaten zu anonymisieren ist aufwendig und birgt Re-Identifikationsrisiken. Einfache Zufallsgeneratoren erzeugen oft fachlichen Unsinn (z.B. PLZ passt nicht zum Ort).&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Die Lösung mit razzfazz.ai:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Magistral generiert semantisch korrekte, synthetische Daten.&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Modellierung:&lt;/strong&gt; Wir definieren das Datenschema (z.B. JSON-Struktur für einen „Versicherungsnehmer“).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Logik-Injektion:&lt;/strong&gt;&lt;/span&gt; Wir geben Magistral Regeln: „Erzeuge 50 Datensätze für Kunden aus Österreich. Wenn Bundesland = Wien, dann muss die PLZ mit 1 beginnen. Das Geburtsdatum muss zum Status ‚Pensionist‘ passen.“&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Reasoning:&lt;/strong&gt;&lt;/span&gt; Magistral nutzt seine Logik-Fähigkeiten, um diese Abhängigkeiten einzuhalten (etwas, woran einfachere Modelle oft scheitern).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Persistenz:&lt;/strong&gt;&lt;/span&gt; Die Workflow Automation schreibt die generierten Daten direkt in die lokale PostgreSQL-Datenbank der Box, von wo aus sie in Testumgebungen injiziert werden können.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;color: #ba372a;&quot;&gt;&lt;strong&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Mehrwert:&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;100% DSGVO-Compliance, da keine echten Daten berührt werden, bei gleichzeitig hoher fachlicher Qualität der Testdaten.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Use-Case 5: Der Autonome Bug-Hunter (Modell: Devstral)&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Herausforderung:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Bugs zu finden, die nur unter bestimmten Bedingungen auftreten (z.B. Race Conditions), ist extrem schwierig. Statische Codeanalyse findet Syntaxfehler, aber keine logischen Probleme im Ablauf.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Die Lösung mit razzfazz.ai:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Ein lokaler Agent, der Git-Commits überwacht.&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Trigger:&lt;/strong&gt; Ein Entwickler pusht Code. Die Workflow Automation detektiert den Change.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Analyse: &lt;/strong&gt;&lt;/span&gt;Devstral liest die Änderungen (Diff) und die betroffenen Dateien im Volltext.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Reasoning:&lt;/strong&gt;&lt;/span&gt; Devstral sucht nach logischen Fehlern: „In Zeile 50 wird auf user zugegriffen, aber user könnte null sein, wenn die Datenbankabfrage in Zeile 40 fehlschlägt. Es fehlt ein Null-Check.“.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Report:&lt;/strong&gt;&lt;/span&gt; Der Agent postet diesen Hinweis als Kommentar direkt in den Merge Request im lokalen Git-Server.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;color: #ba372a;&quot;&gt;&lt;strong&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Mehrwert:&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Ein „Pair Programmer“, der nie schläft und jeden Commit reviewt. Die Fehlererkennung passiert bevor der Code in den Master-Branch gemergt wird.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Use-Case 6: Self-Healing Unit Tests (Modell: Devstral)&lt;br&gt;&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Herausforderung:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Code ändert sich, Tests brechen. Die Wartung von Unit Tests ist oft teurer als die Entwicklung der Features selbst.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Die Lösung mit razzfazz.ai:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Devstrals Fähigkeiten im Bereich „Agentic Coding“.&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Szenario:&lt;/strong&gt; Ein Build schlägt fehl, weil ein Unit Test rot ist.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Diagnose: &lt;/strong&gt;&lt;/span&gt;Die Workflow Automation fängt den Fehler aus der CI/CD-Pipeline (z.B. Jenkins) ab und sendet den Stack Trace sowie den geänderten Code an Devstral.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Fix:&lt;/strong&gt;&lt;/span&gt; Devstral analysiert, warum der Test fehlschlägt. War es eine beabsichtigte Änderung der Logik? Dann muss der Test angepasst werden. War es ein Bug? Dann muss der Code gefixt werden.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Aktion: &lt;/strong&gt;&lt;/span&gt;Devstral schlägt den korrigierten Code vor. In einer fortgeschrittenen Ausbaustufe kann der Agent den Fix lokal ausführen, die Tests erneut laufen lassen und bei Erfolg den Fix committen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p3&quot;&gt;&lt;span style=&quot;color: #ba372a;&quot;&gt;&lt;strong&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s2&quot;&gt;Mehrwert:&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Drastische Reduktion der Wartungsaufwände für Testsuiten und stabilere Builds.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Use-Case 7: Intelligente Log-Analyse und Root Cause Analysis (Modell: Magistral)&lt;br&gt;&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Herausforderung:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Wenn in der Produktion oder im Testsystem etwas schiefgeht, müssen Ops-Teams oft Gigabytes an Logfiles durchwühlen. Die Korrelation von Fehlern über verschiedene Microservices hinweg ist für Menschen schwer.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Die Lösung mit razzfazz.ai:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Magistral als forensischer Analyst.&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Ingest:&lt;/strong&gt; Relevante Log-Ausschnitte (z.B. die 5 Minuten rund um einen Crash) werden an die razzfazz.ai Box übermittelt.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Analyse: &lt;/strong&gt;&lt;/span&gt;Magistral korreliert Zeitstempel und Fehlermeldungen. Es erkennt Muster: „Der Timeout im Payment-Service (14:00:01) verursachte die NullPointerException im Order-Service (14:00:02).“.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Erklärung: &lt;/strong&gt;&lt;/span&gt;Das Modell generiert eine Zusammenfassung in natürlicher Sprache für das Ops-Team: „Ursache ist wahrscheinlich eine Überlastung der Datenbank X. Empfohlene Maßnahme: Connection Pool prüfen.“&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p3&quot;&gt;&lt;span style=&quot;color: #ba372a;&quot;&gt;&lt;strong&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Mehrwert:&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Signifikante Reduktion der MTTR (Mean Time To Repair). Das Wissen aus den Logs verlässt dabei nie das gesicherte Netzwerk.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Use-Case 8: Automatisierte Dokumentationspflege (Modell: Devstral)&lt;br&gt;&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Herausforderung:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Code-Dokumentation ist fast immer veraltet. Niemand aktualisiert gerne das Wiki oder die Swagger-Definitionen nach einer Code-Änderung.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Die Lösung mit razzfazz.ai:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Ein „Documentation Buddy“, der den Codebestand überwacht.&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Scan: &lt;/strong&gt;Devstral iteriert regelmäßig über das Repository.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Vergleich: &lt;/strong&gt;&lt;/span&gt;Es vergleicht den Code mit der existierenden Dokumentation (z.B. Markdown-Files oder Docstrings).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Update: &lt;/strong&gt;&lt;/span&gt;Bei Abweichungen generiert Devstral aktualisierte Beschreibungen der Klassen, Methoden und API-Endpunkte. Es kann sogar Diagramme (siehe Use-Case 1) aktualisieren.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Commit: &lt;/strong&gt;&lt;/span&gt;Die aktualisierte Doku wird als Pull Request eingereicht.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;color: #ba372a;&quot;&gt;&lt;strong&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Mehrwert:&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die Dokumentation ist immer „live“ und synchron mit dem Code. Das Onboarding neuer Entwickler wird massiv beschleunigt.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Use-Case 9: Der Agile Ticket-Assistent (Agile Buddy)&lt;br&gt;&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Herausforderung:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;In Dailies wird viel besprochen, aber wenig dokumentiert. „Machst du noch schnell das Ticket für den Bug im Login?“ – und dann wird es vergessen oder nur rudimentär („Login geht nicht“) angelegt.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Die Lösung mit razzfazz.ai:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Der Agile Buddy, integriert in den Kommunikationsfluss.&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p1&quot;&gt;&lt;strong&gt;Input: &lt;/strong&gt;Ein Entwickler spricht eine kurze Notiz in die mobile App des Open WebUI oder schreibt einen schnellen Satz in den Chat: „Hey Jira, Bug im Checkout-Prozess. Wenn man als Gast bestellt und PayPal wählt, kommt ein 500er Fehler.“&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Processing: &lt;/strong&gt;&lt;/span&gt;Die Box nutzt Speech-to-Text (falls Audio) und dann Magistral zur Strukturierung.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Enrichment: &lt;/strong&gt;&lt;/span&gt;Magistral fragt fehlende Infos ab oder ergänzt Kontext (z.B. Browser-Version, Priority). Es formuliert eine professionelle Fehlerbeschreibung mit „Steps to Reproduce“.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Action: &lt;/strong&gt;&lt;/span&gt;Über die Workflow Automation wird das Ticket via Jira-API erstellt und dem richtigen Team zugewiesen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span style=&quot;color: #ba372a;&quot;&gt;&lt;strong&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s2&quot;&gt;Mehrwert:&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Senkung der Hürde für saubere Dokumentation. Bessere Ticketqualität führt zu schnellerer Bearbeitung.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Use-Case 10: Lokaler RAG-Knowledge-Bot für Tester (Magistral + PostgreSQL + pgVector)&lt;br&gt;&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Herausforderung:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Tester müssen oft wissen: „Wie war das nochmal mit der Storno-Logik bei Tarif X?“ Die Antwort steht irgendwo in 500 PDFs im SharePoint.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Die Lösung mit razzfazz.ai:&lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Ein lokales RAG-System (Retrieval Augmented Generation).&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Indizierung: &lt;/strong&gt;Alle Fachkonzepte, Wikis und alten Testpläne werden von der Box eingelesen, in Vektoren umgewandelt und in der lokalen PostgreSQL-Datenbank gespeichert.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Query:&lt;/strong&gt;&lt;/span&gt; Der Tester fragt im Chat: „Wie verhält sich das System bei Storno nach 14 Tagen?“&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Retrieval &amp;amp; Generation: &lt;/strong&gt;&lt;/span&gt;Die Workflow Automation sucht die relevanten Textstellen in PostgreSQL. Magistral erhält diese als Kontext und formuliert eine präzise Antwort inklusive Quellenangabe („Laut Fachkonzept V2.3, Seite 45...“).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p3&quot;&gt;&lt;span style=&quot;color: #ba372a;&quot;&gt;&lt;strong&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Mehrwert:&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Das gesamte Firmenwissen ist sofort und im Dialog verfügbar. Da kein Dokument das Haus verlässt (anders als bei ChatGPT Uploads), bleibt das IP (Intellectual Property) geschützt.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;5. Implementierung: Die Workflow Automation Architektur&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Wie setzen wir diese Use-Cases technisch zusammen? Das Herzstück der Orchestrierung auf der &lt;br&gt;razzfazz.ai Box ist die Workflow Automation mit unterschiedlichen Werkzeugen. Im Gegensatz zu Cloud-Diensten wie Zapier oder n8n läuft diese hier lokal im Docker-Container, direkt neben dem KI-Modell.&lt;/p&gt; &lt;p&gt;Ein typischer Workflow (z.B. für den Bug-Hunter, Use-Case 5) folgt einem klaren Muster, das wir als „Agentic Pattern“ bezeichnen können:&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Trigger Node: &lt;/strong&gt;Horcht auf Ereignisse (Webhook von GitLab, Dateiänderung, Zeitplan).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Data Fetching: &lt;/strong&gt;&lt;/span&gt;Holt die notwendigen Daten (Code, Logs, Text).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;AI Agent Node / Chain: &lt;/strong&gt;&lt;/span&gt;Hier passiert die Magie. Wir nutzen den „Basic LLM Chain“ Node oder spezialisierte Agenten-Knoten. Dieser Knoten kommuniziert über http://localhost:9090 mit dem &lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;llama.cpp&lt;/strong&gt;&lt;/span&gt; Server.&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p2&quot;&gt;Wir konfigurieren hier Parameter wie temperature (niedrig für Code/Logik, höher für kreative Texte) und den System-Prompt.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p1&quot;&gt;&lt;strong&gt;Tool Use: &lt;/strong&gt;Der Agent kann entscheiden, Tools aufzurufen. In der Workflow Automation können wir dem Agenten „Tools“ bereitstellen, z.B. „Calculator“, „Database Query“ oder „Git Commit“. Devstral ist besonders gut darin, zu erkennen, wann es welches Tool nutzen muss.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Output Parser: &lt;/strong&gt;&lt;/span&gt;Die Antwort der KI (oft JSON) wird geparst und validiert.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Action Node: &lt;/strong&gt;&lt;/span&gt;Das Ergebnis wird verarbeitet (Jira Ticket erstellen, E-Mail senden, Datei speichern).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p4&quot;&gt;Visuelle Metapher für den Bericht:&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Stellen Sie sich die Workflow Automation wie eine digitale Fertigungsstraße vor. Die Rohstoffe (Daten) kommen rein, Roboterarme (Nodes) bearbeiten sie. Aber an einer Station sitzt jetzt kein starrer Roboter mehr, sondern ein intelligenter Handwerker (das KI-Modell), der Entscheidungen trifft, Qualitätskontrollen durchführt und improvisieren kann, wenn das Werkstück leicht von der Norm abweicht. Das ist der Unterschied zwischen klassischer Automatisierung und KI-Agenten.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;6. Strategische Einordnung: Cloud vs. Local im Kostenvergleich&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Ein häufiges Gegenargument gegen lokale KI sind die Anschaffungskosten (CAPEX). „Die Cloud ist doch billiger, ich zahle nur, was ich nutze.“ Das ist ein Trugschluss, besonders bei „Reasoning“-Modellen und agentischen Workflows.&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;strong&gt;Token-Ökonomie:&lt;/strong&gt; Reasoning-Modelle wie Magistral oder OpenAI o1 generieren massive Mengen an „internen Gedanken-Tokens“. In der Cloud bezahlen Sie für jeden dieser Gedanken. Ein einziger komplexer Refactoring-Task kann tausende Input- und zehntausende Output-Tokens verbrauchen. Bei täglicher Nutzung durch ein Entwicklerteam summieren sich diese OPEX (Operational Expenditures) enorm.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Flatrate-Effekt:&lt;/strong&gt;&lt;/span&gt; Die razzfazz.ai Box ist eine Einmalinvestition. Ob Sie das Modell 10-mal oder 10.000-mal am Tag fragen, kostet dasselbe (abgesehen vom Strom). Das fördert Experimentierfreude. Entwickler zögern nicht, die KI zu nutzen, weil „das Budget knapp ist“.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Latenz: &lt;/strong&gt;&lt;/span&gt;Für Agenten, die viele kleine Schritte hintereinander ausführen (Schleifen), addiert sich die Netzwerklatenz der Cloud. Lokal erfolgt der Aufruf im Millisekundenbereich über localhost.&lt;/li&gt; &lt;/ol&gt; &lt;p&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;7. Fazit: Local matters.&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Der Titel dieses Artikels ist Programm. „Local matters“ ist nicht nur eine technologische Aussage, es ist eine Haltung. Der EU AI Act hat Risikoklassen definiert und fordert Transparenz und Governance. Viele Unternehmen sehen das als Bürde. Wir bei SEQIS sehen es als Chance.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;Lösungen wie die &lt;/strong&gt;&lt;strong&gt;razzfazz.ai Box&lt;/strong&gt; beweisen, dass Compliance kein Innovationshemmer sein muss. Im Gegenteil: Indem wir die KI lokal betreiben, gewinnen wir Freiheiten zurück, die wir in der Cloud längst aufgegeben hatten.&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Wir können &lt;strong&gt;Magistral&lt;/strong&gt; nutzen, um unsere geheimsten Geschäftsstrategien zu analysieren.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Wir können &lt;strong&gt;Devstral&lt;/strong&gt; auf unseren wertvollsten Asset – unseren Source Code – loslassen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Wir können Systeme bauen, die tief in unsere IT-Landschaft integriert sind, ohne Firewalls zu durchlöchern.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;table class=&quot;t1&quot; style=&quot;border-collapse: collapse; border-color: #000000; border-style: solid; width: 52.1586%;&quot; border=&quot;1&quot; cellspacing=&quot;0&quot; cellpadding=&quot;0&quot;&gt; &lt;tbody&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8109%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Kostenfaktor&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 40.7757%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Cloud AI (z.B. GPT-4 API)&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 27.4147%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Local AI (razzfazz.ai Box)&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8109%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Reasoning (Denkzeit)&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 40.7757%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Teuer (wird per Token abgerechnet)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 27.4147%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Kostenlos (inkludiert)&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8109%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Code-Scan (großer Kontext)&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 40.7757%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Sehr teuer (großer Input-Kontext)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 27.4147%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Kostenlos&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8109%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Wiederkehrende Tasks&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 40.7757%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Linear steigende Kosten&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 27.4147%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Fixkosten (Amortisation)&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 31.8109%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Datentransfer&lt;/strong&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 40.7757%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Kosten + Sicherheitsrisiko&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 27.4147%; text-align: center;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;Kein Transfer, keine Kosten&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;/tbody&gt; &lt;/table&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;Die Zukunft der KI ist hybrid, aber das Herzstück – die Verarbeitung sensibler Daten und intellektuellen Eigentums – muss lokal liegen. Unified Memory Hardware, Open-Source-Modelle und intelligente Orchestrierung mittels der Workflow Automation machen dies heute möglich.&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;Ich lade Sie ein: Warten Sie nicht darauf, dass die Cloud sicher wird. Holen Sie sich die Sicherheit ins Haus. Experimentieren Sie. Bauen Sie Ihren ersten lokalen Agenten. Lassen Sie uns gemeinsam die Zukunft der Softwarequalität gestalten – effizient, souverän und lokal.&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;Ihr Alexander Vukovic SEQIS Founder &amp;amp; Chief Evangelist&lt;/strong&gt;&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;SEQIS - Ihre lokale AI Beratung, Zugriff am November 18, 2025, &lt;a href=&quot;https://seqis.ai/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://seqis.ai/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Razzfazz - Lokal. Open Source. Unabhängig. Sicher., Zugriff am November 18, 2025, &lt;a href=&quot;https://razzfazz.ai/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://razzfazz.ai/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Magistral - Mistral AI, Zugriff am November 18, 2025, &lt;a href=&quot;https://mistral.ai/news/magistral&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://mistral.ai/news/magistral&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Devstral - Mistral AI, Zugriff am November 18, 2025, &lt;a href=&quot;https://mistral.ai/news/devstral&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://mistral.ai/news/devstral&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Tutorial: Offline Agentic coding with llama-server · ggml-org llama.cpp · Discussion #14758, Zugriff am November 18, 2025, &lt;a href=&quot;https://github.com/ggml-org/llama.cpp/discussions/14758&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://github.com/ggml-org/llama.cpp/discussions/14758&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Magistral: The Open-Source AI That Thinks Like You | by Mayank Sultania | Medium, Zugriff am November 18, 2025, &lt;a href=&quot;https://medium.com/@mayanksultania/magistral-the-open-source-ai-that-thinks-like-you-72af41d5cb64&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://medium.com/@mayanksultania/magistral-the-open-source-ai-that-thinks-like-you-72af41d5cb64&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;mistralai/Magistral-Small-2509 - Hugging Face, Zugriff am November 18, 2025, &lt;a href=&quot;https://huggingface.co/mistralai/Magistral-Small-2509&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://huggingface.co/mistralai/Magistral-Small-2509&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;magistral - Ollama, Zugriff am November 18, 2025, &lt;a href=&quot;https://ollama.com/library/magistral&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://ollama.com/library/magistral&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Magistral: Mistral‘s Open Source Reasoning Model - Apidog, Zugriff am November 18, 2025, &lt;a href=&quot;https://apidog.com/blog/magistral/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://apidog.com/blog/magistral/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;mistralai/Devstral-Small-2507 - Hugging Face, Zugriff am November 18, 2025, &lt;a href=&quot;https://huggingface.co/mistralai/Devstral-Small-2507&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://huggingface.co/mistralai/Devstral-Small-2507&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Devstral Small 1.0 - Open Laboratory, Zugriff am November 18, 2025, &lt;a href=&quot;https://openlaboratory.ai/models/devstral-small-2505&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://openlaboratory.ai/models/devstral-small-2505&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Exploring Reasoning LLMs and Their Real-World Applications - GetStream.io, Zugriff am November 18, 2025, &lt;a href=&quot;https://getstream.io/blog/reasoning-llms/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://getstream.io/blog/reasoning-llms/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Agentic Code Generation Papers Part 1, Zugriff am November 18, 2025, &lt;a href=&quot;https://cbarkinozer.medium.com/agentic-code-generation-papers-part-1-05546d0d5d23&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://cbarkinozer.medium.com/agentic-code-generation-papers-part-1-05546d0d5d23&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Devstral Small: The best Software Engineering Agentic LLM by Mistral | by Mehul Gupta | Data Science in Your Pocket | Medium, Zugriff am November 18, 2025, &lt;a href=&quot;https://medium.com/data-science-in-your-pocket/devstral-small-the-best-software-engineering-agentic-llm-by-mistral-4b47b72ae705&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://medium.com/data-science-in-your-pocket/devstral-small-the-best-software-engineering-agentic-llm-by-mistral-4b47b72ae705&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;mistralai/Devstral-Small-2507 : r/LocalLLaMA - Reddit, Zugriff am November 18, 2025, &lt;a href=&quot;https://www.reddit.com/r/LocalLLaMA/comments/1lwe5y8/mistralaidevstralsmall2507/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.reddit.com/r/LocalLLaMA/comments/1lwe5y8/mistralaidevstralsmall2507/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;What Is a Reasoning Model? | IBM, Zugriff am November 18, 2025, &lt;a href=&quot;https://www.ibm.com/think/topics/reasoning-model&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.ibm.com/think/topics/reasoning-model&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/razzfazz-ai-local-matters-2" /><updated>2026-01-07T12:30:00+00:00</updated><id>https://www.seqis.com/de/blog/razzfazz-ai-local-matters-2</id><author><name>Alexander Vukovic</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/razzfazz.ai%20Blogartikel.png" type="image/png" /></entry><entry><title>Der unsichtbare Kollege: Künstliche Intelligenz</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;Der unsichtbare Kollege: Künstliche Intelligenz&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/8/Kopie%20von%20IMG_1290-64bc2691.png&quot; width=&quot;400&quot; height=&quot;550&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: SEQIS GmbH&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Sind Sie sich überhaupt bewusst, wie oft einem Durchschnittsverbraucher heutzutage über einen normalen (Arbeits-)Tag Künstliche Intelligenz (KI) begegnet? Es ist weit mehr, als man ursprünglich annehmen würde? Sehen wir uns doch mal ein Beispiel an!&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;In unserem Beispiel ist das hier unser Otto Normalverbraucher: Im Alter zwischen 30 und 40 Jahren, da diese Altersgruppe Technologie-kompetenter ist und Apps, Streaming als auch Smart Home verwendet. Aber bereits wirtschaftlich etabliert, sodass unser Otto sich diese Geräte und Services auch leisten kann. Wir nehmen an, dass er sowohl Smartphone- als auch Smartwatch-Besitzer ist.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Unser Beispiel-Kollege ist ein Büroangestellter (ob Marketing, Vertrieb, IT, usw. ist für unser Beispiel mal nicht von Bedeutung), der täglich von seinem Wohnort zu seinem Arbeitsplatz pendelt. Für unser Beispiel verfolgen wir Otto an einem normalen Arbeitstag, aber er freut sich bereits auf seinen nächsten Urlaub.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Somit haben wir unseren generischen Charakter, mit dem wir durch unseren Beispiel-Tag gehen werden.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Kopie%20von%20IMG_1267.PNG&quot; alt=&quot;&quot; width=&quot;250&quot; height=&quot;182&quot;&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;06:00 Uhr&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Otto wird sanft aufgeweckt - basierend auf Daten seiner KI-Schlafanalyse, die seinen Zyklus gelernt und basierend darauf eine Voraussage für die ideale Schlafphase zum Wecken erstellt hat.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Seine Smartwatch trackt seine Schlafphasen und sammelt diese Daten.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Kopie%20von%20IMG_1287.PNG&quot; alt=&quot;&quot; width=&quot;250&quot; height=&quot;182&quot;&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;07:00 Uhr&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Otto sitzt am Frühstückstisch und während er isst, fragt er seinen Sprachassistenten der Wahl, wie das Wetter sich heute und im Lauf der Woche entwickeln wird - er freut sich schließlich schon auf seinen bevorstehenden Urlaub und wünscht sich dafür gutes Wetter.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die KI, die hierbei zum Einsatz kommt, verbessert nicht nur die Rohdaten und erkennt komplexe Muster (u.A. auf der Grundlage historischer Daten), sondern gibt die Ergebnisse auch lokal präzise aus. Dadurch wird die Wettervorhersage erheblich beschleunigt und vereinfacht.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Kopie%20von%20IMG_1269.PNG&quot; alt=&quot;&quot; width=&quot;250&quot; height=&quot;182&quot;&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;07:30 Uhr&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Auf dem Weg zur Arbeit nutzt Otto einen KI-Routing Algorithmus, um die schnellste Route zu seinem Ziel basierend auf Echtzeitdaten zu erhalten. Während er fährt, lässt er Lieder basierend auf KI-Empfehlungen im Musikstreaming-Dienst seiner Wahl laufen, die ihm den “passenden” Song vorspielen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Zwischendrin lässt Otto sich durch seinen Sprachassistenten seine heutigen Termine aufzählen, damit er sich bereits geistig darauf vorbereiten kann.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Kopie%20von%20IMG_1288.PNG&quot; alt=&quot;&quot; width=&quot;250&quot; height=&quot;182&quot;&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;09:00 Uhr&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Während Otto konzentriert arbeitet, bewahrt ihn sein KI-Spam-Filter vor 99 % der unerwünschten E-Mails, die sonst seinen Posteingang überfluten würden.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Beim Schreiben seiner Mails unterstützt ihn die KI-Textvorhersage, indem sie die nächsten Worte vorschlägt. Da Otto mit seinen Formulierungen aber immer noch nicht ganz zufrieden ist, lässt er die KI seinen Text umformulieren, bis er mit dem Ergebnis zufrieden ist.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Kopie%20von%20IMG_1282.PNG&quot; alt=&quot;&quot; width=&quot;250&quot; height=&quot;182&quot;&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;12:30 Uhr&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Es ist Zeit für Ottos Mittagspause. Heute geht er wieder zu seinem Lieblingsbäcker, wo er erneut mit Künstlicher Intelligenz in Berührung kommt. Der Bäcker nutzt einen Algorithmus, der basierend auf Wetterdaten, Wochentag und historischen Verkaufszahlen die Tagesproduktion optimiert und somit Abfall minimiert. Er zahlt sein Essen kontaktlos mit seiner Karte, wobei im Hintergrund eine KI-gestützte Betrugserkennung durchgeführt wird. Diese analysiert das normale Kaufmuster und entscheidet, ob eine Transaktion ungewöhnlich ist.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Kopie%20von%20IMG_1281.PNG&quot; alt=&quot;&quot; width=&quot;250&quot; height=&quot;182&quot;&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;15:00 Uhr&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Otto nimmt sich ein wenig Zeit für eine kleine Online-Recherche für sein Traumurlaubsziel. Seine Suchergebnisse sind basierend auf früheren Suchanfragen und seinen Daten (z.B. Alter, Standort, besuchte Webseiten) angepasst. Beispielsweise hatte er in früheren Suchanfragen teurere Hotels bevorzugt - somit werden ihm diese nun zuerst vorgeschlagen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Beim Öffnen des ersten Suchergebnisses stößt Otto auf KI-gesteuerte, personalisierte Werbung. Auch die angezeigten Preise für die Reisen wurden in Echtzeit analysiert, um ihm die beste und günstigste Option anzubieten.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Kopie%20von%20IMG_1284.PNG&quot; alt=&quot;&quot; width=&quot;250&quot; height=&quot;182&quot;&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;18:00 Uhr&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Otto schließt seine Arbeit ab und beschließt, vor der Heimfahrt noch schnell ein paar Lebensmittel einzukaufen und sucht seinen nächsten Supermarkt auf. Dort finden KI-gestützte Kassensysteme und Inventur-KIs Einsatz, um die Regale stets optimal gefüllt zu halten und alle Waren verfügbar zu machen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Kopie%20von%20IMG_1289.PNG&quot; alt=&quot;&quot; width=&quot;250&quot; height=&quot;182&quot;&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;20:00 Uhr&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Um seinen Abend abzurunden, will Otto einen Film bei seinem Lieblings-Streaming-Dienst ansehen. Die KI-Empfehlungs-Engine schlägt ihm direkt eine Liste mit auf seinen bisherigen Sehgewohnheiten basierenden Filmauswahl vor. Am Ende wählt er einen Film aus, der an seinem Urlaubsziel spielt, um sich so auf seine Reise einzustimmen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Man sieht: An mehreren Stellen von Ottos Alltag gibt es KI, die man im ersten Moment nicht erwarten würde oder auf die Otto gar keinen Einfluss hat. Vielerorts macht künstliche Intelligenz seinen Alltag einfacher, ohne dass Otto das überhaupt wahrnimmt. Das zeigt, wie tief KI bereits in unserem täglichen Leben verwurzelt ist und gar nicht mehr wegzudenken ist.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Neben Otto gibt es viele Mitarbeiter und Kollegen, die sich bewusst für den Einsatz von KI entscheiden und mit vollem Bewusstsein diverse Chatbots nutzen (und nutzen wollen), um ihre Arbeit zu erleichtern. Viele Unternehmen zögern allerdings noch mit einer (geregelten) Einführung von KI, wodurch viele der Kollegen privat und ohne Wissen des Unternehmens KI nutzen, die potentiell eine große Sicherheitslücke für das Unternehmen darstellen könnte. Denn der einzelne Mitarbeiter ist sich der Auswirkungen der Nutzung von KI auf den Datenschutz und die IT-Sicherheit eines Unternehmens oft nicht bewusst und denkt auch nicht darüber nach - das ist auch nicht seine Aufgabe. Diese Verantwortung liegt beim Unternehmen selbst.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Allein beim Beispiel von Otto kann man bereits einige potentielle Sicherheitslücken finden, so unwahrscheinlich sie vielleicht sein mögen. Sehen wir uns schnell 2 Fälle an:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p3&quot;&gt;Seine Smartwatch sammelt eine Unmenge Daten über ihn, die bei einem Hack (den man nie vollkommen ausschließen kann) Angreifern detaillierte Einblicke in seine Anwesenheitszeiten, Tagesstruktur und seinen Standort ermöglichen. Diese Informationen können für Social-Engineering-Angriffe gegen ihn oder sein Unternehmen missbraucht werden.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p3&quot;&gt;Während der Fahrt greift Otto über den Sprachassistenten seines privaten Smartphones auf seinen geschäftlichen Kalender zu. Da er während der Fahrt nicht lesen kann, lässt er sich alle Termine vorlesen. Termine könnten dabei sensible Namen wie „Strategiemeeting mit Kunde X“ haben. Sollte die Aufzeichnung oder das Protokoll des Sprachassistenten gehackt werden, würden vertrauliche Geschäftsinformationen über einen nicht autorisierten, privaten Kanal offengelegt.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;Potenzial allein garantiert nicht, dass ein Risiko zur Realität wird. Es braucht allerdings nur einmal etwas schiefgehen, um weitreichende Konsequenzen mit sich ziehen. Ein bewusster und geregelter Umgang mit Künstlicher Intelligenz ist somit stets vorzuziehen, um mögliche negative Auswirkungen zu minimieren und die Vorteile dieser Technologie optimal zu nutzen. Es ist sehr zu empfehlen, proaktiv mögliche Risiken zu identifizieren, zu bewerten und Strategien zu entwickeln, damit umzugehen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Doch wie schafft man das?&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Zunächst einmal: Von einem Verbot für die Nutzung von KI sollte abgesehen werden, denn diese führen oft nur zu einer heimlichen und unkontrollierten Verwendung. Verbote führen nur zur Nutzung des Verbotenen in ungeregelten Ausmaßen. Die Mitarbeiter, welche KI nutzen, wollen zudem die Vorteile von KI nutzen. Durch eine Entlastung von repetitiven Aufgaben durch KI gewinnen sie wertvolle Zeit für anspruchsvollere und kreativere Tätigkeiten. Und: Unternehmen, die KI meiden, schließen sich von Effizienzgewinnen aus und riskieren, von agileren Wettbewerbern überholt zu werden.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Doch was tut man da jetzt nun?&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Das Unternehmen muss klare Regeln und Richtlinien definieren, an denen sich die Mitarbeiter orientieren können. Dadurch wird nicht nur ein transparentes Arbeitsumfeld geschaffen, sondern auch die Effizienz und Konsistenz der Arbeitsabläufe gefördert. Wenn Mitarbeiter wissen, welche Verhaltensweisen im Unternehmen gewünscht sind und welche Produkte genutzt werden können, können unerwünschte Folgen und Fehlverhalten verringert werden.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Beispiele für eine unternehmensweite Strategie für KI könnte folgendes sein:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Die Einführung eines “KI-Führerscheins” bzw. einer Schulung oder Zertifizierung, der den Mitarbeitern das nötige Wissen und die Fähigkeiten vermitteln soll, KI sicher und effizient im Arbeitsalltag zu nutzen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Das Etablieren einer offenen Kommunikationskultur, in der Mitarbeiter ermutigt werden, Fragen zu stellen und ihre selbst entdeckten Tools der IT-Abteilung für eine Abklärung zu melden.&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Das Definieren einer Whitelist an genehmigten KI-Tools (z.B. eine gesicherte interne Unternehmens-KI) und ein explizites Verbot der Nutzung ungesicherter, öffentlicher Modelle.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Die Nutzung eines Vier-Augen-Prinzips bevor etwas von einer KI generierter Inhalt verwendet oder gar veröffentlicht wird.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Das Einrichten eines interdisziplinären Teams (IT, Recht, Fachbereiche), das Tools prüft, freigibt und sicher bereitstellt.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p3&quot;&gt;Künstliche Intelligenz ist aus unserem Alltag nicht mehr wegzudenken, wie Ottos Beispiel zeigt. Sie ist bereits fest in unser Leben und unseren täglichen Abläufen integriert. Anstatt sich ihr zu widersetzen, sollte KI strategisch genutzt werden. Die Frage ist nicht mehr, &lt;strong&gt;ob&lt;/strong&gt; KI eingesetzt wird, sondern &lt;strong&gt;wie&lt;/strong&gt;. Es ist entscheidend, diese Frage nicht dem Zufall zu überlassen, sondern sich aktiv mit den Möglichkeiten und Herausforderungen auseinanderzusetzen, um ihr volles Potenzial auszuschöpfen. Handeln Sie jetzt und überdenken Sie Ihre Strategien - denn KI ist längst im Haus.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Ein besonderes Highlight: &lt;/span&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Alle Abbildungen &lt;/span&gt;&lt;span style=&quot;font-size: 0.875rem;&quot;&gt;dieses Beitrags wurden mit viel Talent und Hingabe von der Autorin selbst entworfen und gezeichnet.&lt;/span&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/der-unsichtbare-kollege-kuenstliche-intelligenz-2" /><updated>2026-01-07T12:30:00+00:00</updated><id>https://www.seqis.com/de/blog/der-unsichtbare-kollege-kuenstliche-intelligenz-2</id><author><name>Tanja Huber</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/Kopie%20von%20IMG_1290.PNG" type="image/png" /></entry><entry><title>Artificial Intelligence: Vom Hype zur echten Wertschöpfung</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;Artificial Intelligence: Vom Hype zur echten Wertschöpfung&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/3/Gemini_Generated_Image_iqmi81iqmi81iqmi-5bd218db.png&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Wie wir KI im Unternehmen sinnvoll verankern&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Kennen Sie das „Bullshit-Bingo“? Früher warteten wir in Meetings darauf, Begriffe wie „Disruption“ oder „VUCA“ abhaken zu können. Heute würde auf fast jedem Zettel ganz oben „KI“ oder „Artificial Intelligence“ stehen. Doch jenseits der Schlagworte stellt sich für uns Digitalisierer, Analysten und Projektleiter die entscheidende Frage: Wie vermeiden wir, dass KI zur neuen „Shelfware“ wird – Software, die wir begeistert kaufen, aber am Ende im Regal verstaubt, weil der echte Nutzen fehlt?&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Die Technologie ist da. Aber zwischen dem bloßen Herumspielen und einer wertschöpfenden Integration in kritische Geschäftsprozesse liegt ein weiter Weg. Es geht nicht mehr um das Ob, sondern um das Wie. Wir müssen KI professionell, sicher und zielgerichtet einsetzen, ähnlich wie wir es bei der Testautomatisierung oder RPA gelernt haben: Fokus auf den ROI und weg von reiner Technik-Verliebtheit.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;Strategie vor Technologie: Das „Warum“ definieren&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Der häufigste Fehler ist der „Solutionism“ – man hat eine Lösung (AI) und sucht nun krampfhaft nach einem Problem. Eine erfolgreiche Implementierung beginnt jedoch immer mit der Unternehmensstrategie. Bevor die erste Zeile Code geschrieben wird, müssen wir definieren, was wir erreichen wollen. Ziele müssen messbar sein und direkt auf die Vision einzahlen. Für uns bedeutet das, Metriken jenseits von „Modellgenauigkeit“ zu finden. Wir müssen uns fragen: Senkt der Einsatz die Durchlaufzeiten? Reduzieren wir die Fehlerquote („First Time Right“)? Oder verbessern wir den Customer Effort Score im Support? Nur wenn der Return on Investment (ROI) stimmt, hat das Projekt eine Zukunft.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;Der Rahmen: Compliance und Standards als Qualitätsmerkmal&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;KI-Einführung ist primär Change Management. Es reicht nicht, Data Scientists einzustellen; wir müssen eine breite KI-Kompetenz im Unternehmen aufbauen. Fachabteilungen müssen verstehen, was KI kann – und was nicht. Hier fungieren Analysten als unverzichtbare Übersetzer zwischen Business und Tech, um „mündige Keyuser“ zu etablieren, die Technologie als Werkzeug begreifen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Dabei ist der kommende EU AI Act kein Hindernis, sondern ein Qualitätsmerkmal. Er zwingt uns dazu, Risiken frühzeitig zu klassifizieren und Transparenz zu schaffen. Ähnlich wie wir bei Remote Work gelernt haben, dass „Security First“ gilt, müssen wir bei KI sicherstellen, dass wir keine „Black Box“ betreiben.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Flankierend dazu liefert die ISO/IEC 42001:2023 das notwendige Werkzeug. Ich halte diese Norm für einen enorm starken „Supportive“: Als erster globaler Standard für AI Management Systems (AIMS) übersetzt sie die regulatorischen Anforderungen in greifbare Prozesse. Für uns Quality Engineers ist die ISO 42001 das Rückgrat, um Compliance operativ umzusetzen. Sie gibt uns Struktur, ähnlich wie wir es von Qualitätsmanagement-Normen kennen, und hilft uns, KI nicht nur gesetzeskonform, sondern auch vertrauenswürdig und risikominimiert zu betreiben.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Der Kurs “EU AI Act in der Praxis“&lt;/strong&gt; bietet einen strukturierten Fahrplan, um die neuen regulatorischen Anforderungen nicht nur zu verstehen, sondern als strategische Chance für das Unternehmen zu nutzen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Sie erhalten in drei praxisnahen Modulen:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p3&quot;&gt;Von den technischen Grundlagen&lt;/li&gt; &lt;li class=&quot;p3&quot;&gt;Über die rechtlichen Details&lt;/li&gt; &lt;li class=&quot;p3&quot;&gt;Bis zur konkreten Implementierung&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;das notwendige Rüstzeug inklusive Checklisten, um KI-Systeme sicher und gesetzeskonform zu betreiben.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Das Training steht sowohl als offenes Format (Online/Onsite) für Einzelpersonen als auch als maßgeschneiderte Inhouse-Lösung für Teams zur Verfügung und schließt mit einem qualifizierten Zertifikat als Kompetenznachweis ab.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Die fünf Säulen einer qualitätsgesicherten KI-Einführung&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Wer sich ernsthaft mit Softwarequalität auseinandersetzt, weiß: Ein System ist nur so gut wie sein schwächstes Glied. Bei KI gelten fünf unverhandelbare Prinzipien.&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;Erstens müssen wir realistische Erwartungen managen. KI ist Mathematik, keine Magie. Als IT-Verantwortliche müssen wir die Erwartungshaltung im Management dämpfen: KI halluziniert, macht Fehler und versteht keinen Kontext, den sie nicht gelernt hat.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Zweitens gehört der Mensch in den Mittelpunkt (Human-in-the-loop). Die Angst, ersetzt zu werden, ist real. Unsere Botschaft muss lauten: KI soll assistieren, nicht eliminieren. Wir nutzen Automatisierung, um repetitive Aufgaben zu erledigen, damit Zeit für wertschöpfende Tätigkeiten bleibt.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Drittens steht und fällt alles mit der Datenqualität. Das alte Prinzip „Garbage In, Garbage Out“ gilt hier mehr denn je. Ein Modell, das mit bias-behafteten Daten trainiert wird, liefert schädliche Ergebnisse – hier müssen wir Vorarbeiten optimieren und Daten strukturieren, bevor wir automatisieren.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Viertens brauchen wir eine kontinuierliche Verbesserung. Software ist deterministisch, KI ist dynamisch. Ein Modell, das heute gut ist, kann morgen nutzlos sein. Wir brauchen ein ständiges Monitoring, ähnlich wie wir Produktionssysteme überwachen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Und fünftens ist Sicherheit nicht verhandelbar. KI-Modelle sind neue Angriffsvektoren. Wir müssen Security by Design von Anfang an mitdenken, um unsere Systeme gegen Manipulationen abzuhärten.&lt;/li&gt; &lt;/ul&gt; &lt;p&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN_H2-25%20weixi.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;388&quot;&gt;&lt;/p&gt; &lt;p&gt;Quelle: SEQIS GmbH&lt;/p&gt; &lt;p&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Ein Blick in die Praxis: Wo die Reise hingeht&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Um den Appetit auf die Umsetzung zu wecken, lohnt sich ein Blick auf die konkreten Chancen, die sich uns bieten. In der &lt;span class=&quot;s1&quot;&gt;Fertigungsindustrie&lt;/span&gt; wird die Effizienz greifbar: Prädiktive Wartung analysiert Sensordaten, um Ausfälle vorherzusagen, bevor sie passieren, während Bilderkennungssysteme in der Qualitätskontrolle Defekte schneller und genauer finden als das menschliche Auge.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Im &lt;span class=&quot;s1&quot;&gt;Finanzsektor&lt;/span&gt; und &lt;span class=&quot;s1&quot;&gt;Einzelhandel&lt;/span&gt; geht es um Präzision und Personalisierung. Algorithmen erkennen Betrugsversuche in Echtzeit oder bewerten Kreditrisiken differenzierter als starre Scorecards. Gleichzeitig ermöglicht KI im Marketing eine Hyper-Personalisierung, die dem Kunden genau das empfiehlt, was er braucht, statt Gießkannen-Werbung zu betreiben – ähnlich wie wir im Service-Bereich durch Automatisierung schnellere Reaktionszeiten für den Kunden schaffen.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Besonders spannend ist der Einsatz im &lt;span class=&quot;s1&quot;&gt;Gesundheitswesen&lt;/span&gt;. Hier fungiert KI als „zweites Augenpaar“ für Ärzte, analysiert Röntgenbilder zur Diagnoseunterstützung und beschleunigt die Entwicklung neuer Medikamente massiv. Und nicht zuletzt optimiert KI in der &lt;span class=&quot;s1&quot;&gt;Logistik&lt;/span&gt; Lieferketten und Routen so effizient, dass Kosten gesenkt und Lieferzeiten verbessert werden.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Fazit: Start Small, Scale Fast&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Die Einführung von KI ist kein Sprint, sondern ein Marathon. Fangen wir mit kleinen, überschaubaren Pilotprojekten an, bei denen die Datenlage gut ist und der Nutzen schnell sichtbar wird – dort, wo wir die „Hauptstraßen der Wertschöpfung“ finden. Lernen wir daraus, passen wir unsere Strategie an und skalieren dann. Die Werkzeuge liegen bereit – es liegt an uns, sie klug und qualitätsgesichert zu nutzen.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Gemini_Generated_Image_iqmi81iqmi81iqmi.png&quot; alt=&quot;&quot; width=&quot;250&quot; height=&quot;250&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/artificial-intelligence-vom-hype-zur-echten-wertschoepfung-2" /><updated>2026-01-07T12:30:00+00:00</updated><id>https://www.seqis.com/de/blog/artificial-intelligence-vom-hype-zur-echten-wertschoepfung-2</id><author><name>Alexander Weichselberger</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/Gemini_Generated_Image_iqmi81iqmi81iqmi.png" type="image/png" /></entry><entry><title>5 Fragen an die KI-Experten: Wie künstliche Intelligenz die Unternehmenswelt revolutioniert</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;5 Fragen an die KI-Experten: Wie künstliche Intelligenz die Unternehmenswelt revolutioniert&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/9/5%20Fragen%20%20%281200%20%C3%97%201200%20px%29-3b803eb3.png&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: SEQIS GmbH&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;Künstliche Intelligenz (KI) ist längst mehr als nur ein futuristisches Konzept – sie ist ein entscheidender Wettbewerbsfaktor in nahezu jedem Geschäftsbereich. Von der Softwareentwicklung bis zum Vertragsmanagement: Unternehmen suchen nach Wegen, KI effizient und sicher zu integrieren. Wir haben fünf zentrale Fragen an KI-Experten gestellt, die Aufschluss darüber geben, wie Unternehmen die neue Technologie am besten nutzen können.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;1. Wie setze ich KI am besten für die Testfallerstellung ein?&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;KI revolutioniert das Software-Testing durch die Automatisierung und Optimierung der Testfallerstellung. Der beste Ansatz ist, KI dort einzusetzen, wo sie ihre Stärken voll ausspielen kann:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Generierung von Testfällen: KI-gestützte Tools können modellbasiert aus bestehender Code-Struktur oder Spezifikationsdokumenten Testfälle generieren. Sie erkennen dabei auch Grenzfälle und komplexe Szenarien&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Testabdeckung: KI kann automatisch neue und unvorhersehbare Testeingaben erzeugen, sowie durch die Analyse großer Mengen von Testdaten die Testabdeckung signifikant erhöhen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Dynamische Priorisierung: KI-Systeme können Testfälle dynamisch nach Relevanz und kritischen Funktionen priorisieren, um sicherzustellen, dass die wichtigsten Tests zuerst ausgeführt werden.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Wichtig&lt;/strong&gt;&lt;/em&gt;: Das Ziel ist nicht, menschliche Tester zu ersetzen, sondern sie von repetitiven Aufgaben zu entlasten, damit sie sich auf komplexes, kreatives Problem-Lösen konzentrieren können.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;2. Kann mich die KI beim Schreiben von Code unterstützen?&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Ja, KI-Coding-Tools sind mittlerweile zu einem Must-have für Entwickler geworden und steigern die Produktivität massiv. Aktuelle KI-Modelle dienen als vielseitige Programmierassistenten:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Code-Vervollständigung und -Generierung: Tools wie GitHub Copilot oder spezialisierte KI-Agenten können in Echtzeit Code-Zeilen vorschlagen, vervollständigen oder ganze Code-Blöcke auf Basis von einfachen Anweisungen generieren. Sie interpretieren den gesamten Projektkontext, um kohärente Lösungen zu liefern.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Fehlerbehebung und Analyse: Die Systeme helfen, Sicherheitslücken schnell zu erkennen, Fehler aufzuspüren und Lösungsvorschläge zu liefern.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Automatisierung von Routinen: KI kann Unit-Tests und Dokumentationen automatisch generieren.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Wichtig&lt;/strong&gt;&lt;/em&gt;: Trotz der Geschwindigkeit und des Komforts ist menschliche Überprüfung unerlässlich. Der von der KI generierte Code muss immer auf Korrektheit, Effizienz und Sicherheitslücken geprüft werden.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;3. Wie verhindere ich, dass (sensible) Daten außerhalb des Unternehmens oder meiner Abteilung landen?&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Der Schutz sensibler und personenbezogener Daten (DSGVO-Konformität) ist eine der größten Herausforderungen beim Einsatz von KI-Tools, insbesondere bei cloudbasierten Diensten. Die Experten geben hier klare Handlungsempfehlungen:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Verwendung geschlossener Systeme (On-Premise oder Private Cloud): Für sensible Daten sollten Unternehmen interne oder private KI-Lösungen in Betracht ziehen, die sicherstellen, dass Daten die Unternehmensgrenzen nicht verlassen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Daten-Anonymisierung und Pseudonymisierung: Bevor Daten in externe KI-Tools (z.B. große Sprachmodelle wie ChatGPT oder Gemini in der Standardversion) eingegeben werden, müssen sie anonymisiert werden. Vertrauliche Unternehmensdaten, proprietärer Quellcode oder personenbezogene Kundendaten dürfen niemals in frei zugängliche, öffentliche KI-Chatbots eingegeben werden, da sie dort potenziell zum Training des Modells verwendet werden können.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Vertragliche Regelungen: Bei der Nutzung von Enterprise-Lösungen sollte ein Auftragsverarbeitungsvertrag (AVV) abgeschlossen werden, der die Nutzung der Daten für Trainingszwecke explizit ausschließt.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Mitarbeiter-Richtlinien: Klare interne Nutzungsrichtlinien und Schulungen sind essenziell, um Mitarbeiter für die Risiken beim Umgang mit sensiblen Daten in KI-Systemen zu sensibilisieren.&lt;/li&gt; &lt;/ul&gt; &lt;p&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;&lt;strong&gt;4. Wie finden wir die optimale KI-Lösung für unsere spezifische geschäftliche Herausforderung und welche Auswahlkriterien sind dabei entscheidend?&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Die Wahl des richtigen KI-Tools erfordert einen strukturierten Ansatz, der über generische Anwendungsfälle hinausgeht. Es beginnt mit einer klaren Zieldefinition: Was genau soll die KI leisten (z.B. Texterstellung, Datenanalyse, komplexe logische Schlussfolgerungen)? Für einfache, repetitive Aufgaben genügen oft schlankere Modelle, während höchste Präzision und tiefes Verständnis der Daten leistungsstarke Reasoning-Modelle (wie fortschrittliche LLMs) erfordern. Die entscheidenden Auswahlkriterien sind:&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p4&quot;&gt;Integrationsfähigkeit: Lässt sich die KI nahtlos in unsere bestehende IT-Infrastruktur (CRM, ERP, etc.) einbetten?&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Skalierbarkeit und Kosten: Wächst das Tool mit unseren Anforderungen und ist das Preismodell transparent?&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Datensouveränität und Sicherheit: Bietet der Anbieter On-Premise- oder Private-Cloud-Lösungen an, um die Kontrolle über unsere sensiblen Daten zu behalten?&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Usability und Anpassung: Ist das Tool für die Mitarbeiter intuitiv bedienbar und können wir es auf unternehmensspezifische Prozesse und Fachsprachen trainieren?&lt;/li&gt; &lt;/ol&gt; &lt;p&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;5. Wie können KI-Systeme unseren Mitarbeitern helfen, schnell und zuverlässig die gesuchten Informationen in unserem internen „Daten-Silo“ – also Verträgen, E-Mails oder alten Projektakten – zu finden?&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Der Einsatz von wissensbasierten KI-Systemen transformiert das interne Wissensmanagement. Diese Lösungen basieren oft auf Technologien wie Retrieval-Augmented Generation (RAG) und agieren als intelligente, unternehmensweite Suchmaschine für Ihre unstrukturierten Daten (Texte, Dokumente).&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Präzise Antworten statt Dokumentenflut: Mitarbeiter müssen nicht mehr Hunderte von Dokumenten durchsehen. Die KI analysiert den gesamten Datenbestand (Verträge, E-Mail-Archive, Akten) und generiert direkte, präzise Antworten auf komplexe Fragen. Sie liefert nicht nur eine Liste von Suchergebnissen, sondern fasst die relevanten Informationen zusammen und verweist auf die Originalquelle.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Beschleunigte Routineaufgaben: Im Rechtswesen kann die KI in Sekunden relevante Klauseln, Risiken oder Fristen in Verträgen identifizieren. Im Kundenservice ermöglicht sie den schnellen Zugriff auf Produktwissen aus alten Projektakten.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Fazit: Dies führt zu einer drastischen Reduzierung der Suchzeit und stellt sicher, dass Entscheidungen auf der Grundlage des gesamten, aktuellen Unternehmenswissens getroffen werden können, anstatt nur auf leicht verfügbare Informationen zurückzugreifen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;Die Antworten der Experten zeigen: Künstliche Intelligenz ist kein optionales Extra mehr, sondern ein strategischer Wettbewerbsfaktor. Die Potenziale sind enorm, insbesondere dort, wo KI repetitive, zeitintensive Aufgaben übernimmt und menschliche Expertise erweitert.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Allerdings wird der Erfolg von KI-Initiativen entscheidend davon abhängen, ob Unternehmen die Balance zwischen Innovation und Sicherheit meistern. Der Schutz sensibler Daten hat oberste Priorität: Nur durch den bewussten Einsatz von geschlossenen (On-Premise) Systemen, konsequenter Anonymisierung und klaren Compliance-Richtlinien kann das Risiko des Datenabflusses verhindert werden.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Kurz gesagt: Die Zukunft gehört jenen Unternehmen, die nicht nur die richtige KI für die richtige Aufgabe auswählen, sondern auch die notwendigen organisatorischen und technischen Schutzmauern errichten, um die Vorteile der KI sicher und verantwortungsvoll zu nutzen. KI steigert die Produktivität massiv – aber nur, wenn sie mit strategischer Weitsicht und klarem Fokus auf Datensouveränität implementiert wird.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Der Text wurde mit Unterstützung des KI-Modells Gemini (Google) erstellt und redaktionell überarbeitet.&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/5-fragen-an-die-ki-experten-wie-kuenstliche-intelligenz-die-unternehmenswelt-revolutioniert" /><updated>2026-01-07T11:02:00+00:00</updated><id>https://www.seqis.com/de/blog/5-fragen-an-die-ki-experten-wie-kuenstliche-intelligenz-die-unternehmenswelt-revolutioniert</id><author><name>Sandra Benseler</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/5%20Fragen%20%20%281200%20%C3%97%201200%20px%29.png" type="image/png" /></entry><entry><title>Lokales AI-Hosting auf dem Mac: Ein praktischer Leitfaden für Code</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;Lokales AI-Hosting auf dem Mac: Ein praktischer Leitfaden für Code&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/9/QN2-2025_Daniel-1-20801e04.png&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;Nachdem ich in meinem letzten Artikel meine Erfahrungen mit dem Cloud-basierten AI-Assistenten Codeium geteilt habe, hier der nächste Schritt: der Umstieg auf ein vollständig lokales Setup. Die Gründe dafür liegen auf der Hand: maximale Kontrolle über sensible Daten, keine Latenz durch Internetverbindungen, die Möglichkeit zur Offline-Nutzung und die Freiheit, mit den verschiedensten Open-Source-Modellen zu experimentieren. Für jeden, der einen Mac mit Apple Silicon nutzt, ist die gute Nachricht: Dank der Metal-Architektur und cleverer Software wie llama.cpp ist das Hosting von leistungsstarken Modellen nicht nur möglich, sondern erstaunlich performant.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;In diesem Artikel werde ich unsere Erkenntnisse zum Hosting von zwei Coding-Modellen teilen: Qwen3 Coder 32b und Devstral. Ich werde die empfohlenen Kommandozeilenparameter aufschlüsseln, die wichtigsten Sampling-Parameter praxisnah erläutern und aufzeigen, wie man jedes Modell für seine spezifischen Stärken optimal konfiguriert.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;Das Fundament: llama.cpp und die Magie der Quantisierung&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Für das lokale Hosting auf einem Mac ist llama.cpp das mit Abstand wichtigste Werkzeug. Es ist eine in C/C++ geschriebene Inferenz-Engine, die für Apple Silicon optimiert ist und die GPU (via Metal) für die rechenintensiven Matrizenmultiplikationen nutzt.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Der Schlüssel zur Lauffähigkeit großer Modelle auf Consumer-Hardware liegt in der Quantisierung. Ein Modell wie Qwen3 Coder 32b hätte ursprünglich mit 16-Bit-Gleitkommazahlen (FP16) eine Größe von über 64 GB. Die Quantisierung reduziert die Präzision der Gewichte im neuronalen Netz, z.B. auf 4-Bit-Ganzzahlen. Modelle für Llama.cpp kommen im GGUF-Format. Bei der Auswahl einer Datei stößt man auf Bezeichnungen wie Q4_K_M oder Q5_K_S. Für den Einstieg hat sich Q4_K_M als exzellenter Kompromiss aus Performance, geringer Dateigröße und hoher Qualität erwiesen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Wenn es die Hardware erlaubt, gilt hier allerdings: Größer (Q8 statt Q4) ist eindeutig besser, wenn es um Genauigkeit der Antwort geht. Ist eine schnelle Antwort Priorität, dann empfiehlt es sich, die niedrigste Quantisierung zu wählen, die noch gute Antworten liefert. Im Normalfall bedeutet das alles inklusive Q4. Es ist auf jeden Fall ein wenig Experimentierfreudigkeit gefragt, um das optimale Modell und die besten Parameter für den eigenen Anwendungsfall herauszufinden.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;Wer mehr zu Quantisierung und die technischen Hintergründe davon erfahren möchte, findet unter diesem Link einen Startpunkt für die eigene Recherche: &lt;a href=&quot;https://huggingface.co/docs/optimum/en/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://huggingface.co/docs/optimum/en/&lt;/a&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die Beispiele im hinteren Teil des Artikels sollen hier als Startpunkt dienen. Will man hier größere Anpassungen vornehmen, sollte man sich als ersten Schritt genauer über die Hintergründe und Auswirkungen der einzelnen Parameter informieren. Der Detailgrad und die Komplexität können hier schnell ins Unermessliche wachsen. Und selbst wenn man sich für neue Parameter entschieden hat, dann wollen diese am besten auch getestet werden. Da allerdings Änderungen in den Parametern mitunter subtile oder schwer quantifizierbare Änderungen im Verhalten des Modells verursachen, ist Vorsicht gefragt.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Im Normalfall findet man für jedes Modell im Web genügend Vorschläge dazu, und wir haben uns ebenfalls an diesen orientiert, um den Testaufwand klein zu halten. Meistens steht der Aufwand für den umfassenden Test dieser Parameter in keiner Relation zu den damit nachweisbar erreichten Verbesserungen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Die Kunst des Samplings: Die wichtigsten Parameter im Überblick&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Bevor wir in die modellspezifischen Konfigurationen eintauchen, hier eine kurze Übersicht der wichtigsten Sampling-Parameter, die das Verhalten der AI steuern und deren Bedeutung:&lt;/p&gt; &lt;table class=&quot;t1&quot; style=&quot;border-collapse: collapse; border-color: #000000; border-style: solid;&quot; border=&quot;1&quot; cellspacing=&quot;0&quot; cellpadding=&quot;0&quot;&gt; &lt;tbody&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Parameter&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Zweck&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Auswirkung&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;--temp &amp;lt;wert&amp;gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;&lt;span class=&quot;s2&quot;&gt;Kreativität:&lt;/span&gt; Regelt die Zufälligkeit der Wortwahl.&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Niedrig (~0.2): Deterministisch, präzise.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Hoch (~0.9): Kreativ, aber fehleranfälliger.&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;--top-k &amp;lt;wert&amp;gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;&lt;span class=&quot;s2&quot;&gt;Fokus:&lt;/span&gt; Beschränkt die Auswahl auf die K wahrscheinlichsten Wörter.&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Verhindert unsinnige Wörter, kann aber zu repetitiven Antworten führen.&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;--top-p &amp;lt;wert&amp;gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;&lt;span class=&quot;s2&quot;&gt;Dynamischer Fokus:&lt;/span&gt; Wählt Wörter, deren summierte Wahrscheinlichkeit p erreicht.&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Flexibler als Top-K, oft ein besserer Kompromiss zwischen Kreativität und Kohärenz.&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;--mirostat &amp;lt;modus&amp;gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;&lt;span class=&quot;s2&quot;&gt;Adaptive Steuerung:&lt;/span&gt; Versucht, die „Überraschung“ (Perplexität) konstant zu halten.&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Alternative zu temp/top-p, gut für lange, kohärente Texte. 2 ist ein gängiger Modus. Taucht selten in empfohlenen Parametern auf, sollte daher als &lt;span class=&quot;s2&quot;&gt;experimentell&lt;/span&gt; betrachtet werden.&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;--repeat-penalty &amp;lt;wert&amp;gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;&lt;span class=&quot;s2&quot;&gt;Anti-Wiederholung:&lt;/span&gt; Bestraft das Modell für das Wiederholen von Wörtern.&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Ein Wert von 1.1 ist fast immer eine gute Idee, um Endlosschleifen zu vermeiden.&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;/tbody&gt; &lt;/table&gt; &lt;p&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Beispiele aus der Praxis&lt;/strong&gt;&lt;/h3&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;Modell 1: Qwen3 Coder 32b – Der logische Problemlöser&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Qwen3 Coder ist ein Allrounder mit einer besonderen Stärke im logischen Denken und der Generierung von qualitativ hochwertigem, korrektem Code. Mit seinem 32k-Token-Kontextfenster kann es problemlos größere Dateien verarbeiten. Es eignet sich hervorragend für Aufgaben, bei denen es auf algorithmische Korrektheit und die Einhaltung komplexer Anweisungen ankommt.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;em&gt;&lt;strong&gt;Anwendungsfall A: Präzise Code-Generierung und Unit-Tests&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Hier wollen wir, dass das Modell exakt unseren Anweisungen folgt und vorhersagbaren Code generiert. Kreativität ist unerwünscht.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Daniel-2.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;185&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Warum diese Parameter?&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;-ngl 99 oder --n-gpu-layers 99: Stellt sicher dass alle Layer des Modells in den GPU-Speicher geladen werden.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;--temp 0.2: Eine sehr niedrige Temperatur zwingt das Modell, fast immer das statistisch wahrscheinlichste nächste Token zu wählen. Das Ergebnis ist deterministischer und weniger fehleranfällig – perfekt für das Ausformulieren einer bekannten Logik.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;--top-k 10: Wir schränken die Auswahl auf die 10 wahrscheinlichsten Tokens ein. Dies eliminiert das Risiko, dass das Modell auf eine abwegige, aber „kreative“ Idee kommt, die den Code unbrauchbar machen würde.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Anwendungsbeispiel: Schreibe eine Python-Funktion, die einen Bubble-Sort-Algorithmus implementiert. Füge Type-Hints und einen Docstring hinzu, der die Zeitkomplexität erklärt.&lt;/li&gt; &lt;/ul&gt; &lt;p&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Anwendungsfall B: Algorithmisches Brainstorming und Refactoring-Ideen&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Manchmal wissen wir nicht genau, wie die Lösung aussehen soll, und möchten, dass das Modell verschiedene Ansätze vorschlägt.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Daniel-3.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;229&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Daniel-4.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;202&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Warum diese Parameter?&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;--temp 0.7 &amp;amp; --top-p 0.95: Diese Kombination erlaubt dem Modell, auch weniger offensichtliche Tokens in Betracht zu ziehen, solange sie zur Gruppe der 95% wahrscheinlichsten Kandidaten gehören. Dies fördert die Generierung alternativer Lösungswege, ohne komplett unsinnig zu werden.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;--mirostat 2: Mirostat ist eine exzellente Alternative, da es versucht, den Output über längere Passagen hinweg interessant zu halten, was ideal für das Ausformulieren verschiedener Konzepte ist.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Anwendungsbeispiel: Ich habe eine langsame Funktion zur Datenverarbeitung in Pandas. Zeige mir drei verschiedene Wege, wie ich sie optimieren könnte, z.B. durch Vektorisierung oder die Verwendung von Dask.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;Modell 2: Devstral – Der Architekt mit dem Super-Gedächtnis&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Devstrals herausragendes Merkmal ist sein gigantisches 128k-Token-Kontextfenster. Das entspricht etwa 100 Seiten Text. Damit kann das Modell nicht nur eine einzelne Datei, sondern auch eine ganze Codebasis „im Kopf behalten“. Seine Stärke liegt in groß angelegten Refactorings, der Analyse von Projektarchitekturen sowie in Aufgaben, die Konsistenz über viele Dateien hinweg erfordern.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Hinweis&lt;/strong&gt;&lt;/em&gt;: Die Nutzung des vollen Kontextfensters erfordert eine beträchtliche Menge an RAM (idealerweise 64 GB oder mehr).&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;Seine wahre Stärke spielt Devstral in Kombination mit dem Agent-Framework „Open-Hands“ aus. Darauf näher einzugehen würde allerdings den Rahmen dieses Artikels sprengen. Wer sich selbst dazu schlau machen will oder das Framework ausprobieren möchte, finden alle Infos dazu hier: &lt;a href=&quot;https://docs.openhands.dev/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://docs.openhands.dev/&lt;/a&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Anwendungsfall A: Großflächiges und konsistentes Refactoring&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Stellen Sie sich vor, Sie müssen in einem ganzen Projekt eine veraltete Bibliothek ersetzen oder von JavaScript auf TypeScript migrieren. Devstral kann durch seinen großen Kontext gut Zusammenhänge zwischen verschiedenen Files tracken und dadurch besser bei solchen “hochvernetzten” Tasks unterstützen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Wichtig&lt;/strong&gt;&lt;/em&gt;: Umso größer der Kontext, umso länger dauert auch die Antwort. Je nach Hardware kann das schon mal mehrere Minuten dauern. Deshalb bei so komplexen Tasks am besten die Logs im Auge behalten, um sicherzustellen, dass das Modell noch arbeitet und nicht “hängt”.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Für unsere Tests haben wir das auf Huggingface verfügbare quantisierte Modell von der Gruppe “Unsloth” verwendet.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;WICHTIGER HINWEIS&lt;/strong&gt;&lt;/em&gt;: Zum Zeitpunkt der Veröffentlichung dieses Artikels wies die neueste “2507”-Version von Unsloth einen Bug im Zusammenhang mit --jinja auf. Daher verwenden wir das “2505”-Modell, das diesen Bug nicht hat.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Daniel-5.png&quot; alt=&quot;&quot; width=&quot;400&quot; height=&quot;317&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Warum diese Parameter?&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;--ctx-size 131072: Der wichtigste Parameter hier. Wir geben dem Modell den maximalen Kontext, damit es Abhängigkeiten zwischen Dateien versteht.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;--temp 0.15: Bei einem so großen Refactoring ist Konsistenz entscheidend. Eine extrem niedrige Temperatur stellt sicher, dass das Modell den einmal gewählten Stil und die Namenskonventionen beibehält.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;--repeat-penalty 1.15: Leicht erhöht, um bei sehr langen Generierungen über mehrere Dateien hinweg subtile Wiederholungen im Stil oder in Kommentaren zu vermeiden.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;--jinja: Aktiviert die Verwendung des Chat-Templates in der Jinja-Syntax, das mit dem Modelfile automatisch mitgeliefert wird.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Anwendungsbeispiel: Hier sind fünf miteinander verbundene Klassen. Refaktoriere sie, um das Singleton-Pattern durch Dependency Injection zu ersetzen. Achte darauf, alle Instanziierungen im gesamten Code konsistent zu aktualisieren.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Anwendungsfall B: Codebase-Analyse und Onboarding für neue Entwickler&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Ein neues Teammitglied muss sich in ein komplexes Projekt einarbeiten. Devstral kann als persönlicher Projekt-Tutor fungieren.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Daniel-6.png&quot; alt=&quot;&quot; width=&quot;400&quot; height=&quot;327&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Warum diese Parameter?&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;--temp 0.5: Wir benötigen hier eine verständliche, menschenähnliche Erklärung, keine exakte Code-Generierung. Eine mittlere Temperatur erzeugt einen flüssigeren, natürlicheren Sprachstil.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;--top-p 0.9: Gibt dem Modell genügend Flexibilität, um komplexe Zusammenhänge auf verschiedene Weisen zu formulieren.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Anwendungsbeispiel: Basierend auf der gesamten Codebasis, die ich dir gebe: Erkläre die Hauptverantwortlichkeiten des ‚AuthenticationService‘ und wie er mit dem ‚User‘ und ‚Session‘ Modell interagiert. Erstelle ein Mermaid.js-Diagramm, das diese Beziehungen visualisiert.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p4&quot;&gt;Fazit&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Der Schritt zum lokalen Hosting von AI-Modellen auf meinem Mac war eine unglaublich lehrreiche Erfahrung. Die präzise Kontrolle über die Sampling-Parameter, abgestimmt auf die Stärken spezifischer Modelle wie Qwen3 und Devstral, war der Schlüssel um diese Modelle auf “Consumer-Hardware” gehosted unseren Developern zur Verfügung stellen zu können.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Somit bleiben alle mit der AI geteilten Informationen in unserer Kontrolle und es erlaubte uns, AI-unterstütztes Coding auch in hochsensiblen Projekten einsetzen zu können. Und alle gesammelten Learnings auf unserem Weg zur selbstgehosteten AI machen wir über razzfazz.ai für alle verfügbar.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Daniel-7.png&quot; alt=&quot;&quot; width=&quot;400&quot; height=&quot;400&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://huggingface.co/mistralai/Devstral-Small-2507&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://huggingface.co/mistralai/Devstral-Small-2507&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://huggingface.co/unsloth/Devstral-Small-2505-GGUF&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://huggingface.co/unsloth/Devstral-Small-2505-GGUF&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://docs.unsloth.ai/models/tutorials-how-to-fine-tune-and-run-llms/devstral-how-to-run-and-fine-tune&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://docs.unsloth.ai/models/tutorials-how-to-fine-tune-and-run-llms/devstral-how-to-run-and-fine-tune&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://github.com/ggml-org/llama.cpp/tree/master/tools/server&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://github.com/ggml-org/llama.cpp/tree/master/tools/server&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;a href=&quot;https://huggingface.co/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://huggingface.co/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;a href=&quot;https://github.com/ggml-org/llama.cpp/tree/master&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://github.com/ggml-org/llama.cpp/tree/master&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;a href=&quot;https://docs.openhands.dev/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://docs.openhands.dev/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;a href=&quot;https://razzfazz.ai/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://razzfazz.ai/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;a href=&quot;https://mistral.ai/news/devstral&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://mistral.ai/news/devstral&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;a href=&quot;https://qwen.ai/home&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://qwen.ai/home&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Dieser Artikel wurde mit Unterstützung von AI verfasst.&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/lokales-ai-hosting-auf-dem-mac-ein-praktischer-leitfaden-fuer-code" /><updated>2026-01-07T10:25:00+00:00</updated><id>https://www.seqis.com/de/blog/lokales-ai-hosting-auf-dem-mac-ein-praktischer-leitfaden-fuer-code</id><author><name>Daniel Kleissl</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Daniel-1.png" type="image/png" /></entry><entry><title>Denken trotz KI: Warum Automatisierung den Verstand nicht ersetzen darf</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;Denken trotz KI: Warum Automatisierung den Verstand nicht ersetzen darf&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/b/QN2-2025_Amine-3-8293f1c8.png&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;KI-Tools erleichtern unseren Alltag enorm. Doch je mehr wir sie nutzen, desto größer wird die Gefahr, das eigenständige Denken zu verlernen. Der Artikel geht der Frage nach, wie wir kritisch bleiben, wenn Maschinen scheinbar perfekte Antworten liefern.&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;Denken trotz KI&lt;/h3&gt; &lt;p class=&quot;p4&quot;&gt;Planen, entwerfen, argumentieren und umsetzen gelingt mittlerweile präzise und effizient mit KI-Tools wie ChatGPT, Copilot oder Gemini. Was früher Stunden kostete, erledigt die KI in Sekunden. Doch je mehr wir uns auf diese Systeme verlassen, desto stärker wächst die Gefahr, dass wir unser eigenständiges Denken verlernen. Der technologische Fortschritt erleichtert vieles, kann aber auch dazu führen, dass wir unbewusst die Verantwortung für unser Urteilsvermögen abgeben.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Der Artikel geht der Frage nach, wie wir trotz Bequemlichkeit moderner Automatisierung kritisch und selbstständig bleiben können und warum das für die Zukunft der Arbeit entscheidend ist.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p4&quot;&gt;Von Entlastung zur geistigen Trägheit&lt;/h4&gt; &lt;p class=&quot;p4&quot;&gt;Automatisierung war immer schon ein Synonym für Effizienz. Maschinen haben körperliche Arbeit ersetzt, Software hat Prozesse beschleunigt und nun beginnt KI das Denken selbst zu entlasten.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Texte werden automatisch formuliert, Meetings transkribiert und Lösungswege vorbereitet. Diese Unterstützung spart Zeit, kann aber auch Risiken mit sich bringen. Wir gewöhnen uns an den Komfort, nicht mehr selbst analysieren, hinterfragen oder abwägen zu müssen.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Psychologisch gesehen spricht man hier von kognitiver Trägheit, also der Neigung, auf bestehende Denkmuster oder bequeme Routinen zurückzugreifen, anstatt aktiv nachzudenken. Wenn KI uns plausible Antworten liefert, scheint Nachdenken oft überflüssig. Doch genau hier liegt die Gefahr. Der Verstand, der nicht trainiert wird, verliert seine Schärfe.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p4&quot;&gt;Schnelles und langsames Denken&lt;/h4&gt; &lt;p class=&quot;p4&quot;&gt;Der Psychologe, Verhaltensforscher und Nobelpreisträger Daniel Kahneman unterscheidet in seinem Buch “Schnelles Denken, langsames Denken” zwischen zwei Denkmodi, die unser Verhalten prägen:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p5&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s2&quot;&gt;System 1&lt;/span&gt;&lt;/span&gt; ist intuitiv, schnell, automatisch und emotional.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s2&quot;&gt;System 2&lt;/span&gt;&lt;/span&gt; ist langsam, reflektiert, analytisch und bewusst.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p4&quot;&gt;Künstliche Intelligenz spricht vor allem unser &lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s2&quot;&gt;System 1&lt;/span&gt;&lt;/span&gt; an. Sie liefert Ergebnisse sofort, elegant formuliert und meist überzeugend. Dadurch aktivieren ihre Antworten unser intuitives Denken, und wir akzeptieren sie oft, ohne sie gründlich zu prüfen.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Das &lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s2&quot;&gt;System 2&lt;/span&gt;&lt;/span&gt;, das für kritische Analyse und tiefes Verständnis verantwortlich ist, bleibt dabei häufig inaktiv. Langsames Denken ist anstrengend, aber essenziell. Es schützt uns vor Fehleinschätzungen und voreiligen Urteilen. Wenn KI unser schnelles Denken verstärkt, müssen wir bewusst Wege finden, das langsame Denken zu fördern.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Viele Menschen neigen jedoch dazu, den Aussagen von automatisierten Systemen blind zu vertrauen. Die KI liefert aber keine absolute Wahrheit, sondern Wahrscheinlichkeiten, die auf Mustern in den zugrunde liegenden Daten basieren. Dieses Vertrauen kann zum Automation Bias führen: Wir übernehmen KI-Empfehlungen oft ungeprüft und vernachlässigen unsere eigenen Einschätzungen, selbst wenn die Vorschläge fehlerhaft oder unvollständig sind.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;In der Praxis bedeutet das: Wer sich zu sehr auf KI verlässt, riskiert, dass wichtige Aspekte übersehen oder falsche Entscheidungen getroffen werden. Bewusstes Hinterfragen und kritisches Prüfen bleiben unverzichtbar, um die Stärken von KI effektiv zu nutzen, ohne die eigene Urteilskraft zu verlieren.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;img style=&quot;font-size: 0.875rem;&quot; src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Amine-2.png&quot; alt=&quot;&quot; width=&quot;199&quot; height=&quot;297&quot;&gt;          &lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Amine-1.png&quot; alt=&quot;&quot; width=&quot;202&quot; height=&quot;297&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p4&quot;&gt;Kritisches Denken als Schlüsselkompetenz&lt;/h4&gt; &lt;p class=&quot;p4&quot;&gt;In einer zunehmend automatisierten Arbeitswelt wird kritisches Denken zu einer zentralen Fähigkeit. Es geht dabei nicht darum, KI zu misstrauen, sondern sie bewusst und reflektiert zu nutzen.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Ein einfaches Vorgehen kann helfen, diese Haltung im Alltag zu verankern.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Amine-3.png&quot; alt=&quot;&quot; width=&quot;400&quot; height=&quot;400&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;em&gt;&lt;strong&gt;1. Stop – Think – Use&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Bevor man die KI einsetzt, sollte man kurz innehalten. Was will ich wirklich wissen? Welche Art von Antwort brauche ich? Das bewusste Formulieren einer Frage verhindert, dass man die Kontrolle über den Denkprozess abgibt.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;em&gt;&lt;strong&gt;2. Compare – Challenge – Check&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Nach dem Ergebnis sollte man die Antwort prüfen. Gibt es alternative Quellen oder Sichtweisen? Welche Annahmen stecken in der Antwort? Stimmen die Zahlen, Argumente und Schlussfolgerungen? So bleibt der Mensch im Dialog mit der Maschine und wird nicht zu ihrem passiven Nutzer.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;em&gt;&lt;strong&gt;3. Reflect – Adapt&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Nach der Nutzung ist Reflexion wichtig. Was hat funktioniert, was nicht? Diese bewusste Nachbetrachtung stärkt langfristig das Urteilsvermögen und verhindert, dass man KI-Ergebnisse unbewusst übernimmt.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Um dieses Vorgehen besser umzusetzen, kann man sogenannte Pre-Prompts verwenden. Ein Pre-Prompt ist eine Art „Meta-Anweisung“ oder Verhaltensregel, die man der Aufgabe voranstellt. Man definiert damit die Rolle oder das Ziel der KI-Antwort, bevor man die eigentliche Frage stellt.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Beispiel aus der Softwareentwicklung: „Hilf mir, die Vor- und Nachteile verschiedener Datenstrukturen zu verstehen. Zeige mögliche Denkpfade auf, ohne fertigen Code vorzuschlagen. Ich möchte selbst zur Entscheidung kommen.“&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p4&quot;&gt;Fazit&lt;/h4&gt; &lt;p class=&quot;p4&quot;&gt;Automatisierung ist eine enorme Erleichterung, darf aber nicht zu geistiger Abhängigkeit bzw. Verarmung führen. Wenn wir KI nicht als Ersatz, sondern als Werkzeug verstehen und Routinen etablieren, die unser Urteilsvermögen trainieren, kann sie uns helfen, bewusster zu denken. So bleibt der Verstand lebendig, auch in einer zunehmend automatisierten Welt.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Kahneman, D. (2011). Thinking, Fast and Slow.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://www.gizmodo.de/kollaborative-intelligenz-wie-man-mentale-traegheit-vermeidet-und-die-formel-mensch-ki-staerkt-2000027399&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.gizmodo.de/kollaborative-intelligenz-wie-man-mentale-traegheit-vermeidet-und-die-formel-mensch-ki-staerkt-2000027399&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://cset.georgetown.edu/publication/ai-safety-and-automation-bias/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://cset.georgetown.edu/publication/ai-safety-and-automation-bias/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://biases.de/automation-bias/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://biases.de/automation-bias/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://stealthesethoughts.com/2025/07/22/stop-ai-hijacking-your-thinking/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://stealthesethoughts.com/2025/07/22/stop-ai-hijacking-your-thinking/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://www.resilienz-akademie.com/resilienz-allgemein/metakognition/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.resilienz-akademie.com/resilienz-allgemein/metakognition/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://www.forbes.com/sites/charlestowersclark/2025/03/14/how-ai-changes-critical-thinking-new-microsoft-research-findings/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.forbes.com/sites/charlestowersclark/2025/03/14/how-ai-changes-critical-thinking-new-microsoft-research-findings/&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/denken-trotz-ki-warum-automatisierung-den-verstand-nicht-ersetzen-darf" /><updated>2025-12-30T10:42:00+00:00</updated><id>https://www.seqis.com/de/blog/denken-trotz-ki-warum-automatisierung-den-verstand-nicht-ersetzen-darf</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Amine-3.png" type="image/png" /></entry><entry><title>KI im Unternehmen: Ein Praxis-Leitfaden zu Datenschutz, AI Act und Compliance</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;KI im Unternehmen: Ein Praxis-Leitfaden zu Datenschutz, AI Act und Compliance&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/7/QN2-2025_Emre-1-9768c6fb.png&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;Im Jahr 2025 ist Künstliche Intelligenz (KI) ein fundamentaler Pfeiler der Unternehmensstrategie. Doch nach dem ersten Hype stehen Unternehmen im deutschsprachigen Raum (DACH-Region) vor kritischen, strategischen Fragen, die über die reine Leistung der Modelle hinausgehen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Für welchen Bereich sind diese Modelle sicher einzusetzen – für das Development, die Texterzeugung oder die Testfallerstellung? Was sind die tatsächlichen Vor- &amp;amp; Nachteile der verschiedenen KI-Modelle im operativen Einsatz?&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Vor allem aber: Was passiert mit Ihren sensiblen Unternehmensdaten? Werden Ihre Daten zur weiteren Entwicklung des KI-Modells verwendet? Wie sicher sind Ihre Daten wirklich? Wo werden diese gespeichert – in der EU oder potenziell in Drittstaaten? Und wer genau kann Ihre Prompts sehen?&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die Antworten auf diese Fragen definieren die „rote Linie“ zwischen einer konformen, nachhaltigen KI-Implementierung und einem untragbaren rechtlichen Risiko. In diesem Artikel beantworten wir genau diese Fragen.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;1 Eine Taxonomie moderner KI-Modelle&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Um fundierte Entscheidungen treffen zu können, ist eine klare Abgrenzung der verfügbaren Modellkategorien erforderlich.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;1.1 Große Sprachmodelle (LLMs): Das Fundament&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Große Sprachmodelle (Large Language Models, LLMs) bilden die Grundlage der aktuellen generativen KI-Revolution. Sie werden auf Basis riesiger Text- und Datensätze trainiert und nutzen Deep-Learning-Techniken, um menschliche Sprache zu verarbeiten und zu generieren. Ihre Kernkompetenzen umfassen eine Vielzahl von Aufgaben der natürlichen Sprachverarbeitung (NLP), darunter Textzusammenfassung, Maschinenübersetzung, Beantwortung von Fragen und das Verfassen kreativer Texte.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Zu den wichtigsten Akteuren in diesem Bereich gehören die GPT-Modellfamilie (Generative Pre-trained Transformer) von OpenAI&lt;sup&gt;[6]&lt;/sup&gt;, Gemini von Google, die Claude-Modellfamilie von Anthropic, die sich auf Sicherheit und komplexe Schlussfolgerungen konzentriert, und die Llama-Modellfamilie von Meta. &lt;sup&gt;[5] &lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;1.2 Spezialisierte generative Modelle&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Neben den generalistischen LLMs hat sich ein Markt für hochspezialisierte Modelle entwickelt, die für bestimmte Aufgaben optimiert sind.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Code-Generierung und -Analyse&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Diese Modelle sind speziell auf Programmiersprachen, Software-Bibliotheken und Entwicklungskonzepte trainiert.&lt;sup&gt;[8]&lt;/sup&gt; Sie dienen als „Pair-Programmer“ und verstehen den spezifischen Kontext einer Codebasis, einschließlich Dateistrukturen, Importabhängigkeiten und Namenskonventionen. &lt;sup&gt;[10]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Das prominenteste Beispiel ist GitHub Copilot, das eine Suite verschiedener Modelle nutzt, darunter GPT-4.1 und Claude 3.5 Sonnet.&lt;sup&gt;[4]&lt;/sup&gt; Andere spezialisierte Code-Modelle umfassen Devstral&lt;sup&gt;[2]&lt;/sup&gt; und Grok Code Fast.&lt;sup&gt;[11]&lt;/sup&gt; Das deutsche Bundesamt für Sicherheit in der Informationstechnik (BSI) sieht in der „Analyse und Härtung von Programmcode“ eine wesentliche Chance dieser Technologie.&lt;sup&gt;[8]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Bild-, Video- und Audiogeneratoren&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Diese Modelle operieren nicht primär mit Text, sondern sind auf die Erzeugung und Bearbeitung visueller oder auditiver Daten spezialisiert.&lt;sup&gt;[8]&lt;/sup&gt; Bekannte Beispiele sind Bildgeneratoren wie DALL-E 3 und Midjourney, Video-Generatoren wie OpenAI‘s Sora &lt;sup&gt;[15]&lt;/sup&gt; und Pika Labs sowie Stimm-Generatoren wie ElevenLabs. Ihre Anwendungsbereiche reichen von Marketing und Design bis hin zur Erstellung synthetischer Trainingsdaten.&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;1.3 Multimodale Modelle: Die nächste Evolutionsstufe&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Die jüngste Generation von KI-Modellen ist multimodal, was bedeutet, dass sie mehrere Arten von Informationen (Modalitäten) gleichzeitig verarbeiten können, wie z.B. Text, Bilder, Audio und Code.&lt;sup&gt;[1]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Modelle wie GPT-4o&lt;sup&gt;[3]&lt;/sup&gt;, Google Gemini &lt;sup&gt;[4]&lt;/sup&gt; und Alibaba Qwen 2.5 Omni&lt;sup&gt;[2]&lt;/sup&gt; können komplexe Anfragen bearbeiten, die verschiedene Datentypen kombinieren. Sie können beispielsweise ein Diagramm (Bild) analysieren, den darin enthaltenen Code (Text) extrahieren und eine mündliche Zusammenfassung (Audio) liefern. Diese Fähigkeit eröffnet neue Anwendungsfälle in der Datenanalyse, Barrierefreiheit und im kreativen Design.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;1.4 Open-Source vs. proprietäre Modelle: Ein fundamentaler Unterschied&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Die strategisch wichtigste Unterscheidung für Unternehmen ist die zwischen proprietären und Open-Source-Modellen.&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Proprietäre Modelle: Dies sind geschlossene („Closed Source“) Modelle, die von Unternehmen wie OpenAI, Anthropic und Google entwickelt und als kommerzieller Dienst (typischerweise über eine API) angeboten werden. Die Modellarchitektur und die Trainingsdaten sind Geschäftsgeheimnisse.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Open-Source-Modelle: Bei diesen Modellen sind die Modellgewichte und oft auch der Trainingscode öffentlich verfügbar.&lt;sup&gt;[2]&lt;/sup&gt; Prominente Beispiele sind die Llama-Modellfamilie von Meta und die Modelle von Mistral AI.&lt;sup&gt;[1]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;Diese Wahl stellt eine fundamentale Weichenstellung für die Daten-Governance:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Pfad A (Proprietär): Unternehmen, die eine proprietäre API nutzen, lagern das technische Betriebs- und Datenschutzrisiko an den Anbieter aus. Sie sind auf dessen vertragliche Zusicherungen (z.B. im Auftragsverarbeitungsvertrag), dessen Sicherheitsarchitektur und dessen Umgang mit Datentransfers in Drittstaaten angewiesen. Dies erfordert eine tiefgehende juristische Prüfung der Anbieterrichtlinien (siehe Kapitel 4).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Pfad B (Open-Source): Unternehmen, die ein Open-Source-Modell auf ihrer eigenen Infrastruktur betreiben (On-Premise oder in einer Private Cloud in der EU)&lt;sup&gt;[17]&lt;/sup&gt;, übernehmen das Risiko und die Kontrolle vollständig selbst. Der Vorteil ist die maximale Datenhoheit: Sensible Daten verlassen zu keinem Zeitpunkt die kontrollierte Umgebung des Unternehmens.&lt;sup&gt;[19] &lt;/sup&gt; Die Fragen nach Datentraining, Speicherort und Einsichtnahme durch Dritte werden trivial beantwortet („findet nicht statt“ oder „nur intern“). Der Nachteil sind die signifikant höheren Kosten und die technische Komplexität für Implementierung, Wartung und Feinabstimmung.&lt;sup&gt;[2]&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p&gt; &lt;/p&gt; &lt;h3 class=&quot;p4&quot;&gt;2 Anwendungsbereiche und praktische Einsatzszenarien&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Die kategorisierten Modelle ermöglichen eine breite Palette von Anwendungsfällen, deren Eignung von der jeweiligen Datensensitivität abhängt.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;2.1 Softwareentwicklung und IT-Betrieb&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Der IT-Sektor profitiert massiv von spezialisierten KI-Modellen.&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Automatisierte Code-Erstellung: KI-gestützte „Pair-Programmer“ wie GitHub Copilot&lt;sup&gt;[9]&lt;/sup&gt; beschleunigen die Softwareentwicklung erheblich, indem sie Code-Blöcke in Echtzeit vorschlagen und Routineaufgaben automatisieren.&lt;sup&gt;[20]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Debugging und Code-Analyse: Modelle mit tiefem logischem Verständnis (z.B. Claude 3.7 Sonnet, GPT 4.5) werden zur Fehlersuche in komplexen Systemen eingesetzt.&lt;sup&gt;[4] &lt;/sup&gt; Das BSI hebt die Fähigkeit zur „Analyse und Härtung von Programmcode“ als strategische Chance hervor.&lt;sup&gt;[8]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Generierung von Testfällen: Ein hoch-rentabler Anwendungsfall ist die automatisierte Erstellung von Software-Tests. Basierend auf realen Problemstellungen wurde ein 3-Schritte-Prozess entwickelt, der die Effizienz steigert&lt;sup&gt;[22]&lt;/sup&gt;:&lt;br&gt;&lt;br&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;1. Input (Prosa):&lt;/span&gt;&lt;span style=&quot;font-size: 0.875rem;&quot;&gt; Eine Anforderung in natürlicher Sprache (z.B. eine User Story) wird dem LLM übergeben.&lt;br&gt;&lt;/span&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;2. Output (BDD):&lt;/span&gt;&lt;span style=&quot;font-size: 0.875rem;&quot;&gt; Das Modell generiert daraus strukturierte Akzeptanzkriterien im BDD-Format (Behaviour-Driven Development), z.B. „Given-When-Then“.&lt;br&gt;&lt;/span&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;3. Output (Code):&lt;/span&gt;&lt;span style=&quot;font-size: 0.875rem;&quot;&gt; Das LLM transformiert die BDD-Fälle in ein lauffähiges Test-File (z.B. Cucumber) und generiert den fertigen Automatisierungscode (z.B. in JavaScript).&lt;/span&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;2.2 Texterzeugung und Unternehmenskommunikation&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Dies ist der klassische Anwendungsbereich von LLMs, der von internen Prozessen bis hin zum externen Marketing reicht.&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Marketing und Content-Erstellung: KI-Modelle generieren Marketingtexte, Blog-Beiträge, Social-Media-Updates und Werbeinhalte. Spezialisierte Tools wie Jasper oder Copy.ai nutzen diese Kernmodelle. Gekoppelt mit Bildgeneratoren wie DALL-E oder Midjourney&lt;sup&gt;[14]&lt;/sup&gt; können ganze Kampagnen erstellt werden.&lt;sup&gt;[2]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Interne Dokumentation und Wissensmanagement: Die Effizienz im Büroalltag wird durch die automatisierte Zusammenfassung von Besprechungsnotizen &lt;sup&gt;[10]&lt;/sup&gt;, den Entwurf von E-Mails&lt;sup&gt;[2]&lt;/sup&gt; und die Erstellung technischer Dokumentationen&lt;sup&gt;[26]&lt;/sup&gt; gesteigert.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Automatisierter Kundenservice: LLMs sind die treibende Kraft hinter fortschrittlichen Chatbots und Unterhaltungsagenten, die Kundenanfragen in natürlicher Sprache beantworten können.&lt;sup&gt;[2]&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;2.3 Strategische Analyse und Forschung&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Modelle mit großen Kontextfenstern und Echtzeit-Internetzugang ermöglichen neue Formen der strategischen Analyse.&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Domänenspezifische Dokumentenanalyse: Modelle wie Claude 2, die bis zu 100.000 Tokens (entspricht 100+ von Seiten) verarbeiten können, werden zur Analyse umfangreicher Fachdokumente eingesetzt.&lt;sup&gt;[26] &lt;/sup&gt; Anwendungsfälle umfassen die Prüfung juristischer Verträge oder die Interpretation medizinischer Studiendaten.&lt;sup&gt;[2]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Markt- und Trendforschung: Modelle mit integriertem Echtzeit-Webzugriff (z.B. Perplexity, Grok oder das neue Claude-Feature) können genutzt werden, um Live-Daten zu überwachen, Markt- und Wettbewerbstrends zu analysieren und Recherchen mit direkten Quellenangaben durchzuführen.&lt;sup&gt;[2]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;Die Vielfalt dieser Anwendungsfälle, von der Erstellung öffentlicher Marketingtexte bis zur Analyse streng vertraulicher Rechtsdokumente&lt;sup&gt;[2]&lt;/sup&gt; oder dem Debugging von Code, der personenbezogene Daten verarbeitet &lt;sup&gt;[4]&lt;/sup&gt;, macht deutlich, dass ein Unternehmen nicht ein KI-Modell wählen kann. Es muss eine gestaffelte KI-Strategie entwickelt werden, die auf der Datensensitivität des jeweiligen Anwendungsfalls basiert. Eine mögliche Architektur könnte wie folgt aussehen:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;Stufe 1 (Öffentliche Daten):&lt;/span&gt; &lt;/span&gt;Einsatz von Consumer-Tools für nicht-vertrauliche Aufgaben (z.B. allgemeine Recherche, Brainstorming für öffentliche Blogposts).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Stufe 2 (Vertrauliche/Proprietäre Daten):&lt;/span&gt;&lt;/span&gt; Zwingender Einsatz von Enterprise/API-Versionen mit Auftragsverarbeitungsvertrag (AVV) für interne Dokumente, E-Mails oder die Entwicklung von nicht-kritischem Code. &lt;sup&gt;[10]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Stufe 3 (Streng geheime/Personenbezogene Daten (PII/DSGVO)):&lt;/span&gt;&lt;/span&gt; Zwingender Einsatz von Diensten mit garantierter EU-Datenresidenz (z.B. Google Vertex AI in einer EU-Region&lt;sup&gt;[29]&lt;/sup&gt;) oder selbst-gehosteten Open-Source-Modellen.&lt;sup&gt;[17]&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;Die Beantwortung von Fragen nach Anwendungsbereiche definiert somit direkt die Compliance-Anforderungen für die Beantwortung der Fragen über Datenschutz.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p4&quot;&gt;3 Chancen und Risiken im Überblick&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Der Einsatz von KI-Modellen birgt ein duales Potenzial von erheblichen Vorteilen und ebenso signifikanten Risiken.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;3.1 Vorteile: Produktivität, Innovation und Skalierbarkeit&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Die primären Vorteile des KI-Einsatzes sind operativer und strategischer Natur.&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Produktivitätssteigerung und Zeitersparnis: Die Automatisierung von Routineaufgaben, sei es in der Softwareentwicklung&lt;sup&gt;[20] &lt;/sup&gt;oder bei der Testerstellung&lt;sup&gt;[22]&lt;/sup&gt;, ist der größte Hebel. Entwickler können sich auf komplexe Probleme konzentrieren, anstatt Standardcode zu schreiben. Studien zeigen eine Reduzierung der Testerstellungszeit um 60-80%.&lt;sup&gt;[31]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Qualitätsverbesserung und Fehlervermeidung: Im Software-Engineering helfen LLMs, die Fehlerquote im Code zu senken&lt;sup&gt;[20]&lt;/sup&gt; und eine konsistente Code-Qualität sicherzustellen.&lt;sup&gt;[22]&lt;/sup&gt; KI-gestützte Testtools sind in der Lage, Randfälle und Sicherheitslücken zu identifizieren, die menschliche Tester oft übersehen.&lt;sup&gt;[31]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Wissensdemokratisierung und Skalierbarkeit: Durch die Kombination von Low-Code-Plattformen mit generativer KI können auch Mitarbeiter ohne tiefgehende Programmierkenntnisse („Citizen Developer“) funktionale Anwendungen erstellen. Dies entlastet die zentralen IT-Abteilungen und beschleunigt die Digitalisierung im gesamten Unternehmen.&lt;sup&gt;[32]&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;3.2 Nachteile und inhärente Risiken&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Diesen Vorteilen stehen technische, operative und juristische Risiken gegenüber.&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Technische Limitierungen: Die Modelle sind nicht fehlerfrei.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Halluzinationen: Ein bekanntes Problem ist das „Halluzinieren“ – das Generieren von plausibel klingenden, aber sachlich falschen oder unsinnigen Informationen.&lt;sup&gt;[12]&lt;/sup&gt; Dies stellt ein kritisches Risiko dar, wenn die Modelle für Analyse- oder Entscheidungsfindungsaufgaben eingesetzt werden.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Latenz und Kosten: Die leistungsfähigsten Modelle (z.B. GPT-4.5) sind oft langsamer (höhere Latenz) und teurer im Betrieb, was ihren Einsatz in Echtzeitanwendungen einschränken kann.&lt;sup&gt;[24]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Sicherheitsrisiken (Operativ und Implementierung): Das BSI warnt vor spezifischen Gefahren während des gesamten Lebenszyklus der Modelle.&lt;sup&gt;[8]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Prompt Injection: Angreifer können die Modelle durch manipulierte Eingaben (Prompts) dazu bringen, ihre internen Schutzmaßnahmen zu umgehen, bösartige Inhalte zu generieren oder sensible Informationen preiszugeben.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Risiko der Code-Analyse: Einer der größten Vorteile – die Fähigkeit, Code auf Fehler zu analysieren&lt;sup&gt;[8]&lt;/sup&gt; – birgt gleichzeitig eines der größten Risiken.&lt;/li&gt; &lt;/ul&gt; &lt;p&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Dieser Widerspruch, das „Analyse-Paradoxon“, stellt ein neues, kritisches Einfallstor für Daten-Exfiltration dar. Die Kausalkette dieses Risikos ist wie folgt:&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p2&quot;&gt;Ein Entwickler möchte eine proprietäre Anwendung auf Schwachstellen prüfen und übergibt den vollständigen Quellcode an einen KI-Dienst (z.B. die OpenAI-API) mit dem Prompt: „Analysiere diesen Code auf Sicherheitslücken.“&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;In diesem Moment wird das wertvollste geistige Eigentum (IP) des Unternehmens zusammen mit einer potenziellen Liste seiner Schwachstellen an einen Drittanbieter (z.B. OpenAI oder Anthropic) übertragen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Die Datenübertragung erfolgt in die USA, wo die Speicherung stattfindet.&lt;sup&gt;[33]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Selbst, wenn die Enterprise-API-Richtlinie ein Training mit diesen Daten verbietet (was der Fall ist), werden die Daten zur Missbrauchsüberwachung (Abuse Monitoring) standardmäßig für 30 Tage gespeichert.&lt;sup&gt;[35]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Während dieser 30 Tage sind die Daten – der Quellcode – potenziell der Einsichtnahme durch Mitarbeiter des Anbieters und dem Zugriff durch US-Behörden (im Rahmen des CLOUD Act) ausgesetzt.&lt;sup&gt;[37]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p1&quot;&gt;Dieser Vorgang macht aus einem gut gemeinten Sicherheits-Audit einen potenziell katastrophalen IP-Diebstahl oder Sicherheitsvorfall. Das „Analyse-Paradoxon“ zeigt zwingend, dass sicherheitskritische Anwendungsfälle (wie die Analyse von proprietärem Code) ausschließlich auf einer Stufe-3-Architektur (On-Premise Open-Source)&lt;sup&gt;[17]&lt;/sup&gt; stattfinden dürfen.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p4&quot;&gt;4 Kritische Analyse der Daten-Governance&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Hier beantworten wir die kritischen Datenschutzfragen des Nutzers, analysieren die Richtlinien der Hauptanbieter (OpenAI, Anthropic, Google, Meta) und ziehen die entscheidende Trennlinie zwischen Consumer- und Enterprise-Diensten.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;4.1 Die rote Linie: Warum Consumer-Tools und Enterprise-APIs rechtlich völlig unterschiedlich zu bewerten sind&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Sobald ein Unternehmen im DACH-Raum eine KI zur Verarbeitung von Daten einsetzt, die sich auf Mitarbeiter oder Kunden beziehen (personenbezogene Daten), unterliegt es der DSGVO. In diesem Szenario agiert das Unternehmen als „Verantwortlicher“ (Controller) und der KI-Anbieter (z.B. OpenAI) als „Auftragsverarbeiter“ (Processor).&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Nach Artikel&lt;sup&gt;[28]&lt;/sup&gt; der DSGVO ist für diese Konstellation der Abschluss eines Auftragsverarbeitungsvertrags (AVV; oder Data Processing Addendum, DPA) zwingend erforderlich.&lt;sup&gt;[38]&lt;/sup&gt; Dieser Vertrag regelt die Rechte und Pflichten beider Seiten und stellt sicher, dass der Auftragsverarbeiter die Daten nur gemäß den Weisungen des Verantwortlichen verarbeitet.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Hier verläuft die „rote Linie“: KI-Anbieter stellen einen solchen AVV ausschließlich für ihre kostenpflichtigen Business-, Team- oder Enterprise-Angebote zur Verfügung.&lt;sup&gt;[38]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die Implikation ist ein klares juristisches Urteil: Der Einsatz von frei verfügbaren Consumer-Diensten (wie ChatGPT Free/Plus, Standard Gemini oder Claude Free/Pro) für jegliche Unternehmensdaten (insbesondere personenbezogene Daten, aber auch Geschäftsgeheimnisse) ist ein direkter Verstoß gegen die DSGVO. Es fehlt die erforderliche Rechtsgrundlage für die Datenverarbeitung.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die folgende Analyse der Consumer-Tools dient daher primär der Aufklärung über die Risiken, die durch die „Schatten-IT“-Nutzung dieser Tools durch Mitarbeiter entstehen. Die Analyse der Enterprise/API-Produkte bewertet die verbleibenden Risiken, die trotz eines gültigen AVV bestehen.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;4.2 Fallstudie: OpenAI (ChatGPT vs. API)&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Training &lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Consumer (ChatGPT Free/Plus/Pro, Sora): JA. OpenAI verwendet die Inhalte (Prompts und Antworten) von Nutzern dieser Dienste standardmäßig, um seine Modelle zu trainieren und zu verbessern.&lt;sup&gt;[41]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Opt-Out: Nutzer können dieser Verwendung über ein Datenschutzportal widersprechen („do not train on my content“).&lt;sup&gt;[16]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Ausnahme: Sogenannte „Temporary Chats“ (Provisorische Chats) werden nicht im Verlauf gespeichert und nicht für das Training verwendet.&lt;sup&gt;[39]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Enterprise (API, ChatGPT Enterprise/Team/Edu): NEIN. OpenAI gibt die vertragliche Zusage, dass Kundendaten, die über die API oder die Enterprise-Dienste übermittelt werden, nicht zur Verbesserung oder zum Training der Modelle verwendet werden. &lt;sup&gt;[35]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Datensicherheit &amp;amp; Einsicht&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Consumer: JA. Prompts und Konversationen können von autorisierten menschlichen Prüfern bei OpenAI eingesehen werden&lt;sup&gt;[44]&lt;/sup&gt;, um die Modellantworten zu validieren oder Feedback zu verarbeiten.&lt;sup&gt;[42]&lt;/sup&gt; Bei Enterprise-Konten (Team/Business) können zudem die Administratoren des eigenen Unternehmens die Chatverläufe ihrer Mitarbeiter einsehen.&lt;sup&gt;[16]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Enterprise (API): BEDINGT JA. Die Daten werden nicht von Menschen zur Modellverbesserung eingesehen. Sie werden jedoch standardmäßig für bis zu 30 Tage aufbewahrt und können automatisiert sowie potenziell menschlich zur „Missbrauchsüberwachung“ (Abuse Monitoring) überprüft werden.&lt;sup&gt;[35]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;ZDR-Option: Für qualifizierte Enterprise-Kunden bietet OpenAI eine „Zero Data Retention“ (ZDR)-Option an. Wenn diese aktiviert ist, werden die Daten nicht mehr für das Abuse Monitoring gespeichert.&lt;sup&gt;[35]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Speicherung&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Wo: Die Speicherung der Daten erfolgt primär in den USA.&lt;sup&gt;[48]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Das „OpenAI Ireland“-Problem (Schrems II-Risiko): Viele EU-Unternehmen schließen ihren AVV mit der OpenAI Ireland Ltd. in der Annahme, sich damit sicher im Geltungsbereich der DSGVO zu bewegen. Die Vertragsdokumente (DPA) führen jedoch die US-Muttergesellschaft (OpenAI, LLC) als Unterauftragsverarbeiter (Subprocessor) auf.&lt;sup&gt;[38]&lt;/sup&gt; Dies legitimiert rechtlich einen Datentransfer in die USA. Dort unterliegen die Daten den US-Überwachungsgesetzen (z.B. CLOUD Act), was genau den Sachverhalt darstellt, der im Schrems II-Urteil des Europäischen Gerichtshofs (EuGH) als hochproblematisch eingestuft wurde.&lt;sup&gt;[50]&lt;/sup&gt; Juristische Experten, wie Steiger Legal, bewerten die Rechtslage für EU-Kunden als „unklar“. &lt;sup&gt;[33]&lt;/sup&gt; Im juristischen Kontext bedeutet „unklar“ ein nicht kalkulierbares Risiko, dass die Nutzung durch eine Datenschutzbehörde als unzulässig eingestuft wird.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;4.3 Fallstudie: Anthropic (Claude Consumer vs. API)&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Training &lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Consumer (Claude Free/Pro/Max): JA. Mit einer signifikanten Richtlinienänderung im September 2025 werden Nutzerdaten dieser Dienste nun standardmäßig für das Modelltraining verwendet.&lt;sup&gt;[52]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Das aggressive „Opt-Out“ und die 5-Jahres-Frist: Das System ist als „Opt-Out“ konzipiert. Der Zustimmungsdialog ist jedoch irreführend als „Opt-In“ formuliert („You can help improve Claude“), aber standardmäßig vorausgewählt.&lt;sup&gt;[53]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Die Konsequenz: Stimmt der Nutzer zu (auch versehentlich), wird die Aufbewahrungsfrist seiner Daten von den üblichen 30 Tagen auf fünf Jahre verlängert.&lt;sup&gt;[53]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Der Haken: Widerspricht der Nutzer dem Training (Opt-Out), verliert er den Zugriff auf Personalisierungs- und Memory-Funktionen.&lt;sup&gt;[56]&lt;/sup&gt; Diese Kopplung von Dienstleistung an die Einwilligung zur Datenverarbeitung stellt die „Freiwilligkeit“ der Einwilligung – eine Kernforderung der DSGVO – stark in Frage.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Enterprise (API, Claude for Work/Team): NEIN. Diese Dienste sind von der Richtlinienänderung explizit nicht betroffen.&lt;sup&gt;[53]&lt;/sup&gt; Anthropic garantiert vertraglich, API-Daten nicht für das Training zu verwenden.&lt;sup&gt;[57]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Datensicherheit &amp;amp; Einsicht&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Consumer: JA. Konversationen, die für eine Sicherheitsüberprüfung markiert werden („flagged for safety review“), werden von Anthropic-Mitarbeitern eingesehen und können zum Training interner Sicherheitsmodelle verwendet werden.&lt;sup&gt;[58]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Enterprise (API): NEIN. Es sei denn, der Nutzer gibt proaktiv Feedback (z.B. über die Daumen-hoch/runter-Funktion). In diesem Fall kann die Konversation zur Qualitätskontrolle verwendet werden.&lt;sup&gt;[57]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Speicherung&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Wo: Die Datenspeicherung („Data storage“) erfolgt ausschließlich in den USA.&lt;sup&gt;[34]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Der „Multi-Region-Processing“-Haken: Um die Latenz (Geschwindigkeit) für globale Kunden zu verbessern, hat Anthropic im August/September 2025 die Verarbeitung („processing“) der Daten auf Rechenzentren in mehreren Regionen, einschließlich Europa und Asien, ausgeweitet.&lt;sup&gt;[59]&lt;/sup&gt; Dies ändert jedoch nichts am Kernproblem für EU-Kunden: Die Daten werden zwar möglicherweise kurz in der EU verarbeitet, aber anschließend permanent in den USA gespeichert.&lt;sup&gt;[34]&lt;/sup&gt; Dies stellt weiterhin einen transatlantischen Datentransfer dar, der unter Schrems II als problematisch gilt.&lt;sup&gt;[37]&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;4.4 Fallstudie: Google (Gemini Apps vs. Vertex AI)&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Training&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Consumer (Gemini Apps): JA. Standardmäßig werden die Konversationen und Daten für das Training der KI-Modelle verwendet.&lt;sup&gt;[44]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Der „Privacy vs. Functionality“-Kompromiss: Um das Training zu stoppen, muss der Nutzer die „Gemini Apps-Aktivität“ in seinem Google-Konto deaktivieren.&lt;sup&gt;[63]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Der Haken: Das Deaktivieren dieser Einstellung deaktiviert gleichzeitig alle leistungsstarken Erweiterungen (Extensions).&lt;sup&gt;[44] &lt;/sup&gt;Die Integration mit Gmail, Google Docs und Google Drive funktioniert dann nicht mehr.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Implikation: Google zwingt den Nutzer, wie Anthropic, zu einer Wahl zwischen voller Funktionalität und Datenschutz. Dies ist eine problematische Form der „erzwungenen“ Einwilligung im Sinne der DSGVO.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Enterprise (Vertex AI / Google Cloud): NEIN. Als Teil der Google Cloud Platform bietet Vertex AI eine starke vertragliche „Training Restriction“.&lt;sup&gt;[66]&lt;/sup&gt; Weder Prompts noch Kundendaten werden zum Trainieren der Modelle verwendet.&lt;sup&gt;[67]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Datensicherheit &amp;amp; Einsicht&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Consumer: JA. Prompts werden von menschlichen Prüfern („human reviewers“) bei Google eingesehen, um die Dienste zu verbessern.&lt;sup&gt;[44]&lt;/sup&gt; Google warnt Nutzer explizit davor, vertrauliche Informationen einzugeben.&lt;sup&gt;[62]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Das 3-Jahres-Problem: Von Menschen überprüfte Konversationen werden für bis zu drei Jahre gespeichert, selbst wenn der Nutzer seine Gemini-Aktivität löscht. &lt;sup&gt;[69]&lt;/sup&gt; Google gibt an, diese Daten würden anonymisiert&lt;sup&gt;[70]&lt;/sup&gt;, aber die lange Aufbewahrungsfrist stellt ein massives Compliance-Problem dar und widerspricht potenziell dem „Recht auf Vergessenwerden“ (Art. 17 DSGVO).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Enterprise (Vertex AI): NEIN. Prompts und Antworten sind nicht für menschliche Prüfer zugänglich&lt;sup&gt;[62]&lt;/sup&gt;, außer zur Missbrauchsüberwachung oder wenn der Kunde explizit Feedback gibt.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Speicherung&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p2&quot;&gt;Consumer: Global in Google-Rechenzentren, einschließlich der USA.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p2&quot;&gt;Enterprise (Vertex AI): KLARE KONTROLLE. Dies ist der entscheidende Vorteil der Google-Plattform für EU-Kunden. Als Google Cloud-Dienst bietet Vertex AI klare Data Residency Controls.&lt;sup&gt;[30]&lt;/sup&gt; Ein Unternehmen kann vertraglich und technisch festlegen, dass seine Daten die EU nicht verlassen.&lt;sup&gt;[29]&lt;/sup&gt; Diese „Data Residency“-Garantie löst das Schrems II-Problem&lt;sup&gt;[50]&lt;/sup&gt; effektiver als die „US-Subprozessor“-Modelle von OpenAI und Anthropic.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;4.5 Fallstudie: Meta (Llama und Meta AI)&lt;br&gt;&lt;strong&gt;&lt;em&gt;&lt;br&gt;Llama (Open-Source-Modell)&lt;/em&gt;&lt;/strong&gt;&lt;/h4&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;Datenschutz: Vollständig vom Hoster abhängig. Wenn ein deutsches Unternehmen Llama 3 auf seinen eigenen Servern in Frankfurt betreibt&lt;sup&gt;[17]&lt;/sup&gt;, werden Daten nicht für externes Training verwendet, sind intern gespeichert und werden nur von internen Mitarbeitern eingesehen. Selbst-gehostete Open-Source-Modelle bieten maximale Datenhoheit.&lt;sup&gt;[19]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Acceptable Use Policy: Metas Richtlinie für Llama&lt;sup&gt;[72]&lt;/sup&gt; ist keine Datenschutzrichtlinie. Sie regelt lediglich, wofür das Modell nicht verwendet werden darf (z.B. illegale Aktivitäten, Gewalt, Betrug, Ausbeutung von Kindern).&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;em&gt;&lt;strong&gt;Meta AI (Consumer-Produkt in Facebook, Instagram etc.)&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;Training: JA. Meta trainiert seine KI-Modelle explizit mit den öffentlichen Nutzerdaten seiner Plattformen, einschließlich öffentlicher Posts, Fotos und Bildunterschriften.&lt;sup&gt;[74]&lt;/sup&gt; Private Nachrichten werden (laut Meta) nicht verwendet.&lt;sup&gt;[75]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Opt-Out: Es gibt keinen einfachen Opt-Out-Button.&lt;sup&gt;[75]&lt;/sup&gt; Nutzer (insbesondere in der EU) müssen ein komplexes Formular ausfüllen und detailliert begründen, warum die Verarbeitung sie in ihren Rechten beeinträchtigt. Meta behält sich das Recht vor, diesen Antrag abzulehnen.&lt;sup&gt;[77]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Implikation: Dies ist die datenschutzfeindlichste Implementierung unter den großen Anbietern und für jegliche Unternehmensnutzung völlig unbrauchbar.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p4&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p4&quot;&gt;&lt;strong&gt;5 Synthese und vergleichende Übersicht&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p3&quot;&gt;Jetzt können wir die folgenden Fragen beantworten.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;5.1 Werden meine Daten zur weiteren Entwicklung verwendet? &lt;/strong&gt;&lt;/h4&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;Bei Consumer-Produkten (ChatGPT Plus, Claude Pro, Gemini Apps): Ja, standardmäßig. Alle Anbieter nutzen diese Daten für das Training. OpenAI und Google bieten ein Opt-Out an. Das Opt-Out bei Anthropic und Google ist jedoch mit erheblichen Nachteilen verbunden (Funktionsverlust oder 5-Jahres-Speicherung).&lt;sup&gt;[44]&lt;/sup&gt; Bei Meta (Facebook/Instagram) ist ein Opt-Out kaum praktikabel. &lt;sup&gt;[77]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Bei Enterprise/API-Produkten (OpenAI API, Vertex AI, Claude API): Nein. Alle drei großen Anbieter (OpenAI, Anthropic, Google) garantieren in ihren Auftragsverarbeitungsverträgen (AVV), dass Kundendaten aus den API-Diensten nicht für das Training ihrer Modelle verwendet werden.&lt;sup&gt;[35]&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;5.2 Wie sicher sind meine Daten?&lt;/h4&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;Bei Consumer-Produkten: Geringe Sicherheit. Die Daten sind der Einsichtnahme durch menschliche Prüfer des Anbieters ausgesetzt&lt;sup&gt;[44]&lt;/sup&gt; und werden für potenziell sehr lange Zeiträume gespeichert (bis zu 3 Jahre bei Google&lt;sup&gt;[69]&lt;/sup&gt;, 5 Jahre bei Anthropic&lt;sup&gt;[54]&lt;/sup&gt;).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Bei Enterprise/API-Produkten: Hohe Sicherheit. Die Daten sind durch Branchenstandards (Verschlüsselung, Zugriffskontrollen) geschützt. Das Restrisiko besteht in der temporären Speicherung (meist 30 Tage) für „Abuse Monitoring“&lt;sup&gt;[35]&lt;/sup&gt; und dem potenziellen Zugriff durch US-Behörden (Schrems II-Risiko). Dienste mit „Zero Data Retention“ (ZDR)&lt;sup&gt;[35]&lt;/sup&gt; oder garantierter EU-Residenz&lt;sup&gt;[29]&lt;/sup&gt; bieten die höchste Sicherheit.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;5.3 Wo werden diese gespeichert?&lt;/h4&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;OpenAI &amp;amp; Anthropic: Primär in den USA.&lt;sup&gt;[33] &lt;/sup&gt; Selbst wenn ein EU-Vertragspartner (OpenAI Ireland)&lt;sup&gt;[38]&lt;/sup&gt; oder EU-Verarbeitung (Anthropic)&lt;sup&gt;[59]&lt;/sup&gt; involviert ist, bleiben die USA der Speicherort oder ein Unterauftragsverarbeiter, was ein Datentransferrisiko (Schrems II) darstellt.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Google (Vertex AI): Kontrollierbar. Bietet als einziger der großen US-Anbieter eine klare Option zur Speicherung und Verarbeitung ausschließlich innerhalb der EU. &lt;sup&gt;[29]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Meta (Llama): Beim Self-Hosting ist der Speicherort die eigene Infrastruktur (z.B. Deutschland).&lt;sup&gt;[17]&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;5.4 Wer kann meine Prompts sehen?&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Es gibt drei Gruppen, die Prompts einsehen können:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;Anbieter (Menschliche Prüfer): Bei allen Consumer-Produkten.&lt;sup&gt;[44]&lt;/sup&gt; Bei Enterprise/API-Produkten nur für eng definierte Zwecke wie Missbrauchsbekämpfung&lt;sup&gt;[35]&lt;/sup&gt; oder wenn der Nutzer aktiv Feedback gibt.&lt;sup&gt;[57]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Eigene Administratoren: Bei Enterprise-Team-Lizenzen (ChatGPT Team, Claude for Work, Google Workspace) können die Administratoren des eigenen Unternehmens die Konversationen der Mitarbeiter einsehen.&lt;sup&gt;[16]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Öffentlichkeit: Bei der Nutzung von Open-Source-Tools, die von Dritten gehostet werden, oder bei unsicheren Implementierungen.&lt;/li&gt; &lt;/ul&gt; &lt;p&gt; &lt;/p&gt; &lt;h4&gt;5.5 Vergleichende Matrix der Daten-governance: Consumer- vs. Enterprise-Modelle (Stand 2025)&lt;/h4&gt; &lt;p&gt;Die folgende Tabelle fasst die kritischen Unterschiede zusammen und visualisiert die „rote Linie“ (siehe 4.1) zwischen Consumer- und Enterprise-Diensten.&lt;/p&gt; &lt;table class=&quot;t1&quot; style=&quot;border-collapse: collapse; border-color: #000000; border-style: solid; width: 100%;&quot; border=&quot;1&quot; cellspacing=&quot;0&quot; cellpadding=&quot;0&quot;&gt; &lt;tbody&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 5.82011%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Anbieter&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 9.34744%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Produkt (Consumer)&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.0229%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Produkt (Enterprise/API)&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 12.2575%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Standard -Training (Consumer)?&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.4638%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Standard -Training (Enterprise)?&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 14.5503%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Datenspeicherung (Ort)&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 14.903%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Aufbewahrungsfrist (Consumer)&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.9048%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Menschliche Einsicht (Consumer)?&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 8.64198%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;AVV (DPA) verfügbar?&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 5.82011%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;OpenAI&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 9.34744%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;ChatGPT Free/Plus/Pro&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.0229%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;API, ChatGPT Enterprise&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 12.2575%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Ja (Opt-Out möglich)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.4638%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Nein&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 14.5503%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;USA (mit EU-Subprozessor- Thematik)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 14.903%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;30 Tage (nach&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Löschung&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.9048%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Ja&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 8.64198%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Nur&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Enterprise&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 5.82011%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Anthropic&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 9.34744%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Claude Free/Pro/Max&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.0229%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;API, Claude for Work&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 12.2575%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Ja (Opt-Out erzwingt 5-Jahres -Frist)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.4638%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Nein&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 14.5503%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;USA&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 14.903%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;5 Jahre (bei Training) / 30 Tage (ohne&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Training)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.9048%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Ja&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;(für Safety)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 8.64198%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Nur&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Enterprise&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 5.82011%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Google&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 9.34744%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Gemini Apps&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.0229%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Vertex AI&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 12.2575%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Ja (Opt-Out deaktiviert Funktionen&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.4638%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Nein&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 14.5503%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;EU-&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Residenz möglich&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 14.903%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;3 Jahre (für überprüfte Chats&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.9048%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Ja&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 8.64198%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Nur&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Enterprise&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 5.82011%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Meta&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 9.34744%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Meta AI (in Apps)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.0229%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Llama (Self-&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Hosted)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 12.2575%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Ja (Opt-Out kaum&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;möglich)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.4638%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Nein&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;(abhängig vom&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Hoster)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 14.5503%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Global / USA&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 14.903%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Unbegrenzt&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 11.9048%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Ja&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; style=&quot;width: 8.64198%;&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Nein / N/A&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;/tbody&gt; &lt;/table&gt; &lt;p&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;6 Abschließende Empfehlungen für den datenschutzkonformen Einsatz&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Basierend auf der vorangegangenen Analyse ergeben sich klare Handlungsempfehlungen für Unternehmen im DACH-Raum, die KI-Modelle datenschutzkonform einsetzen wollen.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p2&quot;&gt;&lt;strong&gt;6.1 Empfehlung 1: Verbot von Consumer-Tools für Unternehmenszwecke&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Die Analyse in Kapitel 4 zeigt unmissverständlich: Die Nutzung von Consumer-Produkten (wie ChatGPT Plus, Claude Pro, Gemini Apps) für jegliche Verarbeitung von Unternehmensdaten (Code, interne Memos, Kundendaten) ist ein klarer Verstoß gegen die DSGVO.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Die Gründe sind:&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p4&quot;&gt;Es ist kein Auftragsverarbeitungsvertrag (AVV) verfügbar.&lt;sup&gt;[38]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Die Daten werden standardmäßig für das Modelltraining des Anbieters verwendet.&lt;sup&gt;[41]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Die Daten werden von menschlichen Prüfern des Anbieters eingesehen.&lt;sup&gt;[44]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Es findet eine unkontrollierte Datenübermittlung in die USA statt.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p2&quot;&gt;Unternehmen müssen klare interne Nutzungsrichtlinien erlassen, die den Einsatz dieser „Schatten-IT“ verbieten, und dies technisch (z.B. durch Sperrung der Endpunkte) durchsetzen.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p2&quot;&gt;6.2 Empfehlung 2: Zwingender Abschluss eines Auftragsverarbeitungsvertrags (AVV)&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Für jede Nutzung von externen KI-Diensten (auch Enterprise/API) zur Verarbeitung von Daten, die potenziell personenbezogen sind, ist ein AVV (DPA) nach Art. 28 DSGVO zwingend erforderlich.&lt;sup&gt;[38]&lt;/sup&gt; Dieser Vertrag stellt sicher, dass der Anbieter die Daten nicht für eigene Zwecke (wie Training) verwendet.&lt;sup&gt;[35]&lt;/sup&gt; Ohne gültigen AVV ist der Einsatz illegal.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p2&quot;&gt;6.3 Empfehlung 3: Bewertung des transatlantischen Datentransferrisikos (Schrems II)&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Das größte verbleibende Risiko trotz eines AVV ist der Datentransfer in die USA. Seit dem „Schrems II“-Urteil des EuGH und dem Ende des „Privacy Shield“-Abkommens&lt;sup&gt;[50]&lt;/sup&gt; sind Datentransfers in die USA, wo Daten dem Zugriff von US-Behörden unterliegen, rechtlich hoch problematisch.&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Das Problem: Sowohl OpenAI (über US-Subprozessoren&lt;sup&gt;[33]&lt;/sup&gt;) als auch Anthropic (durch US-Speicherung&lt;sup&gt;[34]&lt;/sup&gt;) bergen dieses Risiko.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Die sicherste proprietäre Lösung: Die Wahl eines Anbieters, der eine vertraglich und technisch garantierte Datenresidenz innerhalb der EU anbietet. Aktuell bietet dies unter den großen US-Anbietern am klarsten Google Cloud mit Vertex AI.&lt;sup&gt;[29]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Die souveränste Lösung (Open-Source): Das Self-Hosting von leistungsfähigen Open-Source-Modellen (z.B. Llama, Mistral) auf eigener Infrastruktur (On-Premise) oder in einer europäischen Private Cloud.&lt;sup&gt;[17]&lt;/sup&gt; Dies eliminiert das Drittanbieter-Datenschutzrisiko vollständig, ist aber mit höheren technischen Kosten verbunden.&lt;/li&gt; &lt;/ul&gt; &lt;p&gt; &lt;/p&gt; &lt;h4 class=&quot;p2&quot;&gt;6.4 Technische und Organisatorische Maßnahmen (TOMs)&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Unabhängig vom gewählten Modell müssen Unternehmen flankierende technische und organisatorische Maßnahmen (TOMs) ergreifen. Dazu gehört die verbindliche Schulung der Mitarbeiter (insbesondere zur „Prompt-Hygiene“), die Implementierung von Anonymisierungs- und Pseudonymisierungs-Gateways, die sensible Daten (wie Namen oder IDs) vor der Übergabe an eine API filtern &lt;sup&gt;[78]&lt;/sup&gt;, und die Durchsetzung strenger interner Zugriffskontrollen.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p2&quot;&gt;6.5 Zusammenfassende Bewertung&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Die Wahl des richtigen KI-Modells im Jahr 2025 ist eine Risikoabwägung. Für unkritische Aufgaben, die keine sensiblen Daten oder Geschäftsgeheimnisse beinhalten, bieten die Enterprise-APIs von OpenAI und Anthropic oft die höchste Leistung.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Sobald jedoch personenbezogene Daten (DSGVO) oder wertvolles geistiges Eigentum (z.B. Quellcode, F&amp;amp;E-Daten) verarbeitet werden sollen, verschiebt sich die Priorität von reiner Leistung zu Compliance. In diesem Szenario sind juristisch nur Lösungen vertretbar, die eine garantierte EU-Datenresidenz bieten (wie Google Vertex AI&lt;sup&gt;[29]&lt;/sup&gt;) oder die das Datenschutzrisiko durch Self-Hosting (Open-Source&lt;sup&gt;[17]&lt;/sup&gt;) vollständig eliminieren.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Emre-2.png&quot; alt=&quot;&quot; width=&quot;400&quot; height=&quot;400&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[1] Die größten Sprachmodelle (LLMs) - Moin AI, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.moin.ai/chatbot-lexikon/grosse-sprachmodelle-llms&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.moin.ai/chatbot-lexikon/grosse-sprachmodelle-llms&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[2] Which Generative AI is the Best in 2025? GPT-4, Gemini, Claude AI, LLaMA, and More Compared | Pulsebay, Zugriff am November 3, 2025, &lt;a href=&quot;https://pulsebay.co.nz/post/which-generative-ai-is-the-best-a-deep-dive-into-openai-gemini-claude-ai-meta-and-more/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://pulsebay.co.nz/post/which-generative-ai-is-the-best-a-deep-dive-into-openai-gemini-claude-ai-meta-and-more/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[3] KI-Modelle 2025 wählen: OpenAI vs. Anthropic vs. Google – Ein praktischer Leitfaden | Fanktank Blog, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.fanktank.ch/de/blog/choosing-ai-models-openai-anthropic-google-2025&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.fanktank.ch/de/blog/choosing-ai-models-openai-anthropic-google-2025&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[4] Which AI model should I use with GitHub Copilot?, Zugriff am November 3, 2025, &lt;a href=&quot;https://github.blog/ai-and-ml/github-copilot/which-ai-model-should-i-use-with-github-copilot/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://github.blog/ai-and-ml/github-copilot/which-ai-model-should-i-use-with-github-copilot/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[5] Comparing GPT, Claude, Llama, and Mistral: Which Large Language Model (LLM) is Right for Your Needs? | Knowledge | Epista, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.epista.com/knowledge/break-down-four-of-the-biggest-players-in-ai-gpt-claude-llama-and-mistral&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.epista.com/knowledge/break-down-four-of-the-biggest-players-in-ai-gpt-claude-llama-and-mistral&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[6] LLM Models: OpenAI ChatGPT, Meta LLaMA, Anthropic Claude, Google Gemini, Mistral AI, and xAI Grok - Mehmet Ozkaya, Zugriff am November 3, 2025, &lt;a href=&quot;https://mehmetozkaya.medium.com/llm-models-openai-chatgpt-meta-llama-anthropic-claude-google-gemini-mistral-ai-and-xai-grok-bd35779704c2&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://mehmetozkaya.medium.com/llm-models-openai-chatgpt-meta-llama-anthropic-claude-google-gemini-mistral-ai-and-xai-grok-bd35779704c2&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[7] Popular LLM Models: GPT, Claude, Llama, and Others Compared | by Rizqi Mulki | Medium, Zugriff am November 3, 2025, &lt;a href=&quot;https://rizqimulki.com/popular-llm-models-gpt-claude-llama-and-others-compared-eaed7c5da1b3&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://rizqimulki.com/popular-llm-models-gpt-claude-llama-and-others-compared-eaed7c5da1b3&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[8] Generative KI-Modelle - BSI, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Generative_KI-Modelle.pdf?__blob=publicationFile&amp;amp;v=7&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Generative_KI-Modelle.pdf?__blob=publicationFile&amp;amp;v=7&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[9] Was ist GitHub Copilot? Ein Expertenleitfaden für 2025 - eesel AI, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.eesel.ai/de/blog/github-copilot&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.eesel.ai/de/blog/github-copilot&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[10] Die 45 besten KI Tools im Jahr 2025 (in der Praxis getestet) - Synthesia, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.synthesia.io/de/post/ki-tools&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.synthesia.io/de/post/ki-tools&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[11] Supported AI models in GitHub Copilot, Zugriff am November 3, 2025, &lt;a href=&quot;https://docs.github.com/en/copilot/reference/ai-models/supported-models&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://docs.github.com/en/copilot/reference/ai-models/supported-models&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[12] AI model comparison - GitHub Docs, Zugriff am November 3, 2025, &lt;a href=&quot;https://docs.github.com/en/copilot/reference/ai-models/model-comparison&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://docs.github.com/en/copilot/reference/ai-models/model-comparison&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[13] LLM vs Generative KI: wie man den Unterschied versteht - Elinext, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.elinext.de/blog/llm-vs-generative-ai/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.elinext.de/blog/llm-vs-generative-ai/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[14] Midjourney vs. Stable Diffusion vs. DALL-E 2: Welcher Bildgenerator ist der richtige für dich? (2) - Michael Bickel, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.michael-bickel.de/2025/01/midjourney-vs-stable-diffusion-vs-dall-e-2-welcher-bildgenerator-ist-der-richtige-fuer-dich-2/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.michael-bickel.de/2025/01/midjourney-vs-stable-diffusion-vs-dall-e-2-welcher-bildgenerator-ist-der-richtige-fuer-dich-2/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[15] 10 Best AI models you should definitely know about (and why they matter), Zugriff am November 3, 2025, &lt;a href=&quot;https://pieces.app/blog/best-ai-models&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://pieces.app/blog/best-ai-models&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[16] OpenAI Privacy Center, Zugriff am November 3, 2025, &lt;a href=&quot;https://privacy.openai.com/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://privacy.openai.com/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[17] Was sind Large Language Models? Und was ist bei der Nutzung von KI-Sprachmodellen zu beachten? - Blog des Fraunhofer IESE, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.iese.fraunhofer.de/blog/large-language-models-ki-sprachmodelle/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.iese.fraunhofer.de/blog/large-language-models-ki-sprachmodelle/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[18] Wie funktionieren LLMs? Ein Blick ins Innere großer Sprachmodelle - Fraunhofer IESE, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.iese.fraunhofer.de/blog/wie-funktionieren-llms/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.iese.fraunhofer.de/blog/wie-funktionieren-llms/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[19] Zero Data Retention Policy: The Truth Behind the Promise (and How Your Data Stays Truly Yours) | QuantaMind Blog, Zugriff am November 3, 2025, &lt;a href=&quot;https://quantamind.co/blog/zero-data-retention-truth-and-how-your-data-stays-yours&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://quantamind.co/blog/zero-data-retention-truth-and-how-your-data-stays-yours&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[20] Lohnt sich GitHub Copilot? Vorteile, Nachteile und Praxis-Tipps - mindtwo GmbH, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.mindtwo.de/blog/github-copilot&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.mindtwo.de/blog/github-copilot&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[21] Visual Studio mit GitHub Copilot – KI-Paarprogrammierung - Microsoft, Zugriff am November 3, 2025, &lt;a href=&quot;https://visualstudio.microsoft.com/de/github-copilot/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://visualstudio.microsoft.com/de/github-copilot/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[22] Mit LLMs zur Testfallautomatisierung - Infometis, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.infometis.ch/blog/mit-llms-chatgpt-zur-testfallautomatisierung-kunstliche-intelligenz-fur-automatisierte-javascript-generierung&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.infometis.ch/blog/mit-llms-chatgpt-zur-testfallautomatisierung-kunstliche-intelligenz-fur-automatisierte-javascript-generierung&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[23] KI-gestützte Testfallerstellung - Be | Shaping the Future (DACH), Zugriff am November 3, 2025, &lt;a href=&quot;https://www.beshapingthefuture.de/insights/ki-gestuetzte-testfallerstellung/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.beshapingthefuture.de/insights/ki-gestuetzte-testfallerstellung/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[24] Llama vs. ChatGPT vs. Claude | Best LLM for 2024 - Autonomous, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.autonomous.ai/ourblog/llama-vs-chatgpt-vs-claude&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.autonomous.ai/ourblog/llama-vs-chatgpt-vs-claude&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[25] DALL-E - mindsquare AG, Zugriff am November 3, 2025, &lt;a href=&quot;https://mindsquare.de/knowhow/dall-e/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://mindsquare.de/knowhow/dall-e/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[26] Claude 2 - Anthropic, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.anthropic.com/news/claude-2&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.anthropic.com/news/claude-2&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[27] Was sind große Sprachmodelle (Large Language Models, LLMs)? | Microsoft Azure, Zugriff am November 3, 2025, &lt;a href=&quot;https://azure.microsoft.com/de-de/resources/cloud-computing-dictionary/what-are-large-language-models-llms&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://azure.microsoft.com/de-de/resources/cloud-computing-dictionary/what-are-large-language-models-llms&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[28] Claude can now search the web - Anthropic, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.anthropic.com/news/web-search&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.anthropic.com/news/web-search&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[29] Navigating the EU AI Act: Google Cloud‘s proactive approach, Zugriff am November 3, 2025, &lt;a href=&quot;https://cloud.google.com/blog/products/identity-security/navigating-the-eu-ai-act-google-clouds-proactive-approach&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://cloud.google.com/blog/products/identity-security/navigating-the-eu-ai-act-google-clouds-proactive-approach&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[30] Data residency | Generative AI on Vertex AI - Google Cloud Documentation, Zugriff am November 3, 2025, &lt;a href=&quot;https://docs.cloud.google.com/vertex-ai/generative-ai/docs/learn/data-residency&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://docs.cloud.google.com/vertex-ai/generative-ai/docs/learn/data-residency&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[31] KI-gesteuerte API-Tests in 2025: Vorteile &amp;amp; beste Tools - aqua cloud, Zugriff am November 3, 2025, &lt;a href=&quot;https://aqua-cloud.io/de/ki-api-ests/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://aqua-cloud.io/de/ki-api-ests/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[32] Die Evolution von Low-Code hin zu generativen KI-Modellen wie ChatGPT zur Codegenerierung - VDMA, Zugriff am November 3, 2025, &lt;a href=&quot;https://vdma.eu/viewer/-/v2article/render/78962507&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://vdma.eu/viewer/-/v2article/render/78962507&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[33] Gerichtliche Verfügung: OpenAI darf Nutzer-Konversationen mit ..., Zugriff am November 3, 2025, &lt;a href=&quot;https://steigerlegal.ch/2025/05/18/openai-nutzer-daten-nicht-mehr-loeschen/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://steigerlegal.ch/2025/05/18/openai-nutzer-daten-nicht-mehr-loeschen/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[34] Where are your servers located? Do you host your models on EU servers?, Zugriff am November 3, 2025, &lt;a href=&quot;https://privacy.claude.com/en/articles/7996890-where-are-your-servers-located-do-you-host-your-models-on-eu-servers&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://privacy.claude.com/en/articles/7996890-where-are-your-servers-located-do-you-host-your-models-on-eu-servers&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[35] Data controls in the OpenAI platform, Zugriff am November 3, 2025, &lt;a href=&quot;https://platform.openai.com/docs/guides/your-data&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://platform.openai.com/docs/guides/your-data&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[36] How we‘re responding to The New York Times‘ data demands in order to protect user privacy | OpenAI, Zugriff am November 3, 2025, &lt;a href=&quot;https://openai.com/index/response-to-nyt-data-demands/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://openai.com/index/response-to-nyt-data-demands/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[37] Anthropic Claude AI In Microsoft 365 Copilot — A Data Boundary Hurdle For The EU?, Zugriff am November 3, 2025, &lt;a href=&quot;https://ragnarheil.de/anthropic-claude-ai-in-microsoft-365-copilot-a-data-boundary-hurdle-for-the-eu/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://ragnarheil.de/anthropic-claude-ai-in-microsoft-365-copilot-a-data-boundary-hurdle-for-the-eu/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[38] ChatGPT und Datenschutz: Was gilt es zu beachten? - Proliance, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.proliance.ai/blog/chatgpt-datenschutz-welche-folgen-hat-die-nutzung-des-chatbots&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.proliance.ai/blog/chatgpt-datenschutz-welche-folgen-hat-die-nutzung-des-chatbots&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[39] Kann ich ChatGPT datenschutzkonform in meinem Unternehmen einsetzen? - eRecht24, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.e-recht24.de/ki/13409-chatgpt-datenschutz.html&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.e-recht24.de/ki/13409-chatgpt-datenschutz.htm&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[40] Privacy policy | OpenAI, Zugriff am November 3, 2025, &lt;a href=&quot;https://openai.com/policies/row-privacy-policy/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://openai.com/policies/row-privacy-policy/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[41] Consumer privacy at OpenAI, Zugriff am November 3, 2025, &lt;a href=&quot;https://openai.com/consumer-privacy&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://openai.com/consumer-privacy&lt;/a&gt;/&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[42] How your data is used to improve model performance | OpenAI Help ..., Zugriff am November 3, 2025, &lt;a href=&quot;https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[43] Data Usage for Consumer Services FAQ | OpenAI Help Center, Zugriff am November 3, 2025, &lt;a href=&quot;https://help.openai.com/en/articles/7039943-data-usage-for-consumer-services-faq&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://help.openai.com/en/articles/7039943-data-usage-for-consumer-services-faq&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[44] Disturbing Privacy Gaps in ChatGPT Plus &amp;amp; Google Gemini Advanced: How to Opt Out &amp;amp; What They‘re Not Telling You - Reddit, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.reddit.com/r/Bard/comments/1jywt4x/disturbing_privacy_gaps_in_chatgpt_plus_google/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.reddit.com/r/Bard/comments/1jywt4x/disturbing_privacy_gaps_in_chatgpt_plus_google/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[45] Data Controls FAQ | OpenAI Help Center, Zugriff am November 3, 2025, &lt;a href=&quot;https://help.openai.com/en/articles/7730893-data-controls-faq&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://help.openai.com/en/articles/7730893-data-controls-faq&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[46] Privacy policy | OpenAI, Zugriff am November 3, 2025, &lt;a href=&quot;https://openai.com/en-GB/policies/row-privacy-policy/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://openai.com/en-GB/policies/row-privacy-policy/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[47] Kann mein Chef meine ChatGPT-Anfragen lesen? - Mozilla Foundation, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.mozillafoundation.org/de/blog/chatgpt-boss-read-privacy/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.mozillafoundation.org/de/blog/chatgpt-boss-read-privacy/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[48] Data processing addendum | OpenAI, Zugriff am November 3, 2025, &lt;a href=&quot;https://openai.com/policies/data-processing-addendum/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://openai.com/policies/data-processing-addendum/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[49] Zusatz zur Datenverarbeitung - OpenAI, Zugriff am November 3, 2025, &lt;a href=&quot;https://openai.com/de-DE/policies/data-processing-addendum/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://openai.com/de-DE/policies/data-processing-addendum/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[50] Google Analytics and the GDPR: When will there be legal certainty? - JENTIS, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.jentis.com/blog/google-analytics-gdpr&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.jentis.com/blog/google-analytics-gdpr&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[51] Is Google Analytics (3 &amp;amp; 4) GDPR-compliant? [Updated] - Piwik PRO, Zugriff am November 3, 2025, &lt;a href=&quot;https://piwik.pro/blog/is-google-analytics-gdpr-compliant/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://piwik.pro/blog/is-google-analytics-gdpr-compliant/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[52] Understanding Anthropic‘s Data Usage Policy: What Users Need to Know, Zugriff am November 3, 2025, &lt;a href=&quot;https://rits.shanghai.nyu.edu/ai/understanding-anthropics-data-usage-policy-what-users-need-to-know/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://rits.shanghai.nyu.edu/ai/understanding-anthropics-data-usage-policy-what-users-need-to-know/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[53] Opt-out statt Opt-in: Anthropic verwendet Nutzerdaten ..., Zugriff am November 3, 2025, &lt;a href=&quot;https://steigerlegal.ch/2025/09/07/anthropic-claude-ki-training-nutzerdaten/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://steigerlegal.ch/2025/09/07/anthropic-claude-ki-training-nutzerdaten/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[54] Updates to Anthropic‘s Claude AI Terms and Privacy Policy - What You Need to Know, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.goldfarb.com/updates-to-anthropics-claude-ai-terms-and-privacy-policy-what-you-need-to-know/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.goldfarb.com/updates-to-anthropics-claude-ai-terms-and-privacy-policy-what-you-need-to-know/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[55] Updates to Consumer Terms and Privacy Policy \ Anthropic, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.anthropic.com/news/updates-to-our-consumer-terms&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.anthropic.com/news/updates-to-our-consumer-terms&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[56] Anthropic‘s New Privacy Policy is Systematically Screwing Over Solo Developers - Reddit, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.reddit.com/r/ClaudeAI/comments/1nd73si/anthropics_new_privacy_policy_is_systematically/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.reddit.com/r/ClaudeAI/comments/1nd73si/anthropics_new_privacy_policy_is_systematically/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[57] How do you use personal data in model training? | Anthropic Privacy ..., Zugriff am November 3, 2025, &lt;a href=&quot;https://privacy.claude.com/en/articles/7996885-how-do-you-use-personal-data-in-model-training&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://privacy.claude.com/en/articles/7996885-how-do-you-use-personal-data-in-model-training&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[58] Is my data used for model training? | Anthropic Privacy Center - Claude, Zugriff am November 3, 2025, &lt;a href=&quot;https://privacy.claude.com/en/articles/10023580-is-my-data-used-for-model-training&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://privacy.claude.com/en/articles/10023580-is-my-data-used-for-model-training&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[59] Anthropic Subprocessor Updates - Trust Center - Anthropic, Zugriff am November 3, 2025, &lt;a href=&quot;https://trust.anthropic.com/updates&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://trust.anthropic.com/updates&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[60] From U.S.-Only to Global: Claude API Regional Processing Launches August 19, 2025, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.frozenlight.ai/post/frozenlight/694/claude-api-regional-processing-launches-august-19-2025/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.frozenlight.ai/post/frozenlight/694/claude-api-regional-processing-launches-august-19-2025/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[61] Anthropic expanding data processing to include infrastructure in multi regions : r/ClaudeAI, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.reddit.com/r/ClaudeAI/comments/1m3adw2/anthropic_expanding_data_processing_to_include/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.reddit.com/r/ClaudeAI/comments/1m3adw2/anthropic_expanding_data_processing_to_include/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[62] Gemini Apps Privacy Hub - Google Help, Zugriff am November 3, 2025, &lt;a href=&quot;https://support.google.com/gemini/answer/13594961?hl=en&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://support.google.com/gemini/answer/13594961?hl=en&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[63] Zugriff am November 3, 2025, &lt;a href=&quot;https://support.google.com/gemini/answer/13278892?hl=en&amp;amp;co=GENIE.Platform%3DAndroid#:~:text=off%20Keep%20Activity%3A-,On%20your%20Android%20phone%20or%20tablet,to%20gemini.google.com.&amp;amp;text=Activity%20.,-Near%20the%20top&amp;amp;text=tap%20Turn%20off-,Turn%20off%20or%20Turn%20off%20and%20delete%20activity.,service%20and%20process%20any%20feedback.&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://support.google.com/gemini/answer/13278892?hl=en&amp;amp;co=GENIE.Platform%3DAndroid#:~:text=off%20Keep%20Activity%3A-,On%20your%20Android%20phone%20or%20tablet,to%20gemini.google.com.&amp;amp;text=Activity%20.,-Near%20the%20top&amp;amp;text=tap%20Turn%20off-,Turn%20off%20or%20Turn%20off%20and%20delete%20activity.,service%20and%20process%20any%20feedback.&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[64] Manage &amp;amp; delete your Gemini Apps activity - Android - Google Help, Zugriff am November 3, 2025, &lt;a href=&quot;https://support.google.com/gemini/answer/13278892?hl=en&amp;amp;co=GENIE.Platform%3DAndroid&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://support.google.com/gemini/answer/13278892?hl=en&amp;amp;co=GENIE.Platform%3DAndroid&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[65] How To Use Gemini Anonymous Mode: Full Step-by-Step Guide - Fello AI, Zugriff am November 3, 2025, &lt;a href=&quot;https://felloai.com/2025/07/how-to-use-gemini-anonymous-mode-full-step-by-step-guide/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://felloai.com/2025/07/how-to-use-gemini-anonymous-mode-full-step-by-step-guide/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[66] Vertex AI and zero data retention - Google Cloud Documentation, Zugriff am November 3, 2025, &lt;a href=&quot;https://docs.cloud.google.com/vertex-ai/generative-ai/docs/vertex-ai-zero-data-retention&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://docs.cloud.google.com/vertex-ai/generative-ai/docs/vertex-ai-zero-data-retention&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[67] How Gemini for Google Cloud uses your data, Zugriff am November 3, 2025, &lt;a href=&quot;https://docs.cloud.google.com/gemini/docs/discover/data-governance&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://docs.cloud.google.com/gemini/docs/discover/data-governance&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[68] Document AI | Google Cloud, Zugriff am November 3, 2025, &lt;a href=&quot;https://cloud.google.com/document-ai&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://cloud.google.com/document-ai&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[69] Privacy Concerns with Onboard AI: Google Gemini - The University of Tennessee, Knoxville, Zugriff am November 3, 2025, &lt;a href=&quot;https://oit.utk.edu/security/learning-library/article-archive/privacy-onboard-ai-google-gemini/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://oit.utk.edu/security/learning-library/article-archive/privacy-onboard-ai-google-gemini/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[70] Gemini &amp;amp; Datenschutz: Geht das konform? | eRecht24, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.e-recht24.de/ki/13426-gemini-datenschutz.html&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.e-recht24.de/ki/13426-gemini-datenschutz.html&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[71] What privacy policy governs the use of AI Studio by a Workspace account? - Reddit, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.reddit.com/r/googleworkspace/comments/1ll8xd7/what_privacy_policy_governs_the_use_of_ai_studio/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.reddit.com/r/googleworkspace/comments/1ll8xd7/what_privacy_policy_governs_the_use_of_ai_studio/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[72] Meta Llama 3 Acceptable Use Policy, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.llama.com/llama3/use-policy/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.llama.com/llama3/use-policy/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[73] meta-llama/Llama-3.1-8B-Instruct - Hugging Face, Zugriff am November 3, 2025, &lt;a href=&quot;https://huggingface.co/meta-llama/Llama-3.1-8B-Instruct&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://huggingface.co/meta-llama/Llama-3.1-8B-Instruct&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[74] Our responsible approach to Meta AI and Meta Llama 3, Zugriff am November 3, 2025, &lt;a href=&quot;https://ai.meta.com/blog/meta-llama-3-meta-ai-responsibility/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://ai.meta.com/blog/meta-llama-3-meta-ai-responsibility/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[75] How to opt out of Meta AI: Options to protect your data, Zugriff am November 3, 2025, &lt;a href=&quot;https://us.norton.com/blog/ai/how-to-opt-out-of-meta-ai&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://us.norton.com/blog/ai/how-to-opt-out-of-meta-ai&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[76] Privacy Matters: Meta‘s Generative AI Features - About Meta, Zugriff am November 3, 2025, &lt;a href=&quot;https://about.fb.com/news/2023/09/privacy-matters-metas-generative-ai-features/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://about.fb.com/news/2023/09/privacy-matters-metas-generative-ai-features/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[77] Meta‘s new Privacy Policy: key info for artists - DACS, Zugriff am November 3, 2025, &lt;a href=&quot;https://www.dacs.org.uk/news-events/what-artists-and-their-beneficiaries-need-to-know-about-metas-new-privacy-policy&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.dacs.org.uk/news-events/what-artists-and-their-beneficiaries-need-to-know-about-metas-new-privacy-policy&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[78] Gemini API and Your Data Privacy: A 2025 Guide for Privacy-Conscious Users - Redact, Zugriff am November 3, 2025, &lt;a href=&quot;https://redact.dev/blog/gemini-api-terms-2025&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://redact.dev/blog/gemini-api-terms-2025&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/ki-im-unternehmen-ein-praxis-leitfaden-zu-datenschutz-ai-act-und" /><updated>2025-12-29T11:41:00+00:00</updated><id>https://www.seqis.com/de/blog/ki-im-unternehmen-ein-praxis-leitfaden-zu-datenschutz-ai-act-und</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Emre-1.png" type="image/png" /></entry><entry><title>Die Konvergenz von KI-Ethik und dem AI Act: Von der Abstraktion zur Anwendung</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;Die Konvergenz von KI-Ethik und dem AI Act: Von der Abstraktion zur Anwendung&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/6/QN2-2025_Lewisch-2-f6c1e2c5.webp&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Der EU AI Act kann als bewusster Versuch gesehen werden, klassische philosophisch-ethische Aspekte in verbindliches Recht zu übersetzen, um AI durch Prinzipien wie Autonomie, Verantwortung und Schadensvermeidung zu regulieren. Obwohl dieser Ansatz dem Gesetz eine starke normative Grundlage verleiht, bleibt die Umsetzung durch juristische Lücken und Konflikte mit bestehenden rechtlichen Regelungen unvollständig.&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;&lt;strong&gt;Ethik kodifizieren und Technologie regulieren - eine doppelte Herausforderung &lt;/strong&gt;&lt;/h3&gt; &lt;h4 class=&quot;p4&quot;&gt;Einleitung - Das Spannungsfeld von Philosophischer Ethik und Recht&lt;/h4&gt; &lt;p class=&quot;p4&quot;&gt;Die rasche Entwicklung und Implementierung Künstlicher Intelligenz (KI) aka Artificial Intelligence (AI) hat die Gesellschaft an einen normativen Scheideweg geführt. Grundlegend operieren Ethik und Recht in unterschiedlichen, wenn auch verbundenen, Sphären. Während die Ethik einen Leitfaden für das liefert, was eine Gesellschaft als „wünschenswert“ oder „richtig“ erachtet, definiert das Recht, was verbindlich und einklagbar ist, gestützt durch Sanktionen. Die jüngste Welle technologischer Innovationen, insbesondere im Bereich der generativen AI, hat die Dringlichkeit einer Konvergenz dieser Sphären dramatisch unterstrichen. Dabei haben nachgewiesene Risiken den Bedarf an strengen Regulierungen und ethischen Praktiken offenkundig gemacht.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Die Europäische Union hat auf diese Herausforderung mit einer Verordnung, dem sogenannten „AI Act“, reagiert und damit das weltweit erste umfassende Rechtsinstrument zur Regulierung von AI geschaffen. Dieses Instrument ist jedoch nicht ex nihilo entstanden, sondern es ist das Resultat eines bewussten politischen Weges, der eine zutiefst philosophisch-ethische Komponente beinhaltet. Das erklärte Ziel der Verordnung ist es, die „Einführung einer menschenzentrierten und vertrauenswürdigen künstlichen Intelligenz“ zu fördern und gleichzeitig ein „hohes Schutzniveau für Gesundheit, Sicherheit und Grundrechte” zu gewährleisten.&lt;sup&gt;1&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Der italienische Philosoph und Professor für Philosophie und Informationsethik an der University of Oxford Luciano Floridi analysiert diesen regulatorischen Ansatz als inhärent europäisch. In seiner Analyse der Gesetzgebung stellt er fest, dass der AI Act den „grundlegenden Ansatz“ der EU-Werte „erbt“. Die Vision, die diesem Ansatz zugrunde liegt, ist unverkennbar: Technologie, einschließlich KI, muss im Dienste der Menschheit, ihrer Werte und Bedürfnisse stehen. Floridi kritisiert zwar den Begriff „menschenzentriert“ als potenziell „veraltete Terminologie“, die anthropozentrische Tendenzen aufweisen könnte, erkennt aber den dahinterliegenden ambitionierten Versuch des AI Acts, eine normative, wertebasierte Vision in bindendes, operationales Recht zu gießen.&lt;sup&gt;2&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Somit kann der AI Act als juristisches Endprodukt eines nicht nur mehrjährigen, organisierten politischen, sondern auch philosophischen Prozesses verstanden werden. Dieser Prozess begann formell mit der Einsetzung einer unabhängigen hochrangigen Expertengruppe für KI, der “High-Level Expert Group on AI”, kurz HLEG, durch die Europäische Kommission im Jahr 2018.&lt;sup&gt;3&lt;/sup&gt; Die HLEG legte 2019 ihre Ethik-Leitlinien vor, die als direkte Blaupause für den Gesetzesvorschlag der Kommission von 2021 und die finale Verordnung von 2024 dienten. Diese Pfadabhängigkeit von der Ethik zum Recht ist zugleich die größte Stärke und die größte Schwäche des AI Acts. Sie ist eine Stärke, da sie dem Gesetz eine kohärente normative Grundlage verleiht, die in den europäischen Grundwerten verankert ist. Sie ist jedoch auch eine potenzielle Schwäche, da der AI Act nun daran gemessen wird, ob seine juristischen Mechanismen, wie bspw. in Artikel 14 “zur menschlichen Aufsicht”, die hohen ethischen Ziele tatsächlich erreichen können, oder ob sie im regulatorischen Vollzug zur bürokratischen Bedeutungslosigkeit verkommen.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p4&quot;&gt;Philosophische Ethik und ihre Relevanz für AI&lt;/h4&gt; &lt;p class=&quot;p4&quot;&gt;Die Debatte über AI-Ethik kann im Kern als eine Anwendung klassischer philosophischer Theorien auf neue technologische Gegebenheiten verstanden werden. Der AI Act und die ihm vorangegangenen Ethik-Leitlinien sind tief in den klassischen Theorien philosophischer Traditionen (Tugendethik, Deontologie und Utilitarismus) verwurzelt.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;em&gt;&lt;strong&gt;Tugendethik und Verantwortung&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Die aristotelische Tugendethik argumentiert, dass Ethik eine Frage des Charakters und der praktischen Weisheit des Handelnden ist. Eine dementsprechende AI-Entwicklung erfordert strukturierte ethische Überlegungen. Der AI Act erzwingt solche tugendethischen Prozesse, indem er beispielsweise Risikomanagement und Qualitätsmanagement vorschreibt, die über den gesamten Lebenszyklus des KI-Systems aufrechterhalten werden müssen. Hierzu lieferte die bekannte Publizistin Hannah Arendt in ihrem Werk “Eichmann in Jerusalem: Ein Bericht von der Banalität des Bösen” (1964)&lt;sup&gt;4&lt;/sup&gt; eine eindringliche Warnung, warum eine institutionalisierte Verantwortungsethik notwendig ist. Ihre Analyse der „Banalität des Bösen“ zeigt die Verantwortungslosigkeit, die entsteht, wenn Individuen ihre moralische Urteilskraft an bürokratische Prozesse delegieren und ihre persönliche Verantwortung nicht wahrnehmen. Arendt sieht in der individuellen Verantwortung das zentrale Kriterium für die Bewahrung der Urteilsfähigkeit.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Die größte „banale“ Gefahr bei der Anwendung von KI ist der „Automation Bias“, die unkritische Übernahme von algorithmischen Empfehlungen. Hierfür liefert Arendt die philosophische Begründung, warum die „Menschliche Aufsicht“ gemäß Artikel 14 des AI Acts so entscheidend ist. Artikel 14 ist der juristische Abwehrmechanismus gegen die „Banalität des Algorithmus“, indem er dem Menschen explizit die Fähigkeit und die Pflicht zuweist, die Ausgabe des Systems zu ignorieren, abzuändern oder umzukehren, und somit zum Instrument der Rückforderung der persönlichen Verantwortung fungiert.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;em&gt;&lt;strong&gt;Deontologie und Autonomie&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Die europäische Grundrechtstradition, die im AI Act eine zentrale Rolle einnimmt, ist ohne die deontologische Ethik Immanuel Kants kaum denkbar. Im Zentrum der kantischen Deontologie steht nicht der Nutzen einer Handlung, sondern die Pflicht, die sich aus der Vernunft ergibt. Das höchste Prinzip dieser Ethik ist die Autonomie des Willens. Kant nennt dies „das alleinige Prinzip der Moral“ (Kant, GMS, S. 67).&lt;sup&gt;5&lt;/sup&gt; Aus dieser Autonomie leitet Kant die „Selbstzweckformel“ des Kategorischen Imperativs (Kant, GMS, S. 36ff) ab, die gebietet, die Menschheit, sowohl in der eigenen Person als auch in der Person eines jeden anderen, „jederzeit zugleich als Zweck, niemals bloß als Mittel“ zu gebrauchen.&lt;sup&gt;6&lt;/sup&gt; Die HLEG-Leitlinien spiegeln diesen Gedanken direkt wider, wenn sie betonen, dass der „Respekt vor der Menschenwürde“ erfordert, dass Menschen „niemals bloß als Objekte (...) sortiert, bewertet, (...) oder manipuliert werden“.&lt;sup&gt;7&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Die Verbote in Artikel 5 des AI Acts sind ein direktes juristisches Abbild dieser kantischen Ethik. Das Verbot von KI-Systemen, die subliminale oder manipulative Techniken einsetzen, oder das Verbot von „Social Scoring“, ist nicht primär utilitaristisch begründet. Diese Systeme werden nicht verboten, weil sie mehr schaden als nutzen, sondern weil sie, im Sinne Kants, per se die Autonomie und menschliche Würde verletzen und Menschen bloß als Mittel zum Zweck sehen, d.h. zur Erreichung eines externen Ziels, wie etwa die Steuerung des Verhaltens oder soziale Konformität.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;em&gt;&lt;strong&gt;Konsequentialismus und Schadensvermeidung&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Während die kantische Deontologie die absoluten Verbote des AI Acts erklärt, liefert der Konsequentialismus, insbesondere der Utilitarismus von Jeremy Bentham oder John Stuart Mill, die philosophische Blaupause für den regulativen Teil des Gesetzes, d.h. den risikobasierten Ansatz. Der Konsequentialismus bewertet die Moral einer Handlung anhand ihrer Folgen. John Stuart Mills „Harm Principle“ (Schädigungsprinzip), dargelegt in seinem Werk “Über die Freiheit”&lt;sup&gt;8&lt;/sup&gt;, besagt: „Dieses Prinzip lautet, dass der einzige Zweck, der die Menschheit berechtigt, vereinzelt oder vereinigt, jemandes Handlungsfreiheit zu beeinträchtigen, der Selbstschutz ist; dass der einzige Zweck, der rechtfertigt, Macht über irgendein Mitglied einer zivilisierten Gemeinschaft gegen seinen Willen auszuüben, der ist, die Schädigung anderer zu verhüten. Sein eigenes Wohl, das leibliche wie das moralische, ist kein ausreichender Grund dafür“ (Mill, 1859, S. 316).&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Das besagte Schädigungsprinzip ist durch den vierstufigen, risikobasierten Ansatz des AI Acts präzise operationalisiert:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p6&quot;&gt;Mills Libertarismus (Keine Intervention): Der letzte Teil des oben genannten Zitats zeigt, dass das eigene Wohl also kein ausreichender Grund für eine Beschränkung ist. Dies entspricht den Kategorien für KI-Systeme, die laut AI Act nur ein minimales oder gar kein Risiko aufweisen und weitgehend unreguliert sind. Hier überwiegt die Freiheit der Innovation.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;Mills Schadensprinzip (Intervention): Das Zitat beinhaltet auch das Recht einer Gesellschaft, eines Staates oder wie es Mill nennt, einer zivilisierten Gemeinschaft, einzugreifen, um die Schädigung anderer abzuwenden. Dies entspricht den regulierten Kategorien des AI Acts. Sobald ein KI-System „ernsthafte Risiken für die Gesundheit, Sicherheit oder Grundrechte“ Dritter darstellt, wird es als „Hochrisiko-System“ (High-Risk) eingestuft und strengen Verpflichtungen unterworfen. Der AI Act ist in diesem Sinne eine Verordnung, die sicherstellt, dass KI Sicherheit, Gesundheit und Grundrechte wahrt.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p5&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p4&quot;&gt;Die Entwicklung europäischer KI-Ethik-Leitlinien&lt;/h4&gt; &lt;p class=&quot;p4&quot;&gt;Der AI Act ist, wie in der Einleitung dargelegt, das Endprodukt eines Prozesses, der mit ethischen Überlegungen begann. Die 2018 von der Europäischen Kommission eingesetzte High-Level Expert Group on AI (HLEG) hatte den Auftrag, einen ethischen Rahmen für die KI-Entwicklung in Europa zu definieren. Im April 2019 präsentierte die HLEG ihre Ethik-Leitlinien für eine vertrauenswürdige KI. Diese definieren vertrauenswürdige AI als ein System, das drei Komponenten aufweisen muss, die idealerweise in Harmonie zusammenwirken. Die 3 Säulen der HLEG sind&lt;sup&gt;9&lt;/sup&gt;:&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p6&quot;&gt;Rechtmäßig (Lawful): Achtung aller geltenden Gesetze und Vorschriften.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;Ethisch (Ethical): Achtung ethischer Prinzipien und Werte.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;Robust (Robust): Sowohl aus technischer als auch aus sozialer Perspektive.&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p4&quot;&gt;Der AI Act ist die Kodifizierung der ersten Säule (rechtmäßig), die sich jedoch inhaltlich massiv auf die zweite Säule (ethisch) stützt, um die dritte (robust) zu gewährleisten.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Als normatives Fundament identifizierte die HLEG zusätzlich vier ethische Grundsätze&lt;sup&gt;10&lt;/sup&gt;, die auf den diskutierten philosophischen Tra&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p1&quot;&gt;Achtung der menschlichen Autonomie&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Schadensvermeidung&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Fairness&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Erklärbarkeit&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p3&quot;&gt;Der entscheidende Schritt der HLEG war die Übersetzung dieser vier abstrakten Prinzipien in sieben konkrete, operative Schlüsselanforderungen. Diese sieben HLEG-Anforderungen bilden die Blaupause für das Herzstück des AI Acts, d.h. die Verpflichtungen für Hochrisiko-Systeme in Kapitel III. Sie wurden in der „Assessment List for Trustworthy AI (ALTAI)“ operationalisiert, einer praktischen Checkliste für Entwickler und Anwender&lt;sup&gt;11&lt;/sup&gt;. Die Konvergenz von Ethik und Recht wird am deutlichsten, wenn man die sieben HLEG-Anforderungen direkt mit den spezifischen Artikeln des AI Acts für Hochrisiko-Systeme vergleicht (in Klammer). Zu den HLEG-Anforderungen zählen:&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p1&quot;&gt;Menschliche Handlungsfähigkeit und Aufsicht &lt;br&gt;(&lt;strong&gt;Artikel 14&lt;/strong&gt;: Menschliche Aufsicht)&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Technische Robustheit und Sicherheit &lt;br&gt;(&lt;strong&gt;Artikel 15&lt;/strong&gt;: Genauigkeit, Robustheit und Cybersicherheit)&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Privatsphäre und Daten-Governance &lt;br&gt;(&lt;strong&gt;Artikel 10&lt;/strong&gt;: Daten und Data Governance)&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Transparenz &lt;br&gt;(&lt;strong&gt;Artikel 13&lt;/strong&gt;: Transparenz und Bereitstellung von Informationen)&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Vielfalt, Nichtdiskriminierung und Fairness &lt;br&gt;(&lt;strong&gt;Artikel 10&lt;/strong&gt;: Daten und Data Governance)&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Gesellschaftliches Wohlergehen und ökologische Nachhaltigkeit &lt;br&gt;(&lt;strong&gt;Artikel 95&lt;/strong&gt;: Verhaltenskodizes für die freiwillige Anwendung von spezifischen Anforderungen)&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Rechenschaftspflicht &lt;br&gt;(&lt;strong&gt;Artikel 11&lt;/strong&gt;: Technische Dokumentation und &lt;strong&gt;Artikel 12&lt;/strong&gt;: Protokollierung).&lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Wo das Recht hinter der Ethik zurückbleibt&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Der AI Act ist keine perfekte Übersetzung, da in der Transformation von „weicher“ Ethik zu „hartem“ Recht zwangsläufig Spannungen, Lücken und Zielkonflikte entstehen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Spannungsfeld 1: AI Act vs. DSGVO (Datenschutz-Grundverordnung)&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Ein primäres Spannungsfeld und ein fundamentaler Zielkonflikt besteht im Verhältnis zur Datenschutz-Grundverordnung (DSGVO). Das ethische Ziel der „Fairness“ verlangt nach der rechtlichen Pflicht aus Art. 10 AI Act, Voreingenommenheit (Bias) zu erkennen und zu korrigieren. Um jedoch Bias (z. B. aufgrund des Geschlechts oder der ethnischen Herkunft) effektiv zu erkennen, müssen Modelle oft mit sensiblen Daten (gem. Art. 9 DSGVO), die eben diese Merkmale beschreiben, trainiert oder getestet werden.&lt;sup&gt;12&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Hier kollidiert das ethische Ziel der Fairness (AI Act) frontal mit dem ethischen Ziel des Datenschutzes (DSGVO), das die Verarbeitung solcher Daten grundsätzlich verbietet. Der AI Act versucht diesen Konflikt in Art. 10 Abs. 5 aufzulösen. Er schafft eine streng zweckgebundene Ausnahme, die die Verarbeitung sensibler Daten nur zum Zweck der Bias-Erkennung und Bias-Korrektur erlaubt, und nur, wenn dies unbedingt erforderlich ist und durch strenge technische und organisatorische Maßnahmen (z. B. Pseudonymisierung, Zugriffskontrollen) geschützt wird. Diese Lösung offenbart jedoch eine kritische Lücke, da diese Ausnahme in Art. 10 Abs. 5 ausschließlich für Anbieter von Hochrisiko-KI-Systemen gilt. Sie gilt nicht für Anbieter von General-Purpose AI (GPAI) Modellen oder Systemen mit geringerem Risiko, obwohl auch diese ein Diskriminierungspotenzial aufweisen. Hier bleibt die rechtliche Lösung (AI Act) hinter der ethischen Forderung (Fairness in allen Systemen) signifikant zurück.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Lewisch-2.webp&quot; alt=&quot;&quot; width=&quot;400&quot; height=&quot;400&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Spannungsfeld 2: AI Act vs. DSA (Digital Services Act)&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Ein weiterer Konflikt entsteht im Zusammenspiel mit dem Digital Services Act (DSA), insbesondere bei der Regulierung von KI-Systemen, die von sehr großen Online-Plattformen eingesetzt werden. Das ethische Prinzip der Rechenschaftspflicht (Accountability) erfordert Auditierbarkeit. Um KI-Systeme auf systemische Risiken zu prüfen, benötigen unabhängige Forscher und die Zivilgesellschaft Zugang zu relevanten Daten. Der DSA erkennt diese Notwendigkeit an und gewährt in Artikel 40 geprüften Forschern explizit einen solchen Datenzugang für die Analyse systemischer Risiken. Der AI Act hingegen, der ebenfalls systemische Risiken, insbesondere durch GPAI, adressiert, enthält keine vergleichbare Bestimmung.&lt;sup&gt;13&lt;/sup&gt; Dies stellt einen schwerwiegenden Mangel in der Kohärenz der EU-Digitalgesetzgebung dar. Der AI Act behindert hier potenziell die Erreichung seiner eigenen ethischen Ziele, indem er Forschern den Zugang verwehrt, den ein anderes EU-Gesetz (der DSA) bereits als fundamental für die Aufsicht erachtet hat.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Spannungsfeld 3: Operationalisierung von „Accountability“&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;„Accountability“ (Rechenschaftspflicht) ist ein zentrales ethisches Prinzip. Im AI Act wird es primär durch prozedurale Pflichten durch die Artikel 11 (Technische Dokumentation) und Artikel 12 (Protokollierung) operationalisiert. Anbieter müssen ex ante dokumentieren, wie ihr System konzipiert ist, und ex post sicherstellen, dass sein Betrieb durch „Logs“ nachvollziehbar ist. Kritiker argumentieren jedoch, dass dies „Accountability“ auf eine reine Verfahrensdokumentation reduziert.&lt;sup&gt;14&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Diese entscheidende Haftungslücke (Liability) sollte durch die „AI Liability Directive“ (KI-Haftungsrichtlinie) geschlossen werden. Dieser Richtlinienentwurf, der darauf abzielte, die Beweislast für Opfer von KI-Schäden zu erleichtern, wurde jedoch von der Europäischen Kommission im Februar 2025 zurückgezogen. Dies hinterlässt die größte Lücke im System. Ohne ein klares Haftungsregime bleibt die Rechenschaftspflicht ein ethisches Postulat ohne die notwendige juristische Macht, um im Schadensfall Gerechtigkeit zu gewährleisten.&lt;sup&gt;15&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;&lt;strong&gt;Fazit: Eine verantwortungsvolle Zukunft durch die Symbiose von Ethik und Recht&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Der AI Act ist nicht bloß ein weiterer Rechtsakt der Digitalregulierung, sondern er ist durch den ethischen Anspruch auch eine kodifizierte Philosophie, weil er versucht, die normativen Grundlagen der europäischen Ethik in verbindliche, technische und prozessuale Verpflichtungen für Hochrisiko-Systeme zu übersetzen. Ethik und Recht gehen im AI Act insofern Hand in Hand, als die ethischen Leitlinien der HLEG die direkte Vorlage für die juristischen Kernanforderungen in den Artikeln 10-15 lieferten. Während die Ethik für das „Warum“ (z. B. Schutz der Autonomie) sorgt, steuert das Recht „Wie“ (z. B. die menschliche Aufsicht in Artikel 14) bei. Bei aller Zuversicht ist die Symbiose jedoch unvollständig und von Friktionen geprägt. Es verbleiben signifikante Spannungen in der Kohärenz mit bestehendem Recht (DSGVO, DSA). Die schwerwiegendste Lücke klafft jedoch im Bereich der Haftung, da durch das Zurückziehen der KI-Haftungsrichtlinie die Operationalisierung von „Accountability“ auf prozedurale Dokumentation beschränkt bleibt.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[1] European Commission: Excellence and trust in artificial intelligence. In: &lt;a href=&quot;https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_en&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_en&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[2] Floridi, Luciano (2021): The European Legislation on AI: A Brief Analysis of its Philosophical Approach. SSRN Electronic Journal. 10.2139/ssrn.3873273.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[3,7] High-Level Expert Group on Artificial Intelligence (2018): Ethics Guidelines for trustworthy AI. In: &lt;a href=&quot;https://www.aepd.es/sites/default/files/2019-12/ai-ethics-guidelines.pdf&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.aepd.es/sites/default/files/2019-12/ai-ethics-guidelines.pdf&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[4] Arendt, Hannah: Eichmann in Jerusalem. Ein Bericht von d. Banalität d. Bösen, Piper, München 1964.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;5,6] Kant, Immanuel: Grundlegung zur Metaphysik der Sitten (Vol. 28). L. Heimann, Berlin 1870.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[8] Mill, John Stuart (1859): Über die Freiheit. In: Schefzcyk, Michael &amp;amp; Schmidt-Petri, Christoph (Hg.): John Stuart Mill: Ausgewählte Werke, Band III/1 Freiheit, Fortschritt und die Aufgaben des Staates. Individuum, Moral und Gesellschaft, Wachholtz Verlag, Kiel/Hamburg 2021.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[9,11] European Commission: Ethics guidelines for trustworthy AI. In: &lt;a href=&quot;https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[10] Peets, Lisa; Hansen, Marty &amp;amp; Choi, Sam Jungyun: EU High-Level Working Group Publishes Ethics Guidelines for Trustworthy AI. In: &lt;a href=&quot;https://www.covingtondigitalhealth.com/2019/04/eu-high-level-working-group-publishes-ethics-guidelines-for-trustworthy-ai/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.covingtondigitalhealth.com/2019/04/eu-high-level-working-group-publishes-ethics-guidelines-for-trustworthy-ai/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[12,13] Hacker, Philipp: Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung. Hrsg. Bertelsmann Stiftung. Gütersloh 2024. In: &lt;a href=&quot;https://www.bertelsmann-stiftung.de/fileadmin/files/user_upload/AI_Act_im_Spannungsfeld__2024_final.pdf&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.bertelsmann-stiftung.de/fileadmin/files/user_upload/AI_Act_im_Spannungsfeld__2024_final.pdf&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[14] Oduro, Serena, Moss, Emanuel &amp;amp; Metcalf, Jacob (2022). Obligations to assess: Recent trends in AI accountability regulations. Patterns (New York, N.Y.), 3(11), 100608. &lt;a href=&quot;https://doi.org/10.1016/j.patter.2022.100608&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://doi.org/10.1016/j.patter.2022.100608&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[15] Gaudszun, Timo; Shin, Jeffrey &amp;amp; Parsons, Natasha: AI Watch: Global regulatory tracker - European Union. In: &lt;a href=&quot;https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-european-union&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-european-union&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/die-konvergenz-von-ki-ethik-und-dem-ai-act-von-der-abstraktion-zur" /><updated>2025-12-23T12:36:00+00:00</updated><id>https://www.seqis.com/de/blog/die-konvergenz-von-ki-ethik-und-dem-ai-act-von-der-abstraktion-zur</id><author><name>Alexander Lewisch</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Lewisch-2.webp" type="image/webp" /></entry><entry><title>KI-Souveränität im Fokus: Wie Local AI die Datenhoheit sichert und den EU AI Act erfüllt</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;KI-Souveränität im Fokus: Wie Local AI die Datenhoheit sichert und den EU AI Act erfüllt&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/b/QN_H2-25%20Wilma-6def6463.png&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;Der Artikel beleuchtet die strategische Bedeutung von lokaler KI im Kontext des EU AI Acts und der Datensouveränität. Er vergleicht lokale mit Cloud-basierten KI-Systemen hinsichtlich Datenschutz, Kosten und Skalierbarkeit und zeigt auf, wie lokale KI die Einhaltung regulatorischer Anforderungen proaktiv unterstützt.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;1. Einleitung: Das Spannungsfeld zwischen Innovation und Verantwortung&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Die transformative Kraft der Künstlichen Intelligenz (KI) hat in den letzten Jahren nahezu alle Branchen revolutioniert. Von der Automatisierung komplexer Prozesse bis hin zur Generierung von Inhalten in Echtzeit ermöglichen KI-Systeme eine Effizienzsteigerung und Innovation, die noch vor wenigen Jahren undenkbar schien. Doch mit dem rasanten Fortschritt wächst auch eine grundlegende Sorge, die das Vertrauen der Nutzer und Unternehmen in diese Technologie auf eine harte Probe stellt: die Frage nach dem Schutz sensibler Daten und der Datenhoheit.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Eine Studie von KPMG aus dem Jahr 2024 ergab, dass 63% der Verbraucher Bedenken hinsichtlich der potenziellen Kompromittierung ihrer Privatsphäre durch generative KI haben, die persönliche Daten durch unbefugten Zugriff oder Missbrauch preisgeben könnte. Die Ängste reichen von der Überwachung durch Smart-Home-Geräte bis zur unbefugten Nutzung von Sprachdaten, was die Notwendigkeit von robusten Datenschutzlösungen unterstreicht. Die zunehmende „privacy resignation“ – eine Resignation, bei der Nutzer akzeptieren, dass ihre Daten ohnehin geteilt werden – macht es für Unternehmen umso wichtiger, aktiv das Gegenteil zu beweisen und das Vertrauen durch den Schutz persönlicher Informationen zurückzugewinnen. &lt;sup&gt;[1]&lt;/sup&gt; Genau hier setzt die Strategie der lokalen KI an. Anstatt die Datenhoheit aus den Händen zu geben, bietet sie einen Weg, die Innovationskraft der KI zu nutzen, ohne die Kontrolle über die Daten zu verlieren.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;2. Grundlagen: Lokale vs. Cloud-basierte KI – Ein strategischer Vergleich&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Die Wahl zwischen einem lokalen und einem Cloud-basierten KI-System ist eine der grundlegendsten strategischen Entscheidungen, die ein Unternehmen heute treffen muss. Beide Ansätze repräsentieren unterschiedliche Architekturen mit signifikanten Auswirkungen auf Datenverarbeitung, Sicherheit, Kosten und Flexibilität.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;2.1 Die technischen und betriebswirtschaftlichen Architekturen&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Cloud-basierte KI-Lösungen verarbeiten Daten auf externen Servern, die von Anbietern wie OpenAI oder Google betrieben werden.&lt;sup&gt;[2]&lt;/sup&gt; Dieser Ansatz besticht durch seine hohe Skalierbarkeit, die Möglichkeit, mit großen Datenmengen umzugehen, und geringere anfängliche Investitionskosten, da die Rechenleistung lediglich gemietet wird.&lt;sup&gt;[2]&lt;/sup&gt; Die globale Zugänglichkeit erleichtert zudem die Zusammenarbeit über verschiedene Standorte hinweg.&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Lokale KI-Systeme, oft auch als Edge AI bezeichnet, verarbeiten Daten hingegen direkt auf dem Endgerät oder im eigenen lokalen Netzwerk.&lt;sup&gt;[2] &lt;/sup&gt;Die KI-Modelle laufen direkt auf der unternehmenseigenen Hardware, was die Latenzzeiten minimiert und eine Datenverarbeitung in Echtzeit ermöglicht.&lt;sup&gt;[2]&lt;/sup&gt; Der Hauptvorteil dieses Ansatzes liegt in der Datenhoheit: Alle Daten bleiben innerhalb der unternehmenseigenen Infrastruktur, wodurch die Abhängigkeit von externen Cloud-Diensten reduziert wird und das Risiko von Datenlecks minimiert wird.&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;2.2 Der Datenfluss im Detail&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Der grundlegende Unterschied zwischen den beiden Architekturen lässt sich am besten anhand ihres Datenflusses visualisieren. Während bei der Cloud-KI Daten das lokale Netzwerk verlassen müssen, um zum externen Server des Anbieters gesendet zu werden, bleibt bei der lokalen KI der gesamte Verarbeitungsprozess intern.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;Datenflussdiagramm: Lokale KI vs. Cloud KI&lt;/strong&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Ein Flussdiagramm für ein lokales KI-System würde den Datenweg als einen geschlossenen Kreislauf innerhalb des Unternehmensnetzwerks darstellen.&lt;sup&gt;[8]&lt;/sup&gt; Der Prozess beginnt, wenn der Endnutzer Eingabedaten bereitstellt, die dann direkt von einem lokalen KI-Modell auf einem Gerät oder Server verarbeitet werden. Die Ausgabedaten werden, ohne das interne Netzwerk zu verlassen, an den Nutzer zurückgegeben. Der gesamte Datenpfad bleibt strikt innerhalb der Unternehmens-Firewall.&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Im Gegensatz dazu visualisiert der Datenfluss einer Cloud-KI eine externe Schleife.&lt;sup&gt;[8]&lt;/sup&gt; Eingabedaten werden vom Endnutzer über das Internet an die externen Cloud-Server des Anbieters gesendet. Dort findet die Verarbeitung durch das KI-Modell statt, bevor die Ausgabedaten über das Internet an den Endnutzer zurückgeschickt werden.&lt;sup&gt;[2]&lt;/sup&gt; Die externe Datenübertragung ist der kritische Punkt, der die Datenhoheit beeinträchtigt und potenzielle Sicherheitsrisiken mit sich bringt.&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;2.3 Tiefergehende Betrachtung der strategischen Nuancen&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Die scheinbar offensichtlichen Vor- und Nachteile beider Systeme sind bei näherer Betrachtung differenzierter.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Das vermeintliche Kostendilemma ist oft eine Frage der Perspektive. Während Cloud-KI mit geringen Einstiegshürden lockt, können die laufenden, nutzungsbasierten Kosten bei wachsendem Datenvolumen und zunehmender Nutzung schnell anwachsen und langfristig „nicht nachhaltig“ werden.&lt;sup&gt;[2]&lt;/sup&gt; Eine höhere Anfangsinvestition in leistungsstarke, lokale Hardware kann dagegen über die Zeit zu niedrigeren Gesamtbetriebskosten (Total Cost of Ownership, TCO) führen, da keine wiederkehrenden Gebühren für Datentransfer oder Rechenleistung anfallen.&lt;sup&gt;[3]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Auch das gängige Missverständnis der Skalierbarkeit muss nuanciert betrachtet werden. Zwar sind die Kapazitäten einer lokalen Infrastruktur schneller erschöpft als die einer Cloud-Umgebung, die auf massive Rechenressourcen zurückgreifen kann.&lt;sup&gt;[3]&lt;/sup&gt; Jedoch ermöglichen hybride Architekturen eine flexible Skalierung, indem sie die Vorteile beider Welten kombinieren.&lt;sup&gt;[3]&lt;/sup&gt; Solche Lösungen behalten die datensensitiven Prozesse lokal, während sie für rechenintensive oder weniger kritische Aufgaben auf Cloud-Ressourcen zurückgreifen. Ein Beispiel hierfür ist das Federated Learning, eine dezentrale Lernarchitektur, die im späteren Abschnitt genauer beleuchtet wird.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;table class=&quot;t1&quot; style=&quot;border-collapse: collapse; border-color: #000000; border-style: solid;&quot; border=&quot;1&quot; cellspacing=&quot;0&quot; cellpadding=&quot;0&quot;&gt; &lt;tbody&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Aspekt&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Lokale KI&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Cloud KI&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Datenverarbeitung&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Direkt auf dem Gerät/im lokalen Netzwerk&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Auf externen Servern des Anbieters&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Datenschutz &amp;amp; Souveränität&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Maximale Kontrolle, Daten bleiben inhouse, DSGVO-konform&lt;sup&gt;[3]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Daten verlassen die lokale Umgebung, Abhängigkeit von Drittanbietern&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Latenz&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Sehr gering, ideal für Echtzeitanwendungen&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Höher, da Datenübertragung erforderlich ist&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Kosten&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Höhere Anfangsinvestitionen (Hardware, ggf. Lizenzen)&lt;sup&gt;[3]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Niedrigere Einstiegskosten, dafür laufende Gebühren&lt;sup&gt;[3]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Skalierbarkeit&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Erfordert Hardware-Upgrades, weniger flexibel&lt;sup&gt;[3]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Dynamisch skalierbar durch Mieten zusätzlicher Kapazitäten&lt;sup&gt;[3]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Kontrolle &amp;amp; Unabhängigkeit&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Volle Kontrolle über Modelle und Daten, unabhängig von externen Anbietern&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Abhängig vom Cloud-Anbieter, weniger Kontrolle über Modelle&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;/tbody&gt; &lt;/table&gt; &lt;h3 class=&quot;p3&quot;&gt;&lt;br&gt;3. Local AI als Compliance-Motor: Die rechtliche Verknüpfung zum EU AI Act&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Der EU AI Act ist das weltweit erste umfassende Gesetz zur Regulierung von KI. Er ist kein isoliertes Regelwerk, sondern eine Erweiterung und Konkretisierung bestehender Datenschutzprinzipien. Der Act stellt klar, dass die Datenschutz-Grundverordnung (DSGVO) in jedem Fall gilt, in dem personenbezogene Daten verarbeitet werden.&lt;sup&gt;[12]&lt;/sup&gt; Er verankert zudem Schlüsselprinzipien wie Rechenschaftspflicht, Fairness und Transparenz, die bereits in der DSGVO festgeschrieben sind.&lt;sup&gt;[12]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;3.1 Einhaltung der Kernprinzipien durch Local AI&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Lokale KI-Lösungen bieten einen proaktiven Weg, die strengen Anforderungen des EU AI Acts zu erfüllen:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Datenhoheit und Datenschutz by Design:&lt;/span&gt;&lt;/span&gt; Der AI Act fordert, dass Anbieter von KI-Systemen einen „Datenschutz by Design“-Ansatz verfolgen. Lokale KI erfüllt dieses Prinzip im Kern, da Daten nicht an externe Server übertragen werden müssen.&lt;sup&gt;[3]&lt;/sup&gt; Die Verarbeitung innerhalb des eigenen Netzwerks minimiert das Risiko von unbefugtem Zugriff und Datenlecks, was die Einhaltung der strengen DSGVO-Vorschriften erheblich erleichtert.&lt;sup&gt;[3]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Rechenschaftspflicht (Accountability):&lt;/span&gt;&lt;/span&gt; Der AI Act macht Anbieter von Hochrisiko-KI-Systemen für die Einhaltung der Vorschriften verantwortlich und fordert eine systematische und geordnete Dokumentation der Compliance. &lt;sup&gt;[12]&lt;/sup&gt; Durch die volle Kontrolle über Daten und Modelle innerhalb der eigenen Infrastruktur wird die Nachverfolgbarkeit (Traceability) der Verarbeitung vereinfacht und die Rechenschaftspflicht gestärkt.&lt;sup&gt;[2]&lt;/sup&gt; Es existiert eine klare Verantwortungskette, was die Umsetzung der regulatorischen Anforderungen erleichtert.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Transparenz:&lt;/span&gt;&lt;/span&gt; Die Vorschriften des AI Acts verlangen, dass Nutzer über die Interaktion mit einem KI-System informiert werden und KI-generierte Inhalte (wie Deepfakes) gekennzeichnet werden müssen.&lt;sup&gt;[13]&lt;/sup&gt; Auch bei lokalen Systemen muss diese Transparenz gewährleistet sein, beispielsweise durch eine deutliche Benachrichtigung über die lokale Datenverarbeitung. Unternehmen, die sich für Local AI entscheiden, können dies als Teil einer transparenten Kommunikation über ihren proaktiven Datenschutz nutzen.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;3.2 Die Regulierung als Innovationskatalysator&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Anstatt als bürokratische Hürde zu wirken, treiben die strengen regulatorischen Vorgaben wie DSGVO und AI Act die Entwicklung von sichereren und transparenteren KI-Architekturen wie der lokalen KI voran.&lt;sup&gt;[15]&lt;/sup&gt; Sie zwingen Unternehmen, die Verarbeitung sensibler Daten neu zu überdenken und eine „Compliant-by-Design“-Struktur zu schaffen.&lt;sup&gt;[14]&lt;/sup&gt; Der risikobasierte Ansatz des AI Acts ist hierbei von entscheidender Bedeutung: Er identifiziert Hochrisiko-Anwendungen (z. B. im Gesundheitswesen, bei der Personalverwaltung oder in der Strafverfolgung), deren Scheitern die Gesundheit, Sicherheit oder die Grundrechte von Personen gefährden könnte.&lt;sup&gt;[20]&lt;/sup&gt; In diesen Bereichen ist die lokale Verarbeitung von Daten nicht nur eine Option, sondern ein entscheidender Weg, um die von der Regulierung geforderte Risikominderung von Natur aus zu gewährleisten.&lt;sup&gt;[14]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p4&quot;&gt;4. Praxisbeispiele und Anwendungsbereiche: Wie Local AI in der Wirtschaft Fuß fasst&lt;/h3&gt; &lt;p class=&quot;p3&quot;&gt;Die strategische Relevanz von lokaler KI zeigt sich am deutlichsten in Branchen, die tagtäglich mit besonders sensiblen oder zeitkritischen Daten arbeiten.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;4.1 Fallstudien aus datensensitiven Branchen&lt;/h4&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Gesundheitswesen:&lt;/span&gt;&lt;/span&gt; Krankenhäuser nutzen lokale KI-Systeme, um medizinische Bilder zu analysieren oder Diagnosetools zu betreiben.&lt;sup&gt;[3]&lt;/sup&gt; Patientendaten werden direkt vor Ort verarbeitet, sodass sie das Kliniknetzwerk niemals verlassen. Dies gewährleistet die Einhaltung strenger Datenschutzvorschriften wie der DSGVO und der HIPAA in den USA.&lt;sup&gt;[14]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;Rechts- und Finanzwesen:&lt;/span&gt; &lt;/span&gt;Anwaltskanzleien setzen lokale Modelle zur Analyse vertraulicher Dokumente, zur Fallrecherche und zur Vertragsprüfung ein, während Banken Echtzeit-Betrugserkennungssysteme nutzen. &lt;sup&gt;[14]&lt;/sup&gt; Der Schutz von Mandanten- und Kundendaten ist hier oberstes Gebot.&lt;sup&gt;[14]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Produktion und Edge-Computing:&lt;/span&gt;&lt;/span&gt; In Fertigungsanlagen ermöglichen lokale KI-Systeme Echtzeit-Anwendungen wie die prädiktive Wartung oder die Qualitätskontrolle.&lt;sup&gt;[3]&lt;/sup&gt; Die geringe Latenz ist hier essenziell, da Verzögerungen von nur einer Sekunde Tausende von Dollar an Produktionsfehlern verursachen können.&lt;sup&gt;[22]&lt;/sup&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;4.2 Der Aufstieg privater, lokaler Modelle&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Die Nachfrage nach datensouveränen Lösungen hat zur Entwicklung von dedizierten, lokalen KI-Plattformen geführt. Ein prominentes Beispiel ist PrivateGPT, eine Software, die es Unternehmen ermöglicht, leistungsstarke generative Sprachmodelle (LLMs) innerhalb ihres eigenen, gesicherten Netzwerks zu betreiben.&lt;sup&gt;[23]&lt;/sup&gt; Solche Lösungen bieten Datenhoheit, Integration mit internen Systemen (wie ERP und CRM) und vollständige Kontrolle über die Daten.&lt;sup&gt;[25]&lt;/sup&gt; Sie sind ein Beweis dafür, dass die Nutzung modernster KI-Technologie nicht mehr zwangsläufig einen Kompromiss beim Datenschutz bedeutet.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;4.3 Hybridmodelle: Die Macht des Federated Learning&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Eine fortschrittliche Architektur, die die Vorteile von lokaler und Cloud-KI vereint, ist das Federated Learning. Dieser Ansatz ermöglicht das kollaborative Training eines globalen KI-Modells, ohne die Rohdaten der einzelnen Standorte zu zentralisieren.&lt;sup&gt;[27]&lt;/sup&gt; Stattdessen werden nur die Modellparameter, oft verschlüsselt, zwischen den lokalen Datenzentren ausgetauscht. Dadurch bleibt die Privatsphäre der lokalen Datensätze geschützt, während gleichzeitig ein global nutzbares, optimiertes Modell entsteht.&lt;sup&gt;[27]&lt;/sup&gt; Beispiele von Google und NVIDIA zeigen die erfolgreiche Anwendung dieser Methode bei der Entwicklung mobiler KI-Systeme oder bei autonomen Fahrzeugen, wo regionale Datenschutzbestimmungen wie die DSGVO beachtet werden müssen.&lt;sup&gt;[27]&lt;/sup&gt; Dieses Modell löst das Skalierbarkeitsproblem der lokalen KI, indem es die Stärken beider Welten kombiniert und gleichzeitig die Datenhoheit wahrt.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p4&quot;&gt;5. Herausforderungen und strategische Überlegungen für die Implementierung&lt;/h3&gt; &lt;p class=&quot;p3&quot;&gt;Obwohl die Vorteile der lokalen KI offensichtlich sind, ist ihre Implementierung mit erheblichen Herausforderungen verbunden, die sorgfältiger strategischer Planung bedürfen.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;5.1 Hohe Anfangsinvestitionen und Hardware-Anforderungen&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Der größte Nachteil der lokalen KI sind die hohen Anfangsinvestitionen in die Hardware. Leistungsstarke GPUs (wie die NVIDIA RTX 4090), ausreichend Arbeitsspeicher (16-64 GB RAM werden empfohlen) und schnelle SSDs sind essenziell für den Betrieb komplexer KI-Modelle.&lt;sup&gt;[10]&lt;/sup&gt; Die Herausforderung beschränkt sich jedoch nicht nur auf den Kauf, sondern auch auf das sogenannte „Right-Sizing“ der Hardware.&lt;sup&gt;[29]&lt;/sup&gt; Eine unpassende Konfiguration kann entweder zu Engpässen und Leistungseinbußen führen oder unnötig hohe Kosten verursachen. Dies unterstreicht, dass die Implementierung von Local AI eine genaue Bedarfsanalyse und technische Expertise erfordert.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;5.2 Skalierung, Wartung und Betrieb&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Die Skalierbarkeit, die Cloud-Lösungen flexibel und dynamisch anbieten, erfordert bei lokalen Systemen physische Upgrades, die kostspielig und zeitaufwändig sind.&lt;sup&gt;[3]&lt;/sup&gt; Darüber hinaus sind Unternehmen bei der lokalen KI für die gesamte Wartung und die Installation von Updates selbst verantwortlich, was bei Cloud-Lösungen vom Anbieter übernommen wird.&lt;sup&gt;[5]&lt;/sup&gt; Dies führt zu einem erhöhten betrieblichen Aufwand und erfordert entweder interne Ressourcen oder die Zusammenarbeit mit erfahrenen Dienstleistern.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;5.3 Organisatorische Herausforderungen&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Der Übergang zur lokalen KI ist mehr als eine technische Umstellung – er ist ein strategischer Wandel. Unternehmen müssen intern neue Fähigkeiten aufbauen, insbesondere in Bereichen wie Datenwissenschaft, MLOps (Machine Learning Operations) und dem Betrieb von KI-Systemen.&lt;sup&gt;[30]&lt;/sup&gt; Die Integration der KI in bestehende, oft veraltete IT-Systeme kann komplex sein, da Kompatibilitätsprobleme und Kapazitätsengpässe auftreten können.&lt;sup&gt;[30]&lt;/sup&gt; Die erfolgreiche Implementierung erfordert eine enge und funktionsübergreifende Zusammenarbeit zwischen der IT-Abteilung, den Rechtsabteilungen, den Fachbereichen und den Endnutzern. &lt;sup&gt;[30]&lt;/sup&gt; Die Entscheidung für lokale KI ist letztlich eine Entscheidung für Datenhoheit und Unabhängigkeit, aber auch für eine stärkere interne Verantwortung und den strategischen Aufbau von Kernkompetenzen.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p4&quot;&gt;6. Fazit &amp;amp; Ausblick: Der Weg zur verantwortungsvollen KI-Strategie&lt;/h3&gt; &lt;p class=&quot;p3&quot;&gt;Lokale KI-Systeme sind keine universelle Lösung, sondern eine strategische Alternative, die besonders für datensensitive Anwendungsfälle entscheidende Vorteile in den Bereichen Datenschutz, Kontrolle und Performance bietet. Sie stellen einen praktischen und effektiven Weg dar, die Anforderungen des EU AI Acts an Rechenschaftspflicht und Transparenz proaktiv zu erfüllen und die Kontrolle über die Datenhoheit zurückzugewinnen. Dies ist ein entscheidender Faktor, um das Vertrauen von Kunden und Partnern aufzubauen und langfristig einen Wettbewerbsvorteil zu erzielen.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Die Zukunft der KI-Architekturen wird nicht länger in einer binären Entscheidung zwischen Cloud und lokal liegen. Vielmehr wird der Weg über intelligente, hybride Architekturen führen, die das Beste aus beiden Welten kombinieren.&lt;sup&gt;[3]&lt;/sup&gt; Solche Modelle werden es Unternehmen ermöglichen, sensible Daten sicher lokal zu verarbeiten, während sie für rechenintensive Aufgaben auf die Skalierbarkeit der Cloud zurückgreifen. Die fortschreitende Miniaturisierung von Hardware, wie beispielsweise Neural Processing Units (NPUs), und die Entwicklung kleinerer, effizienterer KI-Modelle (SLMs - Small Language Models) werden die lokale KI in den kommenden Jahren noch zugänglicher und leistungsfähiger machen. &lt;sup&gt;[29,5] &lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Die Wahl der richtigen KI-Strategie ist eine der wichtigsten Entscheidungen für moderne Unternehmen. Sie ist eine Abwägung zwischen Risiko und Innovation, die eine genaue Analyse der eigenen Daten, der regulatorischen Anforderungen und der strategischen Ziele erfordert. Lokale KI ist der Wegbereiter für eine Zukunft, in der KI-Innovation und Vertrauen Hand in Hand gehen.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Hinweis: Dieser Artikel wurde durch Gemini unterstützt.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[1] Consumer Perspectives of Privacy and Artificial Intelligence - IAPP, Zugriff am September 23, 2025, &lt;a href=&quot;https://iapp.org/resources/article/consumer-perspectives-of-privacy-and-ai/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://iapp.org/resources/article/consumer-perspectives-of-privacy-and-ai/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[2] Cloud AI vs. Local AI: Which Is Best for Your Business? - webAI, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.webai.com/blog/cloud-ai-vs-local-ai-which-is-best-for-your-business&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.webai.com/blog/cloud-ai-vs-local-ai-which-is-best-for-your-business&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[3] Local AI vs. cloud AI - which is better for your company? - novalutions, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.novalutions.de/en/local-ki-vs-cloud-ki-which-suits-your-company-better/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.novalutions.de/en/local-ki-vs-cloud-ki-which-suits-your-company-better/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[4] Vergleich von Cloud-basierten KI-Lösungen und On-Premise-Betrieb - Julian Funke, Zugriff am September 23, 2025, &lt;a href=&quot;https://julian-funke.de/2024/01/24/vergleich-von-cloud-basierten-ki-loesungen-und-on-premise-betrieb/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://julian-funke.de/2024/01/24/vergleich-von-cloud-basierten-ki-loesungen-und-on-premise-betrieb/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[5] Choose between cloud-based and local AI models | Microsoft Learn, Zugriff am September 23, 2025, &lt;a href=&quot;https://learn.microsoft.com/en-us/windows/ai/cloud-ai&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://learn.microsoft.com/en-us/windows/ai/cloud-ai&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[6] Was ist Edge KI? - IBM, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.ibm.com/de-de/think/topics/edge-ai&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.ibm.com/de-de/think/topics/edge-ai&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[7] Lokale KI Modelle: DSGVO-konforme KI für Unternehmen - docurex, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.docurex.com/lokale-ki-modelle-2/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.docurex.com/lokale-ki-modelle-2/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[8] AI Architecture Diagram Generator - Eraser IO, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.eraser.io/ai/architecture-diagram-generator&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.eraser.io/ai/architecture-diagram-generator&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[9] KI Flussdiagramm erstellen | Miro, Zugriff am September 23, 2025, &lt;a href=&quot;https://miro.com/de/ai/flussdiagramm-ai/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://miro.com/de/ai/flussdiagramm-ai/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[10] How to Run AI Locally: Benefits, Challenges, and Solutions - Autonomous, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.autonomous.ai/ourblog/run-ai-locally&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.autonomous.ai/ourblog/run-ai-locally&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[11] Choosing Between Local AI and Cloud AI: What You Need to Know - Archy.net, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.archy.net/choosing-between-local-ai-and-cloud-ai-what-you-need-to-know/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.archy.net/choosing-between-local-ai-and-cloud-ai-what-you-need-to-know/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[12] Top 10 operational impacts of the EU AI Act – Leveraging GDPR compliance - IAPP, Zugriff am September 23, 2025, &lt;a href=&quot;https://iapp.org/resources/article/top-impacts-eu-ai-act-leveraging-gdpr-compliance/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://iapp.org/resources/article/top-impacts-eu-ai-act-leveraging-gdpr-compliance/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[13] Key Issue 5: Transparency Obligations - EU AI Act, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.euaiact.com/key-issue/5&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.euaiact.com/key-issue/5&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[14] AI in Data Privacy: How Businesses Can Use Local AI Models to Protect Sensitive Information - AI CERTs, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.aicerts.ai/news/ai-in-data-privacy-local-models-benefits/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.aicerts.ai/news/ai-in-data-privacy-local-models-benefits/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[15] KI und Datenschutz: Wegweiser für einen datenschutzkonformen Einsatz von KI, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.datenschutzkanzlei.de/ki-und-datenschutz-wegweiser-fuer-einen-datenschutzkonformen-einsatz-von-ki/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.datenschutzkanzlei.de/ki-und-datenschutz-wegweiser-fuer-einen-datenschutzkonformen-einsatz-von-ki/&lt;/a&gt;&lt;br&gt;&lt;br&gt;[16] Lokale KI-Anwendungen und ihre Rolle im Datenschutz - Mindverse, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.mind-verse.de/news/lokale-ki-anwendungen-datenschutz&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.mind-verse.de/news/lokale-ki-anwendungen-datenschutz&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[17] Article 50: Transparency Obligations for Providers and Deployers of Certain AI Systems | EU Artificial Intelligence Act, Zugriff am September 23, 2025, &lt;a href=&quot;https://artificialintelligenceact.eu/article/50/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://artificialintelligenceact.eu/article/50/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[18] How To Use Local AI Models To Improve Data Privacy | The AI Journal, Zugriff am September 23, 2025, &lt;a href=&quot;https://aijourn.com/how-to-use-local-ai-models-to-improve-data-privacy/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://aijourn.com/how-to-use-local-ai-models-to-improve-data-privacy/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[19] EU Artificial Intelligence Act | Up-to-date developments and analyses of the EU AI Act, Zugriff am September 23, 2025, &lt;a href=&quot;https://artificialintelligenceact.eu/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://artificialintelligenceact.eu/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[20] AI Act | Shaping Europe‘s digital future - European Union, Zugriff am September 23, 2025, &lt;a href=&quot;https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[21] Professional Use Cases for Local AI: Privacy-First Solutions in Healthcare, Law, and Business - Enclave AI - Private, Local, Offline AI Assistant for MacOS and iOS, Zugriff am September 23, 2025, &lt;a href=&quot;https://enclaveai.app/blog/2025/01/16/professional-use-cases-local-ai/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://enclaveai.app/blog/2025/01/16/professional-use-cases-local-ai/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[22] Local AI Agents: A Privacy-First Alternative to Cloud-Based AI, Zugriff am September 23, 2025, &lt;a href=&quot;https://gloriumtech.com/local-ai-agents-the-privacy-first-alternative-to-cloud-based-ai/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://gloriumtech.com/local-ai-agents-the-privacy-first-alternative-to-cloud-based-ai/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[23] PrivateGPT by Abstracta: Secure GPT Service - Microsoft AppSource, Zugriff am September 23, 2025, &lt;a href=&quot;https://appsource.microsoft.com/en-us/product/web-apps/abstracta1679321045678.abstracta-privategpt?tab=overview&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://appsource.microsoft.com/en-us/product/web-apps/abstracta1679321045678.abstracta-privategpt?tab=overview&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[24] What Is Private GPT and Why Your Business Might Need It - Litslink, Zugriff am September 23, 2025, &lt;a href=&quot;https://litslink.com/blog/what-is-private-gpt&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://litslink.com/blog/what-is-private-gpt&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[25] Private GPT at Stackscale, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.stackscale.com/solutions/privategpt/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.stackscale.com/solutions/privategpt/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[26] Fujitsu Private GPT – the GenAI solution with data sovereignty, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.fujitsu.com/fi/products/data-transformation/private-gpt/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.fujitsu.com/fi/products/data-transformation/private-gpt/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[27] Federated Learning: 5 Use Cases &amp;amp; Real Life Examples, Zugriff am September 23, 2025, &lt;a href=&quot;https://research.aimultiple.com/federated-learning/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://research.aimultiple.com/federated-learning/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[28] What are the Minimum Hardware Requirements for Artificial Intelligence?, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.moontechnolabs.com/qanda/minimum-hardware-requirements-for-artificial-intelligence/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.moontechnolabs.com/qanda/minimum-hardware-requirements-for-artificial-intelligence/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[29] Right Sizing Your Edge AI Hardware | OnLogic, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.onlogic.com/blog/right-sizing-your-edge-ai-hardware/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.onlogic.com/blog/right-sizing-your-edge-ai-hardware/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[30] 5 Challenges of AI Deployment You Can Solve for Your IT Team - NinjaOne, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.ninjaone.com/blog/challenges-of-ai-deployment/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.ninjaone.com/blog/challenges-of-ai-deployment/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[31] 6 Common AI Model Training Challenges - Oracle, Zugriff am September 23, 2025, &lt;a href=&quot;https://www.oracle.com/artificial-intelligence/ai-model-training-challenges/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.oracle.com/artificial-intelligence/ai-model-training-challenges/&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/ki-souveraenitaet-im-fokus-wie-local-ai-die-datenhoheit-sichert-und-den" /><updated>2025-12-23T12:11:00+00:00</updated><id>https://www.seqis.com/de/blog/ki-souveraenitaet-im-fokus-wie-local-ai-die-datenhoheit-sichert-und-den</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/QN_H2-25%20Wilma.png" type="image/png" /></entry><entry><title>Der AI Act im Jahr 2025 - Was bisher geschah...</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;Der AI Act im Jahr 2025 - Was bisher geschah...&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/5/QN2-2025_Lewisch-3-029980d8.png&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;h3 class=&quot;p1&quot;&gt;Der EU AI Act 2025: Analyse der Implementierung, Kontroversen und globalen Positionierung&lt;/h3&gt; &lt;h4 class=&quot;p3&quot;&gt;Einleitung: Vom Legislativakt zur gelebten Realität&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Der im Mai 2024 vom Rat der Europäischen Union verabschiedete EU AI Act wurde als das weltweit erste umfassende Regelwerk zur Regulierung künstlicher Intelligenz (KI) positioniert. Basierend auf einem risikobasierten Ansatz, der KI-Systeme in vier Kategorien (von unannehmbarem Risiko bis minimalem Risiko) einteilt, verfolgt die Verordnung das duale Ziel, die Grundrechte der EU-Bürger zu schützen und gleichzeitig einen harmonisierten Rechtsrahmen für Innovation zu schaffen. Als Verordnung konzipiert, besitzt sie unmittelbare Geltung in allen Mitgliedstaaten, ohne dass eine nationale Umsetzung erforderlich wäre.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Der nachfolgende Beitrag versucht nun die Transformation dieser legislativen Theorie in die operative Praxis im Jahr 2025 zu analysieren. Während der AI Act am 1. August 2024 formell in Kraft trat, war das Jahr 2025 durch die ersten Phasen der gestaffelten Rechtswirksamkeit, die Etablierung einer neuen Governance-Architektur und, ganz entscheidend, durch erhebliche Implementierungshürden, eine Fragmentierung der Aufsicht und intensive politische Kontroversen geprägt. Daher kann 2025 schon jetzt als das Jahr gesehen werden, in dem die praktischen und politischen Durchsetzungsprobleme beginnen, die legislative Errungenschaft in Frage zu stellen.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;Die Etablierung der Governance-Architektur&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Die Governance-Bestimmungen der Verordnung in Kapitel VII traten am 2. August 2025 formell in Kraft. Dies operationalisierte die dreigliedrige Aufsichtsstruktur, bestehend aus dem Europäischen AI Office, dem AI Board und einem wissenschaftlichen Gremium unabhängiger Sachverständiger.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;em&gt;Das EU AI Office&lt;/em&gt;&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Das EU AI Office wurde bereits durch einen Kommissionsbeschluss am 21. Februar 2024 eingerichtet und nahm am 2. August 2025 seine volle operative Tätigkeit auf. Es ist als integraler Bestandteil der Europäischen Kommission (Generaldirektion Kommunikationsnetze, Inhalte und Technologien) strukturiert. Die Kernzuständigkeit des AI Office liegt in der Überwachung und Durchsetzung der neuartigen Regeln für GPAI-Modelle sowie in der Sicherstellung einer kohärenten Anwendung der Verordnung in der gesamten Union, oft in Zusammenarbeit mit nationalen Behörden.&lt;sup&gt;1&lt;/sup&gt; Bereits im Jahr 2025 war das AI Office hochaktiv. Es war federführend bei der Finalisierung des kontroversen „Code of Practice“ für GPAI-Modelle und veröffentlichte erste Leitlinien, etwa zur Auslegung der Verbote nach Artikel 5 (in Kraft seit 2. Februar 2025) sowie Meldevorlagen für schwerwiegende Vorfälle im Zusammenhang mit GPAI-Modellen (gültig ab November 2025).&lt;sup&gt;2&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;em&gt;Das AI Board und das wissenschaftliche Gremium&lt;/em&gt;&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Parallel zum AI Office nahm das AI Board am 2. August 2025 seine Arbeit auf. Dieses Gremium besteht aus hochrangigen Vertretern der Mitgliedstaaten und hat eine beratende sowie koordinierende Funktion. Es soll die Kommission und die Mitgliedstaaten bei einer „konsistenten und pragmatischen Anwendung“ des AI Act unterstützen. Als dritte Säule wurde die Einrichtung eines wissenschaftlichen Gremiums unabhängiger Sachverständiger im Sommer 2025 eingeleitet. Dessen definierte Aufgabe ist die wissenschaftlich-technische Beratung des AI Office, insbesondere bei der Bewertung der systemischen Risiken von GPAI-Modellen. Die Etablierung dieses Gremiums verlief jedoch schleppend. Berichten zufolge war die Arbeit des Gremiums Verzögerungen unterworfen, und ein Aufruf zur Einreichung von Bewerbungen für Experten lief bis Mitte September 2025. Dies indiziert, dass das Gremium Ende 2025 noch nicht voll funktionsfähig war.&lt;sup&gt;3&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Die Governance-Struktur des AI Act startete 2025 somit mit einem signifikanten operativen Ungleichgewicht. Das zentralisierte, exekutive Organ war voll handlungsfähig und trieb die Agenda, insbesondere bei der GPAI-Regulierung, voran. Demgegenüber hinkten die als Korrektiv vorgesehenen Instanzen massiv hinterher: das unabhängige wissenschaftliche Gremium, dessen Expertise gerade für die GPAI-Bewertung essenziell ist, war verspätet, während die dezentralen Aufsichtsbehörden in den Mitgliedstaaten, zuständig für die Durchsetzung vor Ort, in Schlüsselländern wie Deutschland nicht einmal benannt waren. Dieses Machtvakuum konzentrierte die operative Autorität in der kritischen Anfangsphase der Implementierung stark bei der Europäischen Kommission.&lt;sup&gt;4&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Lewisch-4.png&quot; alt=&quot;&quot; width=&quot;400&quot; height=&quot;400&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt; &lt;/h4&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;Die gestaffelte Rechtswirksamkeit - Analyse der Implementierungsphasen 2025&lt;/strong&gt;&lt;/h4&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;em&gt;&lt;strong&gt;2. Februar 2025 - Die Verbote&lt;/strong&gt;&lt;/em&gt;&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Die erste Welle der Rechtswirksamkeit trat am 2. Februar 2025 in Kraft. Seit diesem Datum gelten die Verbote für KI-Praktiken mit unannehmbarem Risiko (Kapitel II, Artikel 5). Von entscheidender Bedeutung ist, dass diese Verbote auch für Systeme gelten, die bereits vor diesem Datum in Verkehr gebracht wurden. Unternehmen waren somit gezwungen, ihre bestehenden Systeme einer sofortigen Re-Evaluierung zu unterziehen.&lt;sup&gt;5&lt;/sup&gt; Ebenfalls seit Februar 2025 gelten die Verpflichtungen zur „AI Literacy“ (KI-Kompetenz) nach Artikel 4, die Anbieter und Betreiber zu Schulungsmaßnahmen verpflichten.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;em&gt;2. Mai 2025 - Verpasste Frist: Der GPAI-Kodex&lt;/em&gt;&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Gemäß Artikel 56(9) des AI Acts sollte der „Code of Practice“ für GPAI-Modelle bis zum 2. Mai 2025 fertiggestellt sein.&lt;sup&gt;6&lt;/sup&gt; Diese Frist wurde aufgrund der Komplexität und der kontroversen Verhandlungen mit der Industrie verpasst. Der finale Kodex wurde erst im Juli 2025 veröffentlicht.&lt;sup&gt;7&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;em&gt;2. August 2025 - GPAI und Governance&lt;/em&gt;&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Die zweite Welle der Rechtswirksamkeit trat am 2. August 2025 in Kraft. Seit diesem Datum gelten die Verpflichtungen für Anbieter von GPAI-Modellen (Kapitel V). Gleichzeitig wurden die Governance-Bestimmungen (Kapitel VII) sowie die Bestimmungen zu Vertraulichkeit und Sanktionen (Kapitel XII) rechtswirksam. Die Sanktionen sind drakonisch und reichen bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für Verstöße gegen die Verbote des Artikel 5.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Die gestaffelte Implementierung erzeugte 2025 einen „Compliance-Rückstau“, der durch eine Asynchronität von Rechtspflicht und Rechtsdurchsetzung gekennzeichnet ist. Seit Februar 2025 ist die Nutzung eines verbotenen Systems (Art. 5) rechtswidrig und kann theoretisch bestraft werden. Gleichzeitig, wie noch später ausgeführt wird, hatten zentrale Mitgliedstaaten wie Deutschland im August 2025 die für die Durchsetzung zuständige Aufsichtsbehörde noch nicht einmal benannt. Diese Fälle der Rechtswirksamkeit ohne Exekutive schuf eine Periode der Rechtsunsicherheit, die den Nährboden für Lobbying gegen die Bestimmungen des AI Acts bildete.&lt;sup&gt;8&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;Die Verbote des Artikel 5 in der Praxis&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Das Inkrafttreten der Verbote für KI mit inakzeptablem Risiko am 2. Februar 2025 markierte den ersten Praxistest der Verordnung. Die unmittelbare Veröffentlichung von Kommissionsleitlinien zur Auslegung dieser Verbote nur zwei Tage später (4. Februar 2025) unterstreicht den hohen Grad an rechtlicher Unsicherheit, der diese Bestimmungen umgibt. Entgegen der öffentlichen Wahrnehmung sind die Verbote des Artikel 5 juristisch „weich“, da sie durch unbestimmte Rechtsbegriffe und weitreichende Ausnahmen gekennzeichnet sind.&lt;sup&gt;9&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Zivilgesellschaftliche Organisationen wie AlgorithmWatch kritisierten die Entwürfe der Kommissionsleitlinien scharf. Sie warnten, das Gesetz sei voller schwerwiegender Schlupflöcher. Die Kernkritik lautet, dass bestimmte Verbote, wie z.B. bei Predictive Policing, präzisiert und erweitert werden müssten und dass die Regulierung sich nicht an technischer Komplexität, sondern an potenziellen Folgeschäden orientieren müsse.&lt;sup&gt;10&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Das Inkrafttreten der Verbote war somit nicht das Ende dieser Praktiken, sondern der Beginn einer intensiven juristischen Auseinandersetzung um deren Auslegung. Während Gerichtsentscheidungen Ende 2025 noch ausstanden, zeigten sich erste Tendenzen bei der behördlichen Durchsetzung, da nationale Datenschutzbehörden (DPAs) begannen die Verzögerungen nationaler Umsetzung und das daraus resultierende Governance-Vakuum zu nutzen, um die Zuständigkeiten an sich zu ziehen. In Spanien kündigte die Datenschutzbehörde (AEPD) an, dass sie auf Basis ihrer bestehenden Befugnisse aus der DSGVO gegen verbotene KI-Systeme nach Art. 5 vorgehen könne, die personenbezogene Daten verarbeiten, sogar noch bevor AEPD formell zur KI-Aufsichtsbehörde ernannt wird. Dies bedeutet, dass die Durchsetzung des AI Acts stark in Richtung Datenschutzrecht gelenkt wird.&lt;sup&gt;11&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;Das Epizentrum der Kontroverse 2025: Die Regulierung von GPAI&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Während GPAI-Modelle bisher lediglich als eine von vier Risikostufen mit Transparenzpflichten eingeschätzt wurden, entwickelte sich dieses Thema 2025 zur zentralen Kontroverse über die Zukunft des AI Acts. Seit dem 2. August 2025 unterliegen Anbieter von GPAI-Modellen den Verpflichtungen nach Artikel 53, d.h. primär technische Dokumentation und Einhaltung des EU-Urheberrechts. Anbieter von GPAI-Modellen mit systemischem Risiko unterliegen zusätzlich den verschärften Pflichten nach Artikel 55, d.h. Bewertung systemischer Risiken, rigorose Tests und Cybersicherheit.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Um diese abstrakten gesetzlichen Pflichten zu konkretisieren, sieht Artikel 56 einen freiwilligen Verhaltenskodex (CoP - Code of Practice) vor, der sich zunehmend zu einem Konfliktherd entwickelt hat. Dessen Einhaltung gewährt Anbietern eine Konformitätsvermutung (presumption of compliance), was den Verwaltungsaufwand und die Rechtsunsicherheit massiv reduziert.&lt;sup&gt;12&lt;/sup&gt; Dieser von Experten entwickelte Kodex verpasste seine ursprüngliche Frist (2. Mai 2025) und wurde erst am 10. Juli 2025 vom AI Office veröffentlicht und als adäquat bestätigt.&lt;sup&gt;13&lt;/sup&gt; Unmittelbar nach der Veröffentlichung kam es zum Eklat, der die „Big Tech“-Industrie spaltete. Während Google (Alphabet) am 30. Juli 2025 ankündigte, den Kodex unterzeichnen zu wollen&lt;sup&gt;14&lt;/sup&gt;, und Microsoft den Verhaltenskodex ausdrücklich befürwortet hat15, verweigerte Meta (Facebook) die Unterzeichnung des CoP&lt;sup&gt;16&lt;/sup&gt;. Die Zustimmung Googles erfolgte jedoch unter scharfem Vorbehalt, da Vertreter von Google öffentlich die Sorge äußerten, der AI Act und der Kodex würden Europas Entwicklung und Einsatz von AI verlangsamen sowie die Wettbewerbsfähigkeit gefährden.&lt;sup&gt;17&lt;/sup&gt; Meta bezeichnete den Kodex als zweideutig, exzessiv und als Bedrohung für das Wachstum. Meta betonte, man werde sich zwar an den AI Act halten, jedoch nicht an den freiwilligen Kodex.&lt;sup&gt;18&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Metas Weigerung stellt eine direkte strategische Herausforderung an den gesamten Durchsetzungsmechanismus der Kommission dar. Der Plan des AI Office basierte darauf, den CoP als skalierbaren Compliance-Pfad zu etablieren. Meta entkoppelt nun den freiwilligen Kodex vom mandatorischen Gesetz und zwingt das AI Office, die Konformität von Metas Modellen direkt anhand des abstrakten Gesetzestextes von Art. 53/55 zu prüfen. Dies ist für die neue Behörde ein ressourcenintensiver und juristisch hochriskanter Weg.&lt;sup&gt;19 &lt;/sup&gt;Diese Auseinandersetzung politisierte die gesamte Implementierung. Die technische Kritik am CoP, die auch von Industrieverbänden wie der CCIA&lt;sup&gt;20&lt;/sup&gt; und europäischen Konzernen wie Siemens, SAP und Airbus geteilt wurde&lt;sup&gt;21&lt;/sup&gt;, mündete in der politischen Forderung nach einem Stopp der Verordnung oder zumindest einer Regulierungspause („potential EU AI Act pause“).&lt;sup&gt;22&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;Nationale Umsetzungsstrategien im Vergleich&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Obwohl der AI Act als Verordnung konzipiert ist, die unmittelbar gilt und Harmonisierung zum Ziel hat, erfordert sie von den Mitgliedstaaten die Benennung zuständiger nationaler Behörden und Marktüberwachungsbehörden. Die Frist hierfür war der 2. August 2025. In der Praxis führte dieser Prozess 2025 zu einem paradoxen Ergebnis. Statt Harmonisierung entstand eine tiefgreifende regulatorische Fragmentierung. Bereits im November 2024 hatten nur 3 von 27 Mitgliedstaaten ihre zuständigen Behörden klar benannt.&lt;sup&gt;23&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;em&gt;Österreich&lt;/em&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Österreichs Umsetzungsstrategie im Jahr 2025 war von Verzögerungen und einem Mangel an regulatorischer Klarheit geprägt. Obwohl das Land proaktiv eine „KI-Servicestelle“ (AI Service Desk) bei der Rundfunk und Telekom Regulierungs-GmbH (RTR-GmbH) eingerichtet hat, dient diese primär als Informations- und Anlaufstelle für Unternehmen. Entscheidend ist, dass Österreich die Frist vom 2. August 2025 zur Benennung der zentralen Marktüberwachungsbehörde und der notifizierenden Behörde nicht eingehalten hat. Ein entsprechendes nationales Durchführungsgesetz, das ursprünglich für das erste Quartal 2025 erwartet wurde, ist bisher auch noch nicht verabschiedet. Zwar wurde im November ein „KI-Umsetzungsplan“ sowie eine Liste von 19 Stellen zum Schutz der Grundrechte (gemäß Artikel 77) veröffentlicht, die Kernzuständigkeit für die Marktaufsicht blieb jedoch vakant.&lt;sup&gt;24&lt;/sup&gt; Diese regulatorische Unsicherheit trifft auf eine Wirtschaft, die laut Studien (z.B. McKinsey „State of AI in Austria 2025“) bei der AI-Reife (AIQ-Score 30) hinter dem EU-Durchschnitt (34) zurückliegt. Lediglich 20 % der österreichischen Unternehmen gaben an, eine ausformulierte KI-Strategie zu besitzen.&lt;sup&gt;25&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;em&gt;Deutschland&lt;/em&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Deutschland hat die Frist vom 2. August 2025 zur Benennung seiner Aufsichtsbehörde verpasst. Dieser Zustand führte zu massiver Rechtsunsicherheit bei Unternehmen und scharfer Kritik von Datenschützern, die vor einer Kontrolllücke und fehlenden Ansprechpartnern warnten. Die politische Debatte in Deutschland im Rahmen des KI-Marktüberwachungs-Gesetzes ist aktuell noch nicht abgeschlossen und dreht sich um die Zuständigkeit: die Bundesnetzagentur, die Datenschutzbehörden oder eine neu zu gründende Behörde.&lt;sup&gt;26&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;em&gt;Italien&lt;/em&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Italien verfolgte einen diametral entgegengesetzten, proaktiven Ansatz. Die Regierung erließ ein umfassendes eigenes nationales KI-Gesetz (Legge Nr. 132/2025), das am 10. Oktober 2025 in Kraft trat.&lt;sup&gt;27&lt;/sup&gt; Dieses Gesetz ergänzt den AI Act und führt zusätzliche nationale Regeln („Gold-Plating“) ein. Dazu gehören erweiterte Transparenzpflichten für Arbeitgeber beim Einsatz von KI am Arbeitsplatz und ein neuer Straftatbestand für die unrechtmäßige Verbreitung von KI-generierten Inhalten (Deepfakes), der mit ein bis fünf Jahren Haft bestraft wird. Die Benennung der Aufsichtsbehörden wurde durch das Gesetz an die Regierung delegiert.&lt;sup&gt;28&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;em&gt;Frankreich und Spanien&lt;/em&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Frankreich kündigte im September 2025 einen nationalen Aufsichtsplan an, der auf eine Aufteilung der Zuständigkeiten zwischen bestehenden Regulierungsbehörden wie der Datenschutzbehörde, der Wettbewerbsbehörde und der Medienaufsicht hinauszulaufen scheint.&lt;sup&gt;29&lt;/sup&gt; Spanien, das die Einrichtung einer dedizierten KI-Behörde (AESIA) plant, sah sich mit einer proaktiven Zuständigkeitserklärung seiner Datenschutzbehörde (AEPD) konfrontiert.&lt;sup&gt;30&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;&lt;br&gt;&lt;/sup&gt;Diese Entwicklungen untergraben das Kernziel eines harmonisierten Binnenmarktes. Ein Anbieter von AI, der 2025 in der EU tätig ist, sieht sich einem regulatorischen Vakuum in Deutschland, zusätzlichen Strafgesetzen in Italien und einem sektoralen Patchwork in Frankreich gegenüber.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;Der “Brussels Effect” auf dem Prüfstand&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Die Hoffnung, der AI Act werde einen „Brussels Effect“ auslösen und de facto zum globalen Standard werden, bleibt im Jahr 2025 stark umstritten. So insistiert etwa der Politikwissenschaftler Ben Crum, der AI Act sei kein klassischer „Brussels Effect“. Er geht davon aus, dass AI, anders als frühere Regulierungsthemen wie z.B. der Datenschutz, von fundamentaler Unsicherheit und existenziellem Risiko geprägt sei. Crum schlägt vor, den AI Act nicht als globalen Standard, sondern als experimentelle Regulierung zu verstehen, ein regionaler Ansatz unter vielen, der sich kooperativ weiterentwickeln müsste.&lt;sup&gt;31&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die EU befindet sich 2025 in einer geopolitischen Zwickmühle, da sie mit ihrem Weg der menschenzentrierten Regulierung isoliert ist. Während die USA auf aktive Deregulierung setzen und unter Präsident Trump bereits erste AI-Sicherheitsauflagen wieder gekippt wurden, forciert China die staatliche Technologieentwicklung.&lt;sup&gt;32&lt;/sup&gt; Wenn US-Unternehmen wie Meta beginnen, EU-Compliance-Mechanismen wie den Verhaltenskodex offen abzulehnen, und die US-Regierung dies durch Deregulierung politisch deckt, erodiert die globale Normsetzungsmacht der EU. Aus Sicht der USA bleibt das bisherige Paradigma „the U.S. innovates, and the EU regulates“ auch im Jahr 2025 weitgehend bestehen.&lt;sup&gt;33&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Lewisch-5.png&quot; alt=&quot;&quot; width=&quot;400&quot; height=&quot;400&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Der AI Act im Alltag 2025: Erste sichtbare Implikationen&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Im Alltag der Bürger und Unternehmen im Jahr 2025 sind die Auswirkungen des AI Act zweigeteilt, in Transparenz für Bürger gem. Artikel 50 und Pflichten für Unternehmen gem. Artikel 4 &amp;amp; 5. Der AI Act agiert somit gleichzeitig als Verbraucherschutz-Informationsgesetz und als Teil des Arbeits- und Organisationsrechts.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Für Bürger als Konsumenten von Medien sind die „weichen“ Transparenzpflichten des Artikel 50 am sichtbarsten. Bei der Nutzung von Chatbots müssen Nutzer informiert werden, dass sie mit einem KI-System interagieren. Künstlich erzeugte oder manipulierte Audio-, Bild- oder Videoinhalte müssen als solche gekennzeichnet werden.&lt;sup&gt;34&lt;/sup&gt; Angesichts globaler Sorgen vor Desinformation und neuer nationaler Gesetze treibt die EU-Kommission dieses Thema aktiv voran und hat am 5. November 2025 die Arbeit an einem separaten „Verhaltenskodex zur Kennzeichnung von KI-generierten Inhalten“ aufgenommen.&lt;sup&gt;35&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Für Unternehmen als Betreiber und Arbeitgeber ist die Wirkung hart und obligatorisch. Die, laut Artikel 4 (AI Literacy), seit Februar 2025 geltende Pflicht zur Sicherstellung von „AI-Kompetenz“ bei Personal, das KI-Systeme (insb. Hochrisiko-Systeme) betreibt, schafft einen neuen Compliance- und Bildungssektor. Unternehmen sind verpflichtet in Schulungen zu investieren und Governance-Strukturen aufzubauen. Trotz dieser gesetzlichen Verpflichtung zum Aufbau der AI-Kompetenz in Unternehmen, zeigt eine neue repräsentative Umfrage des Digitalverbands Bitkom, dass in Deutschland nur 20% der Beschäftigten eine AI-Schulung erhalten und sogar 70% der Firmen die AI-Schulungspflicht gänzlich ignorieren.&lt;sup&gt;36&lt;br&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Für Unternehmen kommt auch das Verbot hinzu, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen einzusetzen (Artikel 5 - Verbot der Emotionserkennung), das seit Februar 2025 rechtsverbindlich ist und den Einsatz entsprechender HR- oder Bildungssoftware illegal macht.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;Conclusio und Ausblick: Die Zukunftssicherheit des AI Acts&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Das Jahr 2025 markierte den Übergang des AI Acts von einer legislativen Ambition in eine operative Realität. Der 2024 beschriebene Meilenstein wurde 2025 durch vier Schlüsselfaktoren auf die Probe gestellt. Die (1) Etablierung einer zentralen Governance (AI Office), wird durch die (2) dezentrale Fragmentierung durch nationale Verzögerungen konterkariert. Das (3) Inkrafttreten erster Rechtsfolgen ist nahezu unwirksam, weil deren Durchsetzung mangels Behörden unsicher ist. Hinzu kommt der (4) strategische Konflikt mit globalen GPAI-Anbietern, der den Zeitplan und den Kern der Regulierung bedroht und in Frage stellt.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Daher plant die Europäische Kommission zentrale Teile ihres historischen Gesetzes zur Regulierung künstlicher Intelligenz bereits jetzt abzuschwächen bzw. deren Einführung zu verzögern. Dies geschieht als Reaktion auf massiven Druck von US-Technologiekonzernen und der US-Regierung. So erwägt die EU eine Schonfrist für Unternehmen, das Aussetzen von Geldstrafen bis August 2027 sowie bestimmte Vereinfachungen und Ausnahmen. Über diese Maßnahmen soll noch im November 2025 entschieden werden, um die Wettbewerbsfähigkeit der EU gegenüber den USA und China zu stärken und Bedenken der Industrie über zu hohe Compliance-Kosten und Innovationshemmnisse auszuräumen. Während Wirtschaftsvertreter die Pläne als notwendigen Schritt begrüßen, um Innovationen in Europa nicht abzuwürgen, sind Bürgerrechts- und Datenschutzorganisationen alarmiert, weil sie davor warnen, dass diese Änderungen die Sicherheitsstandards aushöhlen und den Schutz der Bürger schwächen könnten.&lt;sup&gt;37&lt;br&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Der AI Act droht also operativ zu scheitern, noch bevor seine wichtigsten Bestimmungen für Hochrisiko-KI-Systeme im Jahr 2026 überhaupt in Kraft treten. Die Implementierung der vermeintlich einfacheren Governance- und GPAI-Regeln im Jahr 2025 sollte die Vorbereitungsphase sein. Diese ist in wesentlichen Teilen misslungen. Wenn die EU bereits an der Etablierung der Struktur scheitert, ist ernsthaft in Zweifel zu ziehen, wie sie 2026 die kommenden Inhalte durchsetzen will.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;McKinsey &amp;amp; Company: State of AI in Austria 2025. Wie Unternehmen ihre Produktivität und Wettbewerbsfähigkeit steigern. &lt;a href=&quot;https://www.mckinsey.com/de/~/media/mckinsey/locations/europe%20and%20middle%20east/austria/2025-09%20ki-reife%20oesterreich/mckinsey_ki%20in%20oesterreichs%20unternehmen_september%202025.pdf&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.mckinsey.com/de/~/media/mckinsey/locations/europe%20and%20middle%20east/austria/2025-09%20ki-reife%20oesterreich/mckinsey_ki%20in%20oesterreichs%20unternehmen_september%202025.pdf&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[1] CMS: Durchsetzung der KI-VO auf europäischer Ebene: EU AI Office. In: &lt;a href=&quot;https://www.cmshs-bloggt.de/rechtsthemen/kuenstliche-intelligenz/durchsetzung-der-ki-vo-auf-europaeischer-ebene-das-eu-ai-office/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.cmshs-bloggt.de/rechtsthemen/kuenstliche-intelligenz/durchsetzung-der-ki-vo-auf-europaeischer-ebene-das-eu-ai-office/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[2,9] Peters, Salome: EU-Kommission veröffentlicht Leitlinien zu verbotenen KI-Systemen. In: &lt;a href=&quot;https://www.vdma.eu/viewer/-/v2article/render/140182315&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.vdma.eu/viewer/-/v2article/render/140182315&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[3,4] Amman, Thorsten; Achnitz, Florian; Tobey, Danny; Stokes Gareth; Dauzier, Jeanne; Darling, Coran &amp;amp; Blackford, Liam: Latest wave of obligations under the EU AI Act take effect: Key considerations. In: &lt;a href=&quot;https://www.dlapiper.com/en-us/insights/publications/2025/08/latest-wave-of-obligations-under-the-eu-ai-act-take-effect&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.dlapiper.com/en-us/insights/publications/2025/08/latest-wave-of-obligations-under-the-eu-ai-act-take-effect&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[5] Bitkom e.V.: Umsetzungsleitfaden zur KI-Verordnung. In: &lt;a href=&quot;https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[6] EU Artificial Intelligence Act: Zeitplan für die Umsetzung. In: &lt;a href=&quot;https://artificialintelligenceact.eu/de/implementation-timeline/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://artificialintelligenceact.eu/de/implementation-timeline/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[7,12,22] IAPP: Navigate 2025: Potential EU AI Act pause opens new questions on approach to global regulation. In: &lt;a href=&quot;https://iapp.org/news/a/navigate-2025-potential-eu-ai-act-pause-opens-new-questions-on-approach-to-global-regulation&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://iapp.org/news/a/navigate-2025-potential-eu-ai-act-pause-opens-new-questions-on-approach-to-global-regulation&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[8,26] Grensemann, René: Deutschland verpasst AI-Act-Frist: Keine Aufsichtsbehörde benannt. In: &lt;a href=&quot;https://www.aiact-akademie.de/aktuelles/deutschland-verpasst-ai-act-frist-keine-aufsichtsbehoerde&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.aiact-akademie.de/aktuelles/deutschland-verpasst-ai-act-frist-keine-aufsichtsbehoerde&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[10] AlgorithmWatch: Leitlinien zum „AI Act“: Kritik aus der Zivilgesellschaft. In: &lt;a href=&quot;https://algorithmwatch.org/de/leitlinien-zum-ai-act-kritik-aus-der-zivilgesellschaft/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://algorithmwatch.org/de/leitlinien-zum-ai-act-kritik-aus-der-zivilgesellschaft/#&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[11,30] One Trust Data Guidance: Spain: AEPD announces that it can act against prohibited AI systems that process personal data. In: &lt;a href=&quot;https://www.dataguidance.com/news/spain-aepd-announces-it-can-act-against-prohibited-ai&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.dataguidance.com/news/spain-aepd-announces-it-can-act-against-prohibited-ai&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[13] Europäische Kommission: Der General-Purpose AI Code of Practice (KI-Verhaltenskodex für allgemeine Zwecke). In: &lt;a href=&quot;https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[14,17] Google: We will sign the EU AI Code of Practice. In: &lt;a href=&quot;https://blog.google/around-the-globe/google-europe/eu-ai-code-practice/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://blog.google/around-the-globe/google-europe/eu-ai-code-practice/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[15] Grensemann, René: Microsoft an der Spitze. Tech-Riese befürwortet EU-Verhaltenskodex für KI. In: &lt;a href=&quot;https://www.aiact-akademie.de/aktuelles/microsoft-unterstuetzt-ai-pakt&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.aiact-akademie.de/aktuelles/microsoft-unterstuetzt-ai-pakt&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[16] Grensemann, René: Google biegt auf EU-Kurs ab, Meta wählt die Konfrontation. In: &lt;a href=&quot;https://www.aiact-akademie.de/aktuelles/google-unterzeichnet-ai-act&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.aiact-akademie.de/aktuelles/google-unterzeichnet-ai-act&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[18,19] Lundy, Jim: Meta vs. Brussels: Why the Social Media Giant Said ‘No’ to the EU AI Pact. In: &lt;a href=&quot;https://aragonresearch.com/meta-said-no-to-eu-ai-pact/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://aragonresearch.com/meta-said-no-to-eu-ai-pact/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[20] CCIA: AI Act: EU’s Final GPAI Code Imposes Disproportionate Burden, Improvements Required. In: &lt;a href=&quot;https://ccianet.org/news/2025/07/ai-act-eus-final-gpai-code-imposes-disproportionate-burden-improvements-required/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://ccianet.org/news/2025/07/ai-act-eus-final-gpai-code-imposes-disproportionate-burden-improvements-required/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[21] Grensemann, René: AI Act: Deutschlands Zerreißprobe. Zwischen Fristchaos und Industrierevolte. In: &lt;a href=&quot;https://www.aiact-akademie.de/aktuelles/ai-act-deutsche-zerreissprobe-regulierung-vs-industrie&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.aiact-akademie.de/aktuelles/ai-act-deutsche-zerreissprobe-regulierung-vs-industrie&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[23,24] EU Artificial Intelligence Act: Überblick über alle nationalen Umsetzungspläne des AI-Gesetzes. In: &lt;a href=&quot;https://artificialintelligenceact.eu/de/national-implementation-plans/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://artificialintelligenceact.eu/de/national-implementation-plans/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[25] McKinsey &amp;amp; Company: State of AI in Austria 2025 Wie Unternehmen ihre Produktivität und Wettbewerbsfähigkeit steigern. September 2025. In: &lt;a href=&quot;https://www.mckinsey.com/de/~/media/mckinsey/locations/europe%20and%20middle%20east/austria/2025-09%20ki-reife%20oesterreich/mckinsey_ki%20in%20oesterreichs%20unternehmen_september%202025.pdf&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.mckinsey.com/de/~/media/mckinsey/locations/europe and middle east/austria/2025-09 ki-reife oesterreich/mckinsey_ki in oesterreichs unternehmen_september 2025.pdf&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[27] Barbiero, Adelaide; Campasso, Biancamaria; Cipriani, Augusto; Di Cillo, Roberto &amp;amp; Scelta, Daniele: Trust at the core: Italy’s first comprehensive AI Law and its impact on the professional practice. In: Trust at the core: Italy’s first comprehensive AI Law and its impact on the professional practice - MediaLaws&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[28] Norton Rose Fulbright LLP: Italy enacts Law No. 132/2025 on Artificial Intelligence: Sector rules and next steps. In: &lt;a href=&quot;https://www.nortonrosefulbright.com/en/knowledge/publications/9bfedfea/italy-enacts-law-no-132-2025-on-artificial-intelligence-sector-rules-and-next-steps&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.nortonrosefulbright.com/en/knowledge/publications/9bfedfea/italy-enacts-law-no-132-2025-on-artificial-intelligence-sector-rules-and-next-steps&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[29] One Trust Data Guidance: France: Ministry announces national oversight plan for AI regulation. In: &lt;a href=&quot;https://www.dataguidance.com/news/france-ministry-announces-national-oversight-plan-ai&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.dataguidance.com/news/france-ministry-announces-national-oversight-plan-ai&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[31] Crum, Ben: Brussels effect or experimentalism? The EU AI Act and global standard-setting. Internet Policy Review 14.3 (2025). In: &lt;a href=&quot;https://policyreview.info/articles/analysis/brussels-effect-or-experimentalism&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://policyreview.info/articles/analysis/brussels-effect-or-experimentalism&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[32] DIN e. V.: AI Action Summit 2025: Europa im Zentrum der KI-Debatte. In: &lt;a href=&quot;https://www.din.de/de/din-und-seine-partner/presse/mitteilungen/ai-action-summit-2025-1200068&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.din.de/de/din-und-seine-partner/presse/mitteilungen/ai-action-summit-2025-1200068&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[33] Kästle, Vincent M. &amp;amp; Wolfenstätter, Tobias: The US Innovates, the EU Regulates? Contrasting Approaches to AI Regulation Across the Atlantic. In: &lt;a href=&quot;https://www.dajv.de/ai-act/the-us-innovates-the-eu-regulates-contrasting-approaches-to-ai-regulation-across-the-atlantic/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.dajv.de/ai-act/the-us-innovates-the-eu-regulates-contrasting-approaches-to-ai-regulation-across-the-atlantic/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[34] Heynike, Francois: AI Act und generative KI: Was Unternehmen jetzt wissen sollten. In: AI Act und generative KI: Was Unternehmen jetzt wissen sollten&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[35] Europäische Kommission: Europäischer Ansatz für künstliche Intelligenz. In: &lt;a href=&quot;https://digital-strategy.ec.europa.eu/de/policies/european-approach-artificial-intelligence&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://digital-strategy.ec.europa.eu/de/policies/european-approach-artificial-intelligence&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[36] Grensemann, René: Die große KI-Kompetenzlücke. Bitkom-Studie: 70% der Firmen ignorieren Schulungspflicht. In: &lt;a href=&quot;https://www.aiact-akademie.de/aktuelles/bitkom-umfrage-ki-schulungspflicht&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.aiact-akademie.de/aktuelles/bitkom-umfrage-ki-schulungspflicht&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[37] Moens, Barbara: EU set to water down landmark AI act after Big Tech pressure. Artikel Financial&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Zeitplan für die Umsetzung des AI Acts, siehe: &lt;a href=&quot;https://artificialintelligenceact.eu/de/implementation-timeline/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://artificialintelligenceact.eu/de/implementation-timeline/&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Zeitplan als Bild, siehe &lt;a href=&quot;https://artificialintelligenceact.eu/wp-content/uploads/2024/08/AIA-Implementation-Timeline-1-August-2024-v2.png&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://artificialintelligenceact.eu/wp-content/uploads/2024/08/AIA-Implementation-Timeline-1-August-2024-v2.png&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/der-ai-act-im-jahr-2025-was-bisher-geschah" /><updated>2025-12-23T09:33:00+00:00</updated><id>https://www.seqis.com/de/blog/der-ai-act-im-jahr-2025-was-bisher-geschah</id><author><name>Alexander Lewisch</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Lewisch-3.png" type="image/png" /></entry><entry><title>Tschüss Cloud, Hallo Souveränität: die Technologie hinter Local AI</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;Tschüss Cloud, Hallo Souveränität: die Technologie hinter Local AI&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/e/QN2-2025_Branduber-1-3c41ab31.png&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;Künstliche Intelligenz / Artificial Intelligence überflutet alle Märkte. Überall findet man AI - im Kinderspielzeug genauso wie im Navigationssystem des neuen Autos, in medizinischen Betrieben, Industriefabriken, Zentren für Forschung und Entwicklung, und natürlich auch in der Weiterbildung. Je mehr AI unser Leben und die dahinter laufenden digitalen Prozesse durchdringt, desto weniger haben wir die Kontrolle darüber. Fragen, die wir uns im Kontext stellen sollten:. Welche AI sieht sich meine Daten an und zu welchem Zweck? Wo speichert diese AI die gesammelten Daten? Was mache ich, wenn “meine eigene” AI in der Cloud meine Daten herumreicht? Jahrelang war die Cloud die einzig wahre Lösung - losgelöst von allen Einschränkungen was Rechenleistung, Datenverfügbarkeit und Energieverbrauch betrifft, war es oft auch nur “cool und hip”, alles in die Cloud zu verlagern. Aber spätestens mit dem Boom der AI ändert sich der Fokus: wie kann ich sicherstellen, dass eine AI nicht irgendwo in der Welt herumläuft und meine Daten missbraucht? Wie kann ich die teils horrenden Kosten besser steuern, die eine Cloudlösung mit sich bringt?&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Hier betritt Local AI die Bühne.&lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;&lt;br&gt;I. Strategische Positionierung: Warum Local AI für Unternehmen relevant ist&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Local AI bezieht sich auf Künstliche Intelligenz-Modelle und -Anwendungen, die direkt auf einem Endgerät oder der lokalen Infrastruktur (wie z. B. einem Laptop, Desktop-PC, Smartphone, IoT-Gerät oder einem Server im eigenen Unternehmen) ausgeführt werden, anstatt sich auf externe Cloud-Server zu verlassen. Es ist das Gegenstück zur Cloud AI, bei der die Datenverarbeitung und die Inferenz (die Anwendung des Modells) auf entfernten Rechenzentren wie denen von OpenAI, Google oder Amazon Web Services stattfinden. Unternehmen, die AI nutzen möchten, stehen nun vor der grundlegenden Entscheidung, wo ihre AIs laufen sollen: in der Cloud oder lokal. Die Daten im eigenen Haus zu haben ist natürlich nicht der einzige Point of Interest: die steigende Bedeutung von lokalen AI-Modellen wird getrieben durch fundamentale Anforderungen an Geschwindigkeit, Kontrolle und Kostenstruktur.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Wann kommt Local AI zum Einsatz?&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Local AI ist besonders vorteilhaft für Anwendungsfälle, bei denen Datenschutz, Echtzeit-Reaktion und Unabhängigkeit kritisch sind:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Datenschutz: In Branchen wie Gesundheitswesen, Finanzen und Rechtswesen, wo vertrauliche Daten das Unternehmensnetzwerk nicht verlassen dürfen (z. B. lokale Analyse von Patientendaten).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Echtzeit-Anwendungen: Bei autonomen Fahrzeugen, industrieller Automatisierung oder Überwachungssystemen, die sofortige Entscheidungen ohne Verzögerung benötigen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Offline-Nutzung: Mobile Anwendungen, die in Gebieten mit schlechter oder keiner Internetverbindung funktionieren müssen (z. B. Übersetzungen, Bilderkennung).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Kostenkontrolle: Unternehmen mit sehr hohem und konsistenten Nutzungsvolumen, für welche die Pay-per-Use-Gebühren der Cloud zu teuer werden.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;I.a. Definition und Kernvorteile der lokalen AI&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Local AI bedeutet, dass die gesamte Datenverarbeitung direkt auf den lokalen Geräten oder Servern stattfindet. Dadurch werden die Kommunikationsverzögerungen und die Abhängigkeit von externen Cloud-Diensten vollständig eliminiert. Ein entscheidender Vorteil ist die extrem niedrige Latenz und damit die Echtzeitfähigkeit. Da keine Daten zur Verarbeitung in ein externes Rechenzentrum und zurück gesendet werden müssen, ist die lokale Ausführung signifikant schneller. Dies ist kritisch für industrielle Anwendungen, bei denen eine Reaktion innerhalb von Millisekunden erfolgen muss, um Betriebssicherheit und Effizienz zu gewährleisten. Die zweite Säule der lokalen AI ist die Datensouveränität und Kontrolle. Local AI stellt sicher, dass Unternehmen die vollständige Kontrolle über ihre AI-Modelle und alle verarbeiteten Daten behalten. Dies ist essenziell für den Schutz sensibler Informationen und die Einhaltung strenger Datenschutzvorschriften. Im Cloud-Modell mietet man Rechenressourcen, wobei die Datenkontrolle beim Cloud-Anbieter verbleibt.  In Bezug auf die Kostenstruktur verschiebt Local AI die Ausgaben, wenn man diese beschafft: statt dynamischer, wiederkehrender Betriebskosten fallen höhere einmalige Anfangsinvestitionen an. Die fortlaufenden Gebühren für Cloud-Speicherung, Datentransfer und Rechenleistung entfallen, da die Verarbeitung intern erfolgt. Viele aktuelle AI-Entwicklungen konzentrieren sich darauf, große Modelle zu optimieren, damit sie auch auf normaler Consumer-Hardware wie modernen Laptops effizient laufen können.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;I.b. Skalierbarkeit und Hybride Architekturen&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Die größte technische Herausforderung von Local AI ist die Skalierbarkeit. Während Cloud-Dienste dynamisch Kapazitäten mieten können, erfordert Local AI physische Hardware-Anpassungen, was komplexer und langsamer ist.  Daher sind hybride Architekturen oft eine gute Lösung. Sie nutzen die Vorteile beider Welten: Local AI sorgt für Datenschutz und Echtzeitverarbeitung, während Cloud AI Flexibilität und dynamische Skalierbarkeit für weniger latenzkritische Aufgaben bietet. Ein Szenario wäre etwa, dass die lokalen Geräte zeitkritische Entscheidungen selbst treffen, während die Cloud zur zentralen Optimierung der Modelle (z. B. durch das Training mit Daten) genutzt wird.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;table class=&quot;t1&quot; style=&quot;border-collapse: collapse; border-color: #000000; border-style: solid;&quot; border=&quot;1&quot; cellspacing=&quot;0&quot; cellpadding=&quot;0&quot;&gt; &lt;tbody&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Kriterium&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Local AI / On Premise&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Cloud AI / API-basiert&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Latenz&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Extrem niedrig, ideal für Echtzeit-Anwendungen&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Abhängig von Netzwerk; höher&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Datenkontrolle &amp;amp; Datenschutz&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Vollständige Kontrolle; Daten bleiben lokal&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Daten werden an&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Drittanbieter übertragen; Compliance-Risiko&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Kostenstruktur&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Hohe initiale Investitionen (CAPEX); niedrige laufende Kosten&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Niedrige initiale Investition; hohe, dynamische&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Betriebskosten (OPEX)&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Skalierbarkeit&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Erfordert physische&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Hardware-Anpassungen&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Dynamisch und elastisch; Kapazitäten einfach&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;mietbar&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;/tbody&gt; &lt;/table&gt; &lt;h3 class=&quot;p3&quot;&gt;&lt;br&gt;II. Die Kunst der Miniaturisierung: Modelloptimierung für lokale Hardware&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Moderne AI-Modelle, insbesondere Large Language Models (LLMs), sind oft von gigantischen Ausmaßen. Da lokale Hardware begrenzt ist, muss die Modellgröße demzufolge drastisch reduziert werden. Diese Miniaturisierung ist der Schlüssel zur praktischen Umsetzung von Local AI.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;II.a. Pruning: Die Entfernung von Redundanzen&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Beim Pruning (Beschneiden) wird das neuronale Netz „ausgemistet“. Es basiert auf der Erkenntnis, dass viele Parameter in einem AI-Modell unnötig sind, weil sie nicht oder kaum zur Entscheidungsfindung beitragen. Pruning entfernt diese unnötigen Teile, wodurch das Modell kleiner, schneller und effizienter wird. Man unterscheidet zwischen&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Unstrukturiertes Pruning:&lt;/span&gt;&lt;/span&gt; Entfernt einzelne, unwichtige Parameter (Gewichte). Das Ergebnis ist zwar sehr kompakt, erfordert aber spezialisierte Hardware, um wirklich schneller zu laufen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Strukturiertes Pruning:&lt;/span&gt;&lt;/span&gt; Entfernt ganze Komponenten (wie komplette Neuronen oder Layer). Dies ist hardwarefreundlicher, da die resultierende Architektur besser mit Standard-GPUs zusammenarbeitet und die Geschwindigkeit direkt verbessert.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;II.b. Quantisierung: Die Vereinfachung der Zahlen&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Quantisierung reduziert die Präzision der im Modell verwendeten Zahlen. AI-Modelle nutzen standardmäßig hochpräzise 32-Bit-Zahlen (FP32), was viel Speicher und Rechenzeit benötigt. Quantisierung rundet diese auf kleinere, einfachere Repräsentationen (z.B. 8-Bit- oder 4-Bit-Ganzzahlen) ab. Dies senkt den Speicherbedarf und den Rechenaufwand drastisch.  &lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Der Kompromiss liegt zwischen Kompression und Genauigkeit:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;8-Bit Quantization (INT8):&lt;/span&gt; &lt;/span&gt;Reduziert den Speicherbedarf bei nur minimalem Genauigkeitsverlust. Dies ist ideal für Server-Setups, bei denen hohe Präzision erforderlich ist.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;4-Bit Quantization (INT4):&lt;/span&gt; &lt;/span&gt;Ermöglicht eine umfassende Speichereinsparung und beschleunigt die Verarbeitung massiv. Der Nachteil ist ein merklicherer Genauigkeitsabfall - dies wird für Edge-Geräte oder Consumer-GPUs mit sehr begrenztem Speicher genutzt.  &lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;Quantisierungsstrategien&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Post-Training Quantization (PTQ): &lt;/span&gt;Die Quantisierung wird auf ein bereits fertig trainiertes Modell angewandt. Dies ist die schnellste und einfachste Methode, kann aber einen Genauigkeitsverlust verursachen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Quantization-Aware Training (QAT):&lt;/span&gt; Die Quantisierungsoperationen werden in den Trainingsprozess integriert. Das Modell lernt, sich auf die reduzierte Präzision einzustellen. QAT liefert bessere Ergebnisse, erfordert aber signifikant mehr Rechenressourcen und Zugang zu repräsentativen Trainingsdaten.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;II.c. Knowledge Distillation (KD): Der Lehrer-Schüler-Ansatz&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Knowledge Distillation ist eine Strategie, bei der das Wissen von einem großen, leistungsstarken „Lehrer“-Modell auf ein kleineres, effizienteres „Schüler“-Modell übertragen wird. Der Schüler lernt, die Ausgaben des Lehrers nachzuahmen. Dadurch kann er eine ähnliche oder höhere Genauigkeit erzielen, ohne so viel Rechenkapazität zu beanspruchen.  Dies ist ein kosteneffektives Verfahren, um leistungsstarke, aber kleinere Modelle aus einem initialen, größeren Geschwistermodell abzuleiten.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;table class=&quot;t1&quot; style=&quot;border-collapse: collapse; border-color: #000000; border-style: solid;&quot; border=&quot;1&quot; cellspacing=&quot;0&quot; cellpadding=&quot;0&quot;&gt; &lt;tbody&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Technik&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Funktionsweise&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Speichereinsparung &lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;(LLM-Fokus)&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Genauigkeit &lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;(Trade-off)&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;4-Bit &lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Quantisierung&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Reduziert&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Präzision auf 4 Bits (INT4)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Bis zu 75%&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Reduktion&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Genauigkeitsverlust&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;8-Bit &lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Quantisierung&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Reduziert&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Präzision auf 8 Bits (INT8)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Etwa 50%&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Reduktion&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Genauigkeitsverlust&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Strukturiertes Pruning&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Entfernt ganze Komponenten (Neuronen/Heads)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Variabel (bis zu 50% in LLMs)&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Beibehaltung (bei 50% Reduktion)&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;tr&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Knowledge &lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Distillation&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Kleines Modell lernt von großem Modell&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Reduziert Modellgröße signifikant&lt;/p&gt; &lt;/td&gt; &lt;td class=&quot;td1&quot; valign=&quot;middle&quot;&gt; &lt;p class=&quot;p2&quot;&gt;Kann ähnliche&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Genauigkeit wie der Lehrer&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;erreichen&lt;/p&gt; &lt;/td&gt; &lt;/tr&gt; &lt;/tbody&gt; &lt;/table&gt; &lt;h3 class=&quot;p4&quot;&gt;&lt;br&gt;III. Die Laufzeitumgebung: Inference Engines und Software-Stack&lt;/h3&gt; &lt;p class=&quot;p3&quot;&gt;Nach der Optimierung muss das AI-Modell effizient auf der Zielhardware ausgeführt werden. Hierfür sind spezialisierte Software-Infrastrukturen – die Inferenz-Engines – notwendig. Sie sorgen für niedrige Latenzzeiten und einen hohen Durchsatz (gemessen in Tokens pro Sekunde).&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;III.a. Modell-Compiler und Interoperabilität&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Modelle aus Trainings-Frameworks sind selten direkt für die Inferenz auf lokalen Geräten optimiert. Sie müssen kompiliert werden, um die maximale Effizienz der lokalen Hardware zu nutzen. Wichtige Formate und Laufzeitumgebungen (Compiler) hierfür sind etwa das ONNX-Format (Open Neural Network Exchange), das von Engines wie NVIDIAs TensorRT LLM genutzt wird, oder TFLite und Edge AI Suites. Die Inferenz-Engine ist die kritische Komponente, da sie die hardwarespezifischen Optimierungen vornimmt und somit die Geschwindigkeit der lokalen AI verbessert.  &lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;III.b. Verteilte und skalierbare Lokale Inferenz&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Um die Skalierbarkeitsprobleme lokaler Hardware zu umgehen, nutzen fortschrittliche Engines Peer-to-Peer (P2P) Netzwerke zur sicheren und privaten Verteilung von Inferenzanfragen über mehrere lokale Server hinweg.  &lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Zwei Modi der verteilten Inferenz sind wichtig:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Federated Mode (Data Parallelism / Datenparallelität):&lt;/span&gt;&lt;/span&gt; Anfragen werden vom Lastverteiler an einen einzigen Worker Node im Cluster weitergeleitet. Dies dient der einfachen Lastverteilung über mehrere gleichartige Server.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Worker Mode (Model Sharding / Modellparallelität):&lt;/span&gt;&lt;/span&gt; Das AI-Modell wird in Teile zerlegt und auf verschiedene Worker Nodes aufgeteilt. Alle Worker bearbeiten die Anfrage gemeinsam. Dies ist die Lösung, um Modelle, die zu groß für eine einzelne GPU sind, dennoch lokal betreiben zu können.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p4&quot;&gt;IV. Der Hardware-Engpass: Spezielle Anforderungen an lokale Infrastruktur&lt;/h3&gt; &lt;p class=&quot;p3&quot;&gt;Bei Local AI diktiert die physikalische Größe der Modellgewichte die Hardware-Wahl. Der entscheidende Engpass ist nicht die reine Rechenleistung, sondern der Speicher und dessen Geschwindigkeit (Bandbreite).  &lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;Der Dreiklang: CPU, GPU und NPU&lt;/h4&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;GPU (Graphics Processing Unit):&lt;/span&gt;&lt;/span&gt; Der Standardbeschleuniger für das Training großer Modelle und die Inferenz mit hohem Durchsatz.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;NPU (Neural Processing Unit):&lt;/span&gt; &lt;/span&gt;Speziell entwickelte Chips, optimiert für AI-Inferenz mit maximaler Energieeffizienz und niedrigstem Stromverbrauch.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;CPU (Central Processing Unit):&lt;/span&gt; &lt;/span&gt;Dient als Fallback. Sie kann sehr große Modelle ausführen, die nicht in den VRAM passen, indem sie auf den langsameren System-RAM zugreift. Dies ist ein langsamer, aber notwendiger Notfall-Betriebsmodus.  &lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;V.a Der Deployment-Workflow für lokale AI&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Die Implementierung von Local AI folgt einem strukturierten Prozess und eröffnet spezifische Anwendungsfelder:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;Datenerfassung und -vorbereitung.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Modelltraining und Fine-Tuning (Anpassung des Modells an spezifische Unternehmensdaten).&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Optimierung: Reduzierung von Größe und Ressourcenverbrauch durch Quantisierung und Pruning.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Kompilierung und Validierung: Das optimierte Modell wird für die Zielhardware kompiliert.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Bereitstellung: Ausrollen des kompilierten Modells auf die lokale Infrastruktur oder Endgeräte.  &lt;/li&gt; &lt;/ul&gt; &lt;h4 class=&quot;p3&quot;&gt; &lt;/h4&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;V.b. Geschäftliche Anwendungsfälle im Industrial IoT (IIoT)&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Local AI ist ein wesentlicher Treiber für die digitale Transformation in der Industrie:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;Echtzeit-Entscheidungsfindung: Die lokale Verarbeitung von Daten in Produktionsumgebungen reduziert Reaktionszeiten und ist entscheidend für die Sicherheit und Automatisierung.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;Dateneffizienz: Durch lokale Filterung und Komprimierung der Rohdaten reduziert Edge Computing das zu übertragende Datenvolumen signifikant. Nur die vorverarbeiteten, relevanten Informationen werden an höhere Systeme gesendet, was Netzwerklasten und Kommunikationskosten senkt.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p4&quot;&gt;VI. Ausblick und zukünftige technologische Treiber&lt;/h3&gt; &lt;p class=&quot;p3&quot;&gt;Die technologische Entwicklung in Local AI zielt darauf ab, die Leistung lokal betriebener LLMs weiter zu steigern, insbesondere durch die Überwindung des Speicherengpasses.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;VI.a. Hardware-Innovationen zur Überwindung des Speicherengpasses&lt;/h4&gt; &lt;ul&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;Unified Memory Architekturen:&lt;/span&gt; &lt;/span&gt;Zukünftige Systeme werden einen hochintegrierten Speicherpool verwenden. Obwohl die Speicherbandbreite weiterhin der Hauptengpass bleibt, ermöglicht diese Integration die Ausführung von Modellen, die auf herkömmlichen Desktop-Systemen nicht funktionieren würden.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Architekturwandel:&lt;/span&gt;&lt;/span&gt; Im Edge Computing verschieben sich die Architekturen von General Purpose GPUs hin zu anwendungsspezifischen integrierten Schaltungen (ASICs), die speziell für AI-Workloads optimiert sind. Ein ASIC kann nur die eine Aufgabe, für die er gebaut wurde. Er kann nichts anderes. Aber diese eine Aufgabe erledigt er unschlagbar schnell und mit extrem niedrigem Energieverbrauch (siehe auch NPUs).&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;VI.b. Algorithmen für Sparse Computation&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Die Rechenkosten steigen stark mit der Größe des Kontextes (Textlänge). “Sparse Attention” ist ein Ansatz, bei dem das Modell nur auf die wichtigsten Teile des Kontexts schaut. Neue Forschung, wie Native Sparse Attention (NSA), integriert diese algorithmischen Verbesserungen mit hardware-optimierten Implementierungen. Dies ermöglicht Geschwindigkeitssteigerungen und die Verarbeitung von sehr langen Texten in lokal betriebenen LLMs.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Brandhuber-2.png&quot; alt=&quot;&quot; width=&quot;400&quot; height=&quot;400&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/p&gt; &lt;h3 class=&quot;p2&quot;&gt;&lt;br&gt;VII. Zusammenfassung und strategische Implikationen&lt;/h3&gt; &lt;p class=&quot;p1&quot;&gt;Local AI ist die beste Lösung für Unternehmen, die absolute Datenkontrolle, regulatorische Compliance und minimale Latenz benötigen. Technologisch basiert die Machbarkeit auf drei Säulen:&lt;/p&gt; &lt;ol&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Miniaturisierung:&lt;/span&gt;&lt;/span&gt; Quantisierung (Zahlen vereinfachen) und Pruning (unnötige Teile entfernen) sind notwendig, um große Modelle auf bezahlbarer Hardware lauffähig zu machen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Inferenz-Engines:&lt;/span&gt;&lt;/span&gt; Spezialisierte Software (z.B. TensorRT) maximiert die Leistung der Hardware.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Hardware-Priorität:&lt;/span&gt;&lt;/span&gt; Bei der Beschaffung sind die Speicherkapazität und die Speicherbandbreite wichtiger als die reine Rechenleistung, da diese die maximale Modellgröße und die effektive Geschwindigkeit bestimmen.  &lt;/li&gt; &lt;/ol&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Dieser Artikel stellt nur einen kleinen Einblick in die Technologie hinter Local AI dar. Auf den ersten Blick mag diese technologische Tiefe, von der komplexen Modelloptimierung bis hin zur Verwaltung verteilter Infrastrukturen, unglaublich komplex wirken und hohe Anforderungen an die interne IT stellen. Dennoch ist Local AI nicht nur eine Nischenlösung, sondern wird für viele Unternehmen, die AI strategisch und datenschutzkonform nutzen möchten, in Zukunft ein zu überlegender Faktor sein. Wer die AI-gestützte digitale Transformation anführen und gleichzeitig die Kontrolle über seine kritischsten Assets behalten will, muss sich mit der Komplexität der Local AI auseinandersetzen, um die Wettbewerbsfähigkeit des Unternehmens langfristig zu sichern.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[1]&lt;/sup&gt; &lt;a href=&quot;https://www.newline.co/@zaoyang/4-bit-vs-8-bit-quantization-key-differences--842272c7&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.newline.co/@zaoyang/4-bit-vs-8-bit-quantization-key-differences--842272c7&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://www.mind-verse.de/post/ki-fuer-pruning-neuronale-netzwerk-optimierung&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.mind-verse.de/post/ki-fuer-pruning-neuronale-netzwerk-optimierung&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://medium.com/@shmilysyg/model-compression-pruning-quantization-distillation-and-binarization-7710ac954567&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://medium.com/@shmilysyg/model-compression-pruning-quantization-distillation-and-binarization-7710ac954567&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://medium.com/@yugank.aman/knowledge-distillation-for-llms-techniques-and-applications-e23a17093adf&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://medium.com/@yugank.aman/knowledge-distillation-for-llms-techniques-and-applications-e23a17093adf&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/tschuess-cloud-hallo-souveraenitaet" /><updated>2025-12-23T08:47:00+00:00</updated><id>https://www.seqis.com/de/blog/tschuess-cloud-hallo-souveraenitaet</id><author><name>Martin Brandhuber</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Branduber-1.png" type="image/png" /></entry><entry><title>Local AI: Vorteile / Nachteile</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;             &lt;h3&gt;Local AI: Vorteile / Nachteile&lt;/h3&gt;                    &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/2/QN2-2025_Ahmed-3-a375b2ee.png&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern Teil unseres Arbeitsalltags. Meist nutzen wir KI in der Cloud – also über Dienste großer Anbieter. Doch immer häufiger wird die Frage gestellt: Sollte KI nicht auch lokal betrieben werden? Diese sogenannte Local AI bringt interessante Vorteile, aber auch klare Herausforderungen mit sich&lt;sup&gt;[1]&lt;/sup&gt;.&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;Was bedeutet Local AI?&lt;/h3&gt; &lt;p class=&quot;p4&quot;&gt;Unter Local AI versteht man den Betrieb von KI-Modellen direkt auf der eigenen Hardware – etwa auf Firmenservern oder leistungsstarken Workstations – statt in einer externen Cloud.&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Das können kleine Sprachmodelle sein, die auf einem Laptop laufen, oder komplexere Lösungen auf Servern mit starker GPU-Unterstützung.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p3&quot;&gt;Vorteile von Local AI&lt;/h3&gt; &lt;ol&gt; &lt;li class=&quot;p5&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Datensicherheit &amp;amp; Privatsphäre &lt;/strong&gt;&lt;/span&gt;Sensible Daten verlassen das eigene Unternehmen / Einflusssphäre nicht. Damit entfällt das Risiko, dass Informationen durch Cloud-Anbieter gespeichert oder ausgewertet werden könnten.&lt;sup&gt;[3]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Unabhängigkeit von externen Hosting-Partnern&lt;/strong&gt;&lt;br&gt;Keine Abhängigkeit von Preismo&lt;/span&gt;dellen und -anpassungen, Nutzungsgrenzen oder möglichen Ausfällen externer Services.&lt;sup&gt;[1]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;strong&gt;Offline-Funktionalität&lt;/strong&gt;&lt;br&gt;Local AI kann auch ohne Internetverbindung genutzt werden – z. B. in abgeschotteten Netzwerken oder bei mobilen Einsätzen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;strong&gt;Schnelligkeit&lt;/strong&gt;&lt;br&gt;Da keine Übertragung ins Internet notwendig ist, entfallen Netzwerklatenzen.&lt;sup&gt;[2]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p1&quot;&gt;&lt;strong&gt;Anpassbarkeit&lt;/strong&gt;&lt;br&gt;Modelle lassen sich speziell auf die eigenen Daten trainieren (Fine-Tuning). Damit können individuelle, stets gleiche Lösungen entstehen, die ein Cloud-Service nicht abdeckt.&lt;/li&gt; &lt;/ol&gt; &lt;p&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Nachteile von Local AI&lt;/strong&gt;&lt;/h3&gt; &lt;ol&gt; &lt;li class=&quot;p3&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Hoher Hardware-Bedarf&lt;/strong&gt;&lt;br&gt;&lt;/span&gt;Moderne Sprachmodelle benötigen GPUs, viel RAM und Speicher. Diese Anschaffung ist teuer.&lt;sup&gt;[2]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p3&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Wartung &amp;amp; Betrieb&lt;/strong&gt;&lt;br&gt;&lt;/span&gt;Updates, Sicherheitspatches und Modellpflege liegen in der Verantwortung des Unternehmens.&lt;sup&gt;[1]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p3&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Begrenzte Skalierbarkeit&lt;/strong&gt;&lt;br&gt;&lt;/span&gt;Während Cloud-Dienste flexibel Ressourcen bereitstellen, stößt lokale Hardware schnell an ihre Grenzen, wenn viele Nutzer gleichzeitig zugreifen.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;li class=&quot;p3&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Energieverbrauch&lt;/strong&gt;&lt;br&gt;&lt;/span&gt;Eigenbetrieb bedeutet zusätzlichen Strombedarf und damit höhere Betriebskosten - wobei man diese den externen Kosten gegenüberstellen müsste.&lt;sup&gt;[3]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;Funktionsumfang&lt;br&gt;&lt;/strong&gt;&lt;/span&gt;Viele Cloud-Dienste bieten Features (z. B. multimodale Modelle, automatische Skalierung), die lokal nur schwer verfügbar sind.&lt;/li&gt; &lt;/ol&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Ahmed-3.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;500&quot;&gt;&lt;/h3&gt; &lt;p&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/p&gt; &lt;p&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Wann lohnt sich Local AI?&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Local AI eignet sich besonders für Unternehmen, bei denen Datenschutz und Kontrolle im Vordergrund stehen – z.B. im Gesundheitswesen, in Banken oder in Behörden, oder Unternehmen, die auf Wiederholbarkeit und Stabilität hohen Wert legen.&lt;sup&gt;[1]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Für Firmen ohne hohe Sicherheitsanforderungen oder ohne große Hardware-Ressourcen ist die Cloud oft praktischer und günstiger.&lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Ahmed-2.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;334&quot;&gt;&lt;/strong&gt;&lt;/h3&gt; &lt;p&gt;Quelle: Bild generiert von Canva&lt;/p&gt; &lt;p&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Fazit&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Local AI ist kein Ersatz für Cloud-Angebote, sondern eine Ergänzung. In vielen Szenarien wird ein Hybrid-Ansatz die beste Lösung sein: Vertrauliche Daten werden lokal verarbeitet, während allgemeine Anwendungsfälle in der Cloud bleiben. So profitieren Unternehmen von beiden Welten.&lt;sup&gt;[2]&lt;/sup&gt;&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[1] Heise Online: „Lokale KI-Modelle im Einsatz“ (2024)&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[2] Gartner Report: „AI Infrastructure Trends“ (2023)&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;[3] Open Source Initiative: „On-Premise AI and Privacy“ (2023)&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/local-ai-vorteile-nachteile" /><updated>2025-12-22T13:09:00+00:00</updated><id>https://www.seqis.com/de/blog/local-ai-vorteile-nachteile</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/QN2-2025_Ahmed-3.png" type="image/png" /></entry><entry><title>razzfazz.io pflanzt Bäume</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                      &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/5/razzfazz-Baum-af0d8b25.png&quot; width=&quot;400&quot; height=&quot;295&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: https://tree-nation.com/de/profil/razzfazzio&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;Als Entwickler:in verwendet man täglich unterschiedlichste Software, wahrscheinlich mehr als die meisten anderen Nutzer:innen. Durch das Erleben zweier Perspektiven – Nutzung und Entwicklung – erlebt man auch mehr als bei dem Rest der Verwender, das Stoßen auf Probleme oder schlicht Ärgernisse, die einem die Benutzung erschweren.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die Kehrseite davon ist, dass man auch aktiv Einfluss darauf nehmen kann und die Software, die man verwendet, analysieren und verbessern kann. Nichts ist ein besseres Beispiel davon, als unser hauseigener SEQITracker*, den wir alle verwenden und für dessen Umsetzung und Wartung wir verantwortlich sind. Wenn wir Schwierigkeiten und Unstimmigkeiten bei der Nutzung entdecken, oder rückgemeldet bekommen, setzen wir uns zusammen und arbeiten daran.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Ähnlich ist es für die VS Code Extension: GitLab Workflow&lt;sup&gt;[1]&lt;/sup&gt; abgelaufen. Die Integration von GitLab Merge Requests&lt;sup&gt;[2]&lt;/sup&gt; in unseren Standardablauf hat bedeutet, dass wir auch ohne Context-Switching aus der IDE weiter Code Reviews durchführen wollten. Dem hat GitLab mit der Entwicklung der eigenen VS Code Extension abgeholfen, die einen Großteil von Features des Web-UIs abdeckt. Leider wurde aber nie eine vollständige Feature-Parity erreicht und besonders das Verfassen von Reviews aus den VS Code Webviews ist nicht vergleichbar mit dem Komfort und den Möglichkeiten des Web Äquivalents.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die Recherche zu Alternativen oder Lösungen blieb fruchtlos; so entstand die Idee, eine zeitliche begrenzte Entwicklung eines der fehlenden Features selber umzusetzen zu versuchen. Die Einsicht, wie stark die andauernde Nachfrage nach spezifisch dieser Funktionalität ist, hat dieses Commitment nur bestärkt.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;Problem&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Die Ausgangslage ist in bestehenden Issues bereits ausführlich diskutiert, mein Fokus war beschränkt auf:&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Review und Draft-Notes Feature für GL Workflow&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Unterstützung für Draft Notes, die in GitLab als Entwürfe gespeichert werden können&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Darstellung und visuelle Unterscheidung dieser in der Code-Review Ansicht&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;Für die Umsetzung war es erforderlich, den bislang ausschließlich auf die Verarbeitung von GraphQL-Objekten ausgelegten Code zu erweitern – wie in den folgenden Punkten näher beschrieben.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;em&gt;Optimierung des API-Handlings &lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Einführung einer diskriminierten Union zwischen Nachrichten der API, die als GQL und JSON übermittelt werden&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Konditionelles Abhandeln dieser in UI&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;Die genauen Anforderungen und Schwierigkeiten haben sich im Laufe der Diskussion mit den Maintainern ergeben.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;Strategie&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Der Großteil des Entwicklungsaufwands bestand aus der Analyse der bestehenden Codebasis, sowie der GitLab-API und der Anbindung an diese. GitLab verfolgt dabei eine hybride Architektur und bietet eine klassische nach OpenAPI spezifizierte REST API, sowie auch eine versionslose GRAPHQL API, an. Für die Umsetzung ist diese Unterscheidung relevant geworden: Die Draft Notes werden nur von der REST API unterstützt.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Initial war mein Ansatz, nicht abgegebene Kommentare (= Draft Notes) lokal, in Memory zu halten und nach entsprechender Interaktion des Users zusammen (= in Batch) an die API zu posten. Der erste Stand meiner Entwicklung, der noch diese Strategie verfolgte und als PoC von dem verantwortlichen GitLab Maintainer unter die Lupe genommen wurde, war zu komplex und zu umständlich, um so übernommen zu werden. Nach Rücksprache wurde meine andere Konzeption bevorzugt: einen „API-First“ Approach.  Die Verwendung der Draft Notes API hilft dabei, nicht für jeden einzeln veröffentlichten Kommentar Benachrichtigungen für alle an der Review beteiligten Nutzer auszulösen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Wie bereits oben bei der Problemstellung erwähnt, hat die Lösung mit Draft Notes zu Folge, dass der gesamte Code für das Fetchen, Konvertieren und Darstellen von Kommentaren und Diskussion für Draft Notes angepasst werden muss.  So ist nun der jetzige Status der Umsetzung. Nach dem Fertigstellen der Unterscheidung und meiner Anfrage wird ein Ablauf losgetreten, in dem mein Beitrag aus Code und UX Perspektiven evaluiert wird.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/GitLab_Screenshot.jpeg&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;117&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;Abbildung 2: Auch ist es nicht geplant Draft Notes über die GraphQL API anzubieten (Quelle: https://gitlab.com/gitlab-org/gitlab-vscode-extension/-/merge_requests/2390)&lt;/sup&gt;&lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;&lt;br&gt;Code, der wächst&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Zum springenden Punkt, wie das bisher diskutierte nun Nachhaltigkeit bedeutet und was es mit den Bäumen auf sich hat:&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Indem man Features verbessert, Bugs fixed oder an neuen Funktionen arbeitet, sammelt man automatisch Punkte. Anstatt sie für Merchandise oder andere Prämien zu nutzen, gibt es die Möglichkeit, sie in Nachhaltigkeit zu investieren – konkret in das Pflanzen von Bäumen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/ContributorPoints.jpeg&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;274&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;Abbildung 3: Kaufoption der Bäume mit Contributor Points (Quelle: https://rewards.gitlab.com/shop/37706-tree-nation-donation)&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Zum jetzigen Zeitpunkt ist nur ein einzelner Baum in unseren Namen bestellt, aber mit der Fertigstellung und Mergen der finalen Kontribution sollten ein Minimum von 20 Bäumen mehr durch uns gedeihen dürfen. Weitere Updates dazu gerne in Kürze!&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;Nachhaltige Softwareentwicklung?&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Besonders durch den enormen Energieverbrauch, der mit der zunehmenden Verwendung von generativer AI verbunden zu sein wirkt&lt;sup&gt;[3]&lt;/sup&gt; stellt sich die Frage, welche Verantwortung wir als Entwickler:innen sowie Unternehmen im Technologiesektor haben. Bereits früher in meiner Karriere durfte ich mich mit der Energienutzung verschiedener Programmiersprachen auseinandersetzen.&lt;sup&gt;[4]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Auch, wenn die Methodik dieser Messungen umstritten ist, ist es nicht gerade erfreulich, die eigenen Lieblingssprachen in den oberen Rängen des Verbrauchs zu sehen.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;Fazit &amp;amp; Caveat&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;Spannend wird die Weiterentwicklung und der Verlauf des Merge Request, ich freue mich schon sehr auf den Zeitpunkt der Fertigstellung und besonders auf die Verwendung des neuen Features.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Natürlich kann der tatsächliche Energieverbrauch, der durch die Entwicklung und den Betrieb dieser Features entsteht, nicht durch das Pflanzen weniger Bäume aufgewogen werden. Doch es geht darum, Bewusstsein zu schaffen, nachhaltige Praktiken zu fördern und zumindest einen kleinen Beitrag zur Kompensation zu leisten.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Vielleicht ist es Zeit für mehr Entwickler:innen, Unternehmen und andere Organisationen, Open Source nicht nur als technischen Vorteil zu sehen, sondern auch als Möglichkeit, aktiv zu einer besseren Welt beizutragen. Eine Merge Request nach dem anderen – und ein Baum nach dem anderen.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[1] &lt;/sup&gt;&lt;/span&gt;GitLab Workflow Extension&lt;a href=&quot;https://docs.gitlab.com/editor_extensions/visual_studio_code/&quot;&gt; https://docs.gitlab.com/editor_extensions/visual_studio_code/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[2] &lt;/sup&gt;&lt;/span&gt;Merge Requests &lt;a href=&quot;https://docs.gitlab.com/user/project/merge_requests/&quot;&gt;https://docs.gitlab.com/user/project/merge_requests/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[3] &lt;/sup&gt;&lt;/span&gt;&lt;a href=&quot;https://www.sciencedirect.com/science/article/pii/S2542435123003653&quot;&gt;https://www.sciencedirect.com/science/article/pii/S2542435123003653&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[4]&lt;a href=&quot;https://dl.acm.org/doi/10.1145/3136014.3136031&quot;&gt; &lt;/a&gt;&lt;/sup&gt;&lt;/span&gt;&lt;a href=&quot;https://dl.acm.org/doi/10.1145/3136014.3136031&quot;&gt;https://dl.acm.org/doi/10.1145/3136014.3136031&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Relevante Issues zu dem Batch-Feature &lt;a href=&quot;https://gitlab.com/groups/gitlab-org/-/epics/7362;%20https://gitlab.com/gitlab-org/gitlab-foss/-/issues/3364;%20https://gitlab.com/gitlab-org/gitlab-vscode-extension/-/issues/526&quot;&gt;https://gitlab.com/groups/gitlab-org/-/epics/7362; https://gitlab.com/gitlab-org/gitlab-foss/-/issues/3364; https://gitlab.com/gitlab-org/gitlab-vscode-extension/-/issues/526&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;*SEQITracker:&lt;span class=&quot;Apple-converted-space&quot;&gt;  &lt;/span&gt;&lt;a href=&quot;https://www.seqis.com/de/blog/moco-und-seqitracker&quot;&gt;https://www.seqis.com/de/blog/moco-und-seqitracker&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/razzfazz-io-pflanzt-baeume" /><updated>2025-07-08T07:49:00+00:00</updated><id>https://www.seqis.com/de/blog/razzfazz-io-pflanzt-baeume</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/razzfazz-Baum.png" type="image/png" /></entry><entry><title>Test Data Management Meets Sustainability</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                      &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/3/Gemini_Generated_Image_habj7chabj7chabj-a0ee2b03.jpeg&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: KI-generiert mit Gemini&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;The Intersection of Test Data Management and Sustainability&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Sustainability—which means „meeting the needs of the present without compromising the ability of future generations to meet their own needs“&lt;sup&gt;[2]&lt;/sup&gt; - applies directly to software testing. Large-scale software testing consumes significant resources, and without efficient management, it leads to wasted storage, increased energy consumption, and unnecessary duplication of data.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;The sustainability dimensions in software testing include:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Environmental Sustainability: Reducing energy consumption through optimized storage and data lifecycle management.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Economic Sustainability: Reducing costs through automated test execution and maintenance.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Social Sustainability: Ensuring ethical data use, employee well-being, and social responsibility.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Technical Sustainability: Using long-term test automation solutions that evolve with technological advancements.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;Common Challenges:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Over-provisioning: Businesses give test environments excessive storage, the majority of which is never utilized. The result is a waste of energy and higher hardware demand.&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Data Waste: Ineffective data-aging procedures result in the buildup of test data that is redundant, irrelevant, or out-of-date, which clogs storage systems and increases maintenance costs.&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Manual Processes: In the absence of automation, test data generation procedures are not always consistent, which can result in inefficient replication of previously produced content.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Best Practices for Sustainable Test Data Management&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;Smart Generation of Test Data&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Synthetic test data: Synthetic test data can be used rather than sensitive production data. This is privacy-compliant and even more resource-efficient. Various synthetic data generation tools exist that create quite realistic datasets for specific testing scenarios without exposing real user data. Examples of such tools include: &lt;ul&gt; &lt;li class=&quot;p6&quot;&gt;MOSTLY AI: Known for generating highly accurate synthetic data that preserves the statistical properties of the original data.&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;Tonic.ai: Offers solutions for generating realistic, de-identified test data.&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;Gretel.ai: Provides a platform and APIs for creating privacy-preserving synthetic data.&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;Synthetic Data Vault (SDV): An open-source library for generating synthetic data for various data types.&lt;/li&gt; &lt;/ul&gt; &lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Needs-Based Generation: Test data is generated precisely for the needs of the test scenarios without generating and storing any data that may not be required. Identifying key test scenarios and aligning data generation efforts with them reduces overhead.&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Data Masking: When production-like data is needed, anonymization or pseudonymization ensures that data privacy is maintained. Masked data still retains the core characteristics necessary for testing while removing sensitive information.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;Efficient Usage of Storage&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Data compression: Compressed test data requires less storage and reduces data transfer times. Modern compression algorithms can significantly reduce file sizes without compromising data integrity. Examples of lossless compression algorithms commonly used in data storage include LZ77 and LZ78 (which are the basis for formats like ZIP and GZIP) and Run-Length Encoding (RLE), which is effective for data with repeating sequences. Techniques like dictionary encoding and columnar storage, often implemented in modern databases, also contribute to efficient compression by reducing redundancy within data sets.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Deduplication: Duplicates in data should be identified and removed to save storage space. Duplication tools study stored data for finding identical segments so that no duplicate copies of data are created.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Intelligent Archiving: If test results are no longer relevant, they can be archived or removed. Such archiving solutions, integrated with data lifecycle management frameworks, can automate this process and ensure compliance with data retention policies and industry regulations.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;Automation and Tools&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;This is how automated TDM solutions can enable better utilization of resources. Test data generation and management tools can optimize processes, reduce manual effort, and ensure consistency of data. For example, AI-powered solutions can predict data needs and adjust storage allocation dynamically for even higher efficiency.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;Regulatory and Ethical Considerations&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;TDM practices should be aligned with regulatory and ethical requirements. Data privacy laws like GDPR and HIPAA have put immense pressure on handling sensitive information with care. Integrating compliance into the workflow of TDM will prevent penalties while fostering sustainability.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;GDPR&lt;/strong&gt; (General Data Protection Regulation): A regulation enforced in the European Union that governs data privacy and security. It mandates strict guidelines on collecting, storing, and processing personal data, ensuring that organizations maintain transparency and accountability. Under GDPR, individuals have rights over their data, including the right to access, rectify, and erase their personal information.&lt;sup&gt;[5]&lt;/sup&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;HIPAA&lt;/strong&gt; (Health Insurance Portability and Accountability Act): An U.S. law that establishes national standards for protecting sensitive patient health information. HIPAA ensures that healthcare providers, insurers, and business associates maintain the confidentiality and security of medical data. It requires safeguards for electronic health records and imposes strict penalties for breaches.&lt;sup&gt;[6]&lt;/sup&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;In addition, test data creation and usage should be based on ethical principles such as fairness, transparency, and accountability. Organizations should avoid letting synthetic data introduce bias or inaccuracies that may affect the performance of the software.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Sustainability Data Strategy: Key Insights&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;A well-defined sustainability data strategy involves &lt;sup&gt;3]&lt;/sup&gt;:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Factual Data, Not Estimates: Relying on precise, audit-ready sustainability data rather than approximations ensures accuracy and reliability. Many organizations currently rely on sector averages, which are often imprecise and fail to provide actionable insights for reducing environmental impact.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Transparency in Net Zero Motives: Organizations must disclose actual emissions and offsets purchased, aligning financial data with sustainability goals. The rising costs of carbon offsets make it crucial to provide clear, data-backed sustainability strategies.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Operational Improvements and Long-Term Value Creation: High-quality sustainability data helps reduce carbon emissions, minimize back-office expenses, and improve decision-making processes. By integrating sustainability metrics with financial data, companies can track the effectiveness of green initiatives.&lt;/li&gt; &lt;li class=&quot;p4&quot;&gt;Audit-Ready and Proficient Data: The increasing scrutiny on ESG data means organizations must ensure their sustainability reporting aligns with regulatory expectations and can withstand audits. Consistent and structured data management supports compliance and enhances credibility.&lt;/li&gt; &lt;/ul&gt; &lt;p&gt;Organizations must also master challenges in ESG data reporting, standardization, and regulatory compliance to enhance sustainability initiatives.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;&lt;strong&gt;ESG&lt;/strong&gt; (Environmental, Social, and Governance) refers to a set of criteria used by organizations, investors, and regulators to assess a company‘s commitment to sustainability and ethical business practices. ESG data plays a crucial role in sustainability reporting and decision-making. Companies are expected to disclose their environmental impact, social responsibility efforts, and governance practices. However, challenges such as data standardization, regulatory compliance, and audit readiness make ESG reporting complex. A robust sustainability data strategy ensures accurate, transparent, and audit-ready ESG reporting, helping organizations align their sustainability initiatives with business goals.&lt;sup&gt;[7]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/em&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Sustainable Software Testing in Practice&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Software testing has a significant impact on sustainability, with long-term benefits often overlooked&lt;sup&gt;[2]&lt;/sup&gt;. The key aspects of sustainable software testing include:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Minimizing Environmental Impact: Sustainable software testing reduces unnecessary computing resource consumption, leading to lower energy use and reduced carbon footprints. This includes optimizing test execution schedules to run during off-peak hours and leveraging cloud environments with renewable energy sources.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Enhancing Economic Sustainability: Test automation reduces operational costs by streamlining repetitive testing tasks. Companies implementing automated, energy-efficient testing strategies benefit from reduced hardware and cloud expenditures.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Improving Technical Sustainability: Implementing scalable and maintainable test frameworks ensures that software testing processes remain efficient and adaptable to future technological advancements.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Encouraging Knowledge-Sharing and Collaboration: Sustainable testing practices involve knowledge transfer and continuous improvements, helping organizations develop resilient and future-ready test strategies.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Benefits of Sustainable TDM&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;The advantages of a sustainable approach to TDM include the following:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Cost Savings: Reduced storage needs lower hardware and cloud costs. Optimized test data usage decreases infrastructure expenses while improving efficiency.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Eco-Friendliness: Optimized data management results in lower energy consumption and a reduced carbon footprint. Green IT initiatives such as efficient data storage and retrieval mechanisms contribute to environmental sustainability.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Data Security: Synthetic and well-managed test data minimizes the risk of data privacy breaches. Organizations can maintain compliance with data protection regulations while reducing redundant storage.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Operational Efficiency: Streamlined TDM processes improve overall development efficiency, allowing teams to focus on innovation. Sustainable TDM supports faster software release cycles and enhances quality assurance practices.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;The Future of Test Data Management in a Greener IT Landscape&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Emerging trends such as green computing and carbon-neutral cloud services are reshaping the IT industry. Companies are increasingly adopting environmentally friendly technologies and practices, including renewable energy-powered data centers and energy-efficient storage solutions.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;AI and machine learning developments really drive innovation in the field of TDM. These technologies enable predictive analytics, real-time optimization, and adaptive resource allocation, adding to sustainability. For example, AI can find patterns in test data usage and suggest optimizations that reduce waste. However, it is important to acknowledge that these technologies, particularly in their training and operation, can also be a source of significant energy consumption.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Conclusion&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Test data management and sustainability go hand in hand. Optimizing TDM processes enables companies to save resources and, at the same time, make their contribution to environmental protection. This is the ideal moment to adopt more sustainable solutions and take a new look at your current procedures. Seize this opportunity to implement efficient generation and management strategies for test data now—for a greener future in IT.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Sustainable TDM practices will bring balance to the needs of an organization between sustainability and environmental responsibility. It all begins with a few simple, achievable actions that add up to a significant impact. We should together build up the path towards sustainability for the IT industry and beyond.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[1] &lt;/sup&gt;&lt;/span&gt;Dror Etzion and J. Alberto Aragon-Correa, „Big Data, Management, and Sustainability: Strategic Opportunities Ahead,“ May 10, 2016, Volume 29, Issue 2.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[2] &lt;/sup&gt;&lt;/span&gt;Beer, A., Felderer, M., Lorey, T., &amp;amp; Mohacsi, S. (2021). „Sustainability in the Test Process.“ 1st International Workshop on the Body of Knowledge for Software Sustainability (BoKSS), IEEE ICSE Conference.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[3] &lt;/sup&gt;&lt;/span&gt;Clusters Media Technology. (2022). „Sustainability Data Strategy: Top Key Components for a Positive Impact.“&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[4] &lt;/sup&gt;&lt;/span&gt;Jim Soos, Planckton Data Technologies. (2023). „Sustainability Data Management.“&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[5] &lt;/sup&gt;&lt;/span&gt;Official text of the General Data Protection Regulation (GDPR): &lt;a href=&quot;https://gdpr-info.eu/&quot;&gt;https://gdpr-info.eu/ &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[6] &lt;/sup&gt;&lt;/span&gt;More information about the Health Insurance Portability and Accountability Act (HIPAA): &lt;a href=&quot;https://www.hhs.gov/hipaa/for-professionals/privacy/laws-regulations/combined-regulation-text/index.html %20&quot;&gt;https://www.hhs.gov/hipaa/for-professionals/privacy/laws-regulations/combined-regulation-text/index.html&lt;span class=&quot;Apple-converted-space&quot;&gt;  &lt;/span&gt; &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[7] &lt;/sup&gt;&lt;/span&gt;Learn more about Environmental, Social, and Governance (ESG): &lt;a href=&quot;https://www.investopedia.com/terms/e/environmental-social-and-governance-esg-criteria.asp&quot;&gt;https://www.investopedia.com/terms/e/environmental-social-and-governance-esg-criteria.asp&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/test-data-management-meets-sustainability" /><updated>2025-07-08T07:36:00+00:00</updated><id>https://www.seqis.com/de/blog/test-data-management-meets-sustainability</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/Gemini_Generated_Image_habj7chabj7chabj.jpeg" type="image/jpeg" /></entry><entry><title>Smart Testing Strategies for Resource-Efficient Software Development</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                      &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/4/save-energy-7382275_1280-72a0dffe.png&quot; width=&quot;400&quot; height=&quot;267&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: RosZie - Pixabay&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;The Need for Sustainable Software Testing&lt;br&gt;&lt;/strong&gt;In today’s fast-paced digital world, software development is a critical driver of technological progress. However, behind every application, website, or digital service lies an amount of computational effort that consumes resources, generates heat, and requires electricity. Software testing, while essential to ensuring reliability and functionality, is one of the most resource-intensive aspects of development. As companies push for faster releases and automated workflows, testing can easily become redundant, leading to wasted time, inflated costs, and unnecessary energy consumption.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;With climate change and sustainability at the forefront of global discussions, industries across all sectors are encouraged to reduce their environmental footprints. The software industry, often overlooked in conversations about sustainability, is actually a significant contributor to energy consumption. According to a study by the International Energy Agency, data centers—many of which run extensive software testing processes—account for nearly 1%&lt;sup&gt;[1]&lt;/sup&gt; of global electricity consumption. This statistic underscores the urgent need for more efficient testing methodologies that not only save time and resources but also contribute to a greener, more sustainable future.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Understanding the Problem&lt;br&gt;&lt;/strong&gt;Redundancy in software testing occurs when multiple test cases cover the same functionality, leading to unnecessary execution cycles. While having multiple layers of verification can be beneficial, excessive duplication does not necessarily lead to better software quality; instead, it often results in wasted computational power and increased test execution times. Studies have shown that between 30-50% of test cases in automated test suites are redundant, meaning they do not provide additional value beyond what has already been tested.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;For instance, in large-scale enterprise applications with complex Continuous Integration/Continuous Deployment (CI/CD) pipelines, developers might run thousands of test cases per commit, many of which are either irrelevant or duplicate. Over time, this creates inefficiencies that slow down software delivery and consume excessive resources. Companies looking to optimize their testing efforts must therefore shift towards more strategic and intelligent testing approaches.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Smart Testing Strategies to Optimize Efficiency&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;Risk-Based Testing&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;Risk-based testing prioritizes test cases based on the likelihood and impact of defects, allowing teams to focus on the areas most likely to fail or those critical to business operations. Instead of testing every part of an application, testing efforts are concentrated on the areas that carry the highest risk.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;How to Implement Risk-Based Testing in Your Project&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Identify Critical Areas Early in the Development Process&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Leverage Historical Data for Better Risk Assessment&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Continuously Reassess Risk Throughout the Development Cycle&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Adopt a Risk Scoring System&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Automate Testing for High-Risk Areas&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Use Tools Like the Journey to Rome Jira Extension to Identify Risk-Exposed Areas&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;em&gt;Journey to Rome is a lightweight, questionnaire-based risk assessment method integrated into Jira. It helps identify the level and type of risk for new or existing functionality without needing input from developers. The results guide test intensity and focus, making it easier to prioritize where testing is most needed.&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;A real-world example of the impact of risk-based testing is discussed in the study „SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video Games Using Risk-Based Testing and Machine Learning“. This paper presents a system that leverages risk-based testing and machine learning to optimize test selection and defect prevention in video game development. The authors report a reduction of over 55% in testing hours for a sports game title, achieved without compromising defect detection effectiveness. This approach not only improved testing efficiency but also optimized resource allocation. The risk-selection criteria in SUPERNOVA are based on factors such as historical defect density, code complexity, and recent code changes. These criteria help prioritize tests toward areas most likely to introduce bugs, ensuring maximum coverage with minimal effort.&lt;sup&gt;[2]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Test Case Deduplication&lt;br&gt;&lt;/strong&gt;As test suites grow, redundant test cases often accumulate. This redundancy leads to inefficiencies and unnecessary resource consumption. AI-driven tools that perform test case deduplication can identify and remove overlapping tests, making the suite more efficient and manageable. Even traditional methodologies such as pairwise test case reduction and combinatorial techniques have been used to tackle redundancy by minimizing the number of test cases while preserving coverage.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;How to Implement Test Case Deduplication in Your Project&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Analyze Your Test Suite for Redundancies&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Leverage AI and Machine Learning Tools&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Integrate Deduplication into Your CI/CD Pipeline&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Establish Deduplication Policies&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Monitor and Continuously Improve&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;In a study by Alastair F. Donaldson, techniques for test-case reduction and deduplication were examined through transformation-based compiler testing. The research highlighted how automation in deduplication effectively eliminated redundant test cases, boosting the efficiency of the software testing process. By integrating AI-powered solutions, organizations can streamline their test suites, reducing unnecessary resource usage while maintaining high standards of software quality.&lt;sup&gt;[3]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;sup&gt;&lt;strong&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Deduplication_1.jpeg&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;325&quot;&gt; &lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Deduplication_2.jpeg&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;325&quot;&gt;&lt;br&gt;&lt;/strong&gt;Abbildung 2 und 3: This pie chart is for illustrative purposes only and does not represent real data. It is intended to demonstrate the concept visually. &lt;span class=&quot;s1&quot;&gt;(Quelle: https://piechartmaker.co/)&lt;/span&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Selective and Incremental Testing&lt;br&gt;&lt;/strong&gt;Instead of running the entire test suite after every change, selective testing focuses on only the tests relevant to the code that was modified. Incremental testing further optimizes this by ensuring that only the affected components are tested, reducing unnecessary tests on stable parts of the system.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;How to Implement Selective and Incremental Testing in Your Project&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Identify Test Dependencies&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Integrate with Continuous Integration (CI)&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Use Change Detection Tools&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Focus on Key Components and High-Risk Areas&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Optimize Test Suites for Incremental Testing&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Monitor and Adjust Testing Strategies&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;In a study titled “Testing at the Speed and Scale of Google,” Google explains how they use an in-memory graph to efficiently track dependencies between tests and build rules across their entire codebase. This graph is updated with each code change, enabling the company to pinpoint and run only the tests directly impacted by those modifications. By avoiding unnecessary tests, this targeted approach reduces computational resource consumption and speeds up development cycles. Not only does this method improve testing efficiency, but it also makes the testing process more sustainable by minimizing the environmental impact associated with excessive resource usage in large-scale testing environments.&lt;sup&gt;[4]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Parallel and Cloud-Based Testing&lt;br&gt;&lt;/strong&gt;Parallel testing enables multiple tests to run simultaneously across different machines or cloud-based platforms. This reduces testing time significantly by leveraging distributed resources. Cloud platforms also allow for scalability, where additional resources can be provisioned as needed.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;How to Implement Parallel and Cloud-Based Testing in Your Project&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Choose the Right Testing Framework&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Use Cloud-Based Testing Platforms&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Integrate Parallel Testing into Your CI/CD Pipeline&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Optimize Test Distribution for Maximum Efficiency&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Monitor and Optimize Test Execution&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;In a study titled “Cost-benefit evaluation on parallel execution for improving test efficiency in cloud computing”, the authors propose a cloud-based approach that partitions large test jobs into smaller tasks and executes them concurrently across multiple virtual machines (VMs). This parallel execution method significantly improves testing efficiency by speeding up test execution times while reducing the overall costs associated with the testing process. Furthermore, by leveraging cloud resources, this approach contributes to sustainability by optimizing resource usage and reducing the environmental impact of traditional, resource-heavy testing methods.&lt;sup&gt;[5]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Energy-Aware Test Execution&lt;br&gt;&lt;/strong&gt;Scheduling tests during off-peak hours or utilizing energy-efficient hardware can significantly lower energy consumption and reduce the environmental footprint of test execution.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;How to Implement Energy-Aware Test Execution in Your Project&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Schedule Tests During Low-Demand Periods&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Optimize Test Environments for Energy Efficiency&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Reduce Test Execution Time with Smarter Testing Strategies&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Monitor and Optimize Energy Usage&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;In a study titled „GreenScale: Carbon-Aware Systems for Edge Computing,“ researchers developed a framework that schedules applications based on the carbon intensity of energy sources. The study demonstrated that this approach reduced carbon emissions by up to 29.1% for applications in categories such as AI, gaming, and AR/VR.&lt;sup&gt;[6]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Automated Test Optimization&lt;br&gt;&lt;/strong&gt;Traditional automated testing often runs predefined test cases without considering their relevance. Modern automated testing tools use Test Impact Analysis (TIA), which assesses code changes and determines the minimal set of tests to execute, thereby avoiding redundant tests.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;How to Implement Automated Test Optimization in Your Project&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Integrate AI-Powered Test Impact Analysis (TIA) Tools&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Optimize Test Execution with Code Coverage Analysis&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Automate Test Prioritization with Machine Learning&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Implement Dynamic Test Selection in CI/CD Pipelines&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;A study titled “SEFGAST: Step-Up to Environment Friendly Green Automated Software Testing” explored how energy consumption in automated testing can be optimized. By utilizing energy measurement tools alongside test case coverage analysis, the study demonstrated how identifying the energy usage of specific hardware components during test execution led to significant reductions in resource consumption. This method not only minimized the energy footprint but also improved testing efficiency by targeting energy-intensive operations.&lt;sup&gt;[7]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Performance and Load Testing Adjustments&lt;br&gt;&lt;/strong&gt;While performance and load testing ensure that an application can handle high traffic, full-scale tests can be resource-intensive. Instead, AI-based predictive modeling can simulate user behavior and estimate system performance without running full-scale load tests.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;How to Implement Smarter Load Testing in Your Project&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Use AI-Driven Predictive Modeling for Traffic Simulations&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Apply Adaptive Load Testing Strategies&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Implement Machine Learning-Based Anomaly Detection&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Optimize Load Testing in CI/CD Pipelines&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;A study titled “Performance Testing Using a Smart Reinforcement Learning-Driven Test Agent” developed an intelligent agent using reinforcement learning to optimize load testing. By automatically generating efficient test workloads, the approach significantly reduced testing costs and improved efficiency by 25% compared to traditional methods. This AI-driven strategy not only enhances testing performance but also aligns with sustainability goals by minimizing resource consumption and reducing the environmental impact of extensive testing.&lt;sup&gt;[8]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;The Tangible Benefits of Smart Testing&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Adopting smarter testing strategies results in significant benefits for software development teams and businesses alike:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Reduced computational costs:&lt;/span&gt; Eliminating unnecessary test cases leads to lower infrastructure expenses.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;span class=&quot;s2&quot;&gt;F&lt;/span&gt;&lt;span class=&quot;s1&quot;&gt;aster development cycles:&lt;/span&gt; Optimized testing reduces execution time, allowing for quicker software releases.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Lower environmental impact:&lt;/span&gt; &lt;br&gt;By minimizing resource consumption, companies contribute to a more sustainable technology ecosystem.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Improved software quality:&lt;/span&gt; &lt;br&gt;With a focus on essential and high-risk test cases, software reliability is maintained or even enhanced.&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Conclusion&lt;br&gt;&lt;/strong&gt;Software testing is essential, but the way we approach it needs to evolve. By adopting smarter strategies like risk-based testing, AI-driven optimization, and cloud-based execution. Companies can improve efficiency while reducing costs and environmental impact.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Testing isn’t just about catching bugs; it’s about building sustainable, high-quality software. These modern testing practices allow businesses to prioritize what truly matters, focus resources where they’ll have the most impact, and cut down on unnecessary testing and waste. By integrating these strategies, organizations can not only speed up development cycles but also reduce their carbon footprint and resource consumption.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Businesses that embrace these resource-conscious methods will not only streamline their testing processes but also position themselves as leaders in innovation and sustainability. In the long run, the combination of smarter testing and environmental responsibility will shape the future of the tech industry, helping build software that is both reliable and eco-friendly.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[1] &lt;/sup&gt;International Energy Agency. (2024). Data Centres and Data Transmission Networks.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://www.iea.org/energy-system/buildings/data-centres-and-data-transmission-networks&quot;&gt;https://www.iea.org/energy-system/buildings/data-centres-and-data-transmission-networks&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[2] &lt;/sup&gt;SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video Games Using Risk-Based Testing and Machine Learning“ by Senchenko et al., arXiv, 2022.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://arxiv.org/pdf/2203.05566&quot;&gt;https://arxiv.org/pdf/2203.05566&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[3] &lt;/sup&gt;Donaldson, A. F., et al. (2021). Test-Case Reduction and Deduplication Almost for Free with Transformation-Based Compiler Testing.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://www.doc.ic.ac.uk/~afd/homepages/papers/pdfs/2021/PLDI.pdf&quot;&gt;https://www.doc.ic.ac.uk/~afd/homepages/papers/pdfs/2021/PLDI.pdf &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[4] &lt;/sup&gt;Google Testing Blog. (2011). Testing at the Speed and Scale of Google. &lt;a href=&quot;https://testing.googleblog.com/2011/06/testing-at-speed-and-scale-of-google.html&quot;&gt;https://testing.googleblog.com/2011/06/testing-at-speed-and-scale-of-google.html &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[5] &lt;/sup&gt;Cost-benefit evaluation on parallel execution for improving test efficiency in cloud computing. Proceedings of the 2017 IEEE 31st International Conference on Advanced Information Networking and Applications Workshops (WAINA), 2017. &lt;a href=&quot;https://ieeexplore.ieee.org/document/7988384&quot;&gt;https://ieeexplore.ieee.org/document/7988384       &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[6] &lt;/sup&gt;Kim, Y. G., Gupta, U., McCrabb, A., Son, Y., Bertacco, V., Brooks, D., &amp;amp; Wu, C.-J. (2023). GreenScale: Carbon-Aware Systems for Edge Computing. arXiv preprint arXiv:2304.00404.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://arxiv.org/abs/2304.00404&quot;&gt;https://arxiv.org/abs/2304.00404 &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[7] &lt;/sup&gt;SEFGAST: Step-Up to Environment Friendly Green Automated Software Testing. International Journal of Engineering Trends and Technology, 2023. Retrieved from &lt;a href=&quot;https://ijettjournal.org/assets/Volume-70/Issue-3/IJETT-V70I3P218.pdf&quot;&gt;https://ijettjournal.org/assets/Volume-70/Issue-3/IJETT-V70I3P218.pdf&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[8] &lt;/sup&gt;Helali Moghadam, M., et al. (2021). Performance Testing Using a Smart Reinforcement Learning-Driven Test Agent.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://www.seqis.com/arxiv.org/pdf/2104.12893&quot;&gt;arxiv.org/pdf/2104.12893&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;a href=&quot;https://huddle.eurostarsoftwaretesting.com/common-problems-of-test-redundancy/&quot;&gt;https://huddle.eurostarsoftwaretesting.com/common-problems-of-test-redundancy/ &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;a href=&quot;https://alife-robotics.org/article/vol8issue1/125957076.pdf&quot;&gt;https://alife-robotics.org/article/vol8issue1/125957076.pdf&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/smart-testing-strategies-for-resource-efficient-software-development" /><updated>2025-07-08T07:23:00+00:00</updated><id>https://www.seqis.com/de/blog/smart-testing-strategies-for-resource-efficient-software-development</id><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/save-energy-7382275_1280.png" type="image/png" /></entry><entry><title>Nachhaltigkeit in der DevOps-Pipeline: Vom Code bis zum Deployment</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                      &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/8/Gemini_Generated_Image_oidi2poidi2poidi-7c6a6928.jpeg&quot; width=&quot;400&quot; height=&quot;400&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Bild generiert von Gemini (Google AI)&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Die IT hat sich rasant entwickelt und unser Leben tiefgreifend verändert. Doch mit den neuen Möglichkeiten rücken auch die ökologischen Folgen stärker in den Fokus. Früher lag der Nachhaltigkeitsfokus auf sichtbaren Umweltaspekten – heute erkennen wir, dass auch digitale Prozesse Ressourcen verbrauchen. Gerade in der DevOps-Pipeline hinterlassen unsere Entscheidungen Spuren. Wie können wir also Nachhaltigkeit ganzheitlich integrieren, ohne Effizienz und Agilität zu verlieren?&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;Warum ist Nachhaltigkeit in DevOps wichtig?&lt;br&gt;&lt;/strong&gt;​Die Informationstechnologie (IT) verursacht weltweit etwa 2 bis 4 % der CO₂-Emissionen, mit steigender Tendenz. Eine Studie von 2021 schätzt, dass der Anteil der IT an den globalen Treibhausgasemissionen zwischen 1,8 % und 2,8 % liegt, wobei die tatsächlichen Werte aufgrund unvollständiger Erfassung der gesamten Lieferkette möglicherweise bis zu 25 % höher sind, was einen Anteil von bis zu 3,5 % ergeben könnte. Eine weitere Studie aus dem Jahr 2023 gibt an, dass die Emissionen der IT-Branche fast 4 % der weltweiten Gesamtemissionen ausmachen und prognostiziert, dass dieser Anteil in den nächsten zwei Jahrzehnten stark ansteigen wird.&lt;sup&gt;[1]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Insbesondere Rechenzentren tragen erheblich zu diesen Emissionen bei. Laut einer Analyse von Morgan Stanley wird die globale Rechenzentrumsbranche bis 2030 voraussichtlich 2,5 Milliarden Tonnen CO₂-Äquivalente emittieren.&lt;sup&gt;[2&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Diese Zahlen verdeutlichen die Notwendigkeit, Nachhaltigkeitspraktiken in der IT-Branche zu implementieren, um den ökologischen Fußabdruck zu reduzieren.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;Nachhaltigkeit in jeder Phase der DevOps-Pipeline&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;1. Nachhaltiger Code&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;1.1 Effiziente Programmierung&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Ein nachhaltiger Softwareentwicklungsprozess beginnt mit der Codierung. Effizienter Code reduziert die benötigte Rechenleistung und minimiert damit den Energieverbrauch. Dies kann durch:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p6&quot;&gt;Verwendung von Algorithmen mit geringerem Rechenaufwand&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Vermeidung unnötiger Berechnungen oder Schleifen&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Verwendung von Speicher- und CPU-schonenden Datenstrukturen&lt;/li&gt; &lt;/ul&gt; &lt;p&gt;Diese Maßnahmen tragen dazu bei, dass weniger Rechenzeit und Speicher benötigt werden, was wiederum den Stromverbrauch von Servern und Endgeräten senkt.&lt;sup&gt;[3]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;1.2 Wahl nachhaltiger Programmiersprachen&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Nicht alle Programmiersprachen sind gleich effizient. Sprachen wie Rust oder Go sind oft ressourcenschonender als interpretierte Sprachen wie Python oder JavaScript. Der Grund hierfür liegt in der Art und Weise, wie Code ausgeführt wird:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p6&quot;&gt;Kompilierte Sprachen (z. B. C, Rust, Go) werden vor der Ausführung in Maschinencode übersetzt, was zu schnellerer Laufzeit und geringerem Energieverbrauch führt.&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Interpretierte Sprachen (z. B. Python, JavaScript) erfordern eine zusätzliche Verarbeitungsschicht zur Laufzeit, was den Energieverbrauch erhöht.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p4&quot;&gt;Laut einer Studie der Universidade do Minho in Portugal zeigt sich, dass C und Rust hinsichtlich Energieverbrauch, Laufzeit und Speicherbedarf besonders effizient sind, während Python und Perl aufgrund ihrer interpretativen Natur höhere Ressourcenanforderungen haben.&lt;sup&gt;[4]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;2. Nachhaltige Build-Prozesse&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;2.1 Minimierung von Build-Ressourcen&lt;/span&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Die Build-Phase kann ressourcenintensiv sein. Nachhaltige Praktiken beinhalten:&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;Nutzung von inkrementellen Builds, um unnötige Wiederholungen zu vermeiden&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Caching von Abhängigkeiten und bereits kompilierten Modulen&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Reduzierung von unnötigen Abhängigkeiten&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p4&quot;&gt;Durch diese Optimierungen wird weniger Rechenleistung benötigt, was sich direkt auf die Energieeffizienz auswirkt. Beispielsweise reduziert ein optimierter Build-Prozess die Anzahl der CPU-Zyklen und damit den Stromverbrauch von Rechenzentren.&lt;sup&gt;[3]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;2.2 Optimierung von Container-Images&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Da viele DevOps-Umgebungen auf Containern basieren, ist es wichtig, Container-Images schlank zu halten. Dies kann durch die Verwendung von:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p6&quot;&gt;Minimale Basis-Images&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Entfernen unnötiger Dateien&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Multi-Stage-Builds erreicht werden.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p4&quot;&gt;Kleinere Container-Images benötigen weniger Speicherplatz und führen zu schnelleren Deployments, was sowohl die Netzwerkbelastung als auch den Energieverbrauch verringert.&lt;sup&gt;[5]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;3. Nachhaltige Test-Strategien&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;3.1 Effiziente Testautomatisierung&lt;/span&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Automatisierte Tests sind essenziell für DevOps, sollten aber nachhaltig gestaltet werden:&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;Parallelisierung von Tests zur Reduzierung der Laufzeiten&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Nutzung von Mocking und Stubbing, um Tests schneller auszuführen&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Selektive Testläufe basierend auf Code-Änderungen&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p4&quot;&gt;Durch die gezielte Ausführung nur der relevanten Tests wird unnötige Rechenleistung vermieden, was den Energieverbrauch reduziert.&lt;sup&gt;[6]&lt;br&gt;&lt;br&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;4. Nachhaltiges Deployment und Betrieb&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;4.1 Energieeffizientes Hosting&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Beim Deployment spielt die Wahl des Hostings eine große Rolle. Möglichkeiten für nachhaltiges Hosting sind:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p6&quot;&gt;Nutzung von Cloud-Anbietern mit erneuerbaren Energien&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Serverless-Computing zur Optimierung der Ressourcennutzung&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Skalierung von Anwendungen nach tatsächlichem Bedarf&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p4&quot;&gt;Rechenzentren verbrauchen weltweit enorme Mengen an Energie. Unternehmen wie Google oder Microsoft setzen daher vermehrt auf Rechenzentren, die mit erneuerbaren Energien betrieben werden, um den CO₂-Fußabdruck zu reduzieren.&lt;sup&gt;[7]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s2&quot;&gt;4.2 Monitoring und Optimierung&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Nachhaltigkeit endet nicht mit dem Deployment. Eine kontinuierliche Überwachung hilft, unnötige Ressourcenverschwendung zu vermeiden:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p6&quot;&gt;Identifikation ineffizienter Prozesse oder überflüssiger Dienste&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Dynamische Anpassung von Ressourcen durch Autoscaling&lt;/li&gt; &lt;li class=&quot;p7&quot;&gt;Nutzung von GreenOps-Strategien zur Reduzierung der CO₂-Emissionen&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p4&quot;&gt;Durch den Einsatz von Monitoring-Tools kann festgestellt werden, welche Anwendungen oder Dienste unnötig viele Ressourcen verbrauchen, sodass gezielte Optimierungen vorgenommen werden können.&lt;sup&gt;[8] &lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt; &lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;Fazit&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Nachhaltigkeit in der DevOps-Pipeline erfordert eine durchgehende Optimierung des Entwicklungs-, Test- und Deployment-Prozesses. Durch effiziente Codierung, ressourcenschonende Builds, optimierte Tests und nachhaltiges Hosting können Unternehmen nicht nur ihre Umweltbilanz verbessern, sondern auch langfristig Kosten sparen. DevOps und Nachhaltigkeit sind somit keine Gegensätze, sondern können Hand in Hand gehen, um eine bessere Zukunft zu gestalten.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[1] &lt;/sup&gt;&lt;a href=&quot;https://arxiv.org/abs/2102.02622&quot;&gt;https://arxiv.org/abs/2102.02622&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[2] &lt;/sup&gt;&lt;a href=&quot;https://arxiv.org/abs/2303.06642&quot;&gt;https://arxiv.org/abs/2303.06642&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[3] &lt;/sup&gt;&lt;a href=&quot;https://distantjob.com/blog/sustainable-software-development/&quot;&gt;https://distantjob.com/blog/sustainable-software-development/&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[4] &lt;/sup&gt;Pereira, Rui et al. „Energy Efficiency across Programming Languages.“ Universidade do Minho, 2017.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[5] &lt;/sup&gt;Hüttermann, Michael. „DevOps for Developers.“ Apress, 2012.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[6] &lt;/sup&gt;Fowler, Martin. „Continuous Integration.“ ThoughtWorks, 2006.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[7] &lt;/sup&gt;Greenpeace. „Clicking Clean: Who is Winning the Race to Build a Green Internet?“ 2017.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[8] &lt;/sup&gt;Bauer, Michael. „Green IT: Technologien für eine nachhaltige Zukunft.“ Springer, 2018.&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/nachhaltigkeit-in-der-devops-pipeline-vom-code-bis-zum-deployment" /><updated>2025-07-07T11:46:00+00:00</updated><id>https://www.seqis.com/de/blog/nachhaltigkeit-in-der-devops-pipeline-vom-code-bis-zum-deployment</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/Gemini_Generated_Image_oidi2poidi2poidi.jpeg" type="image/jpeg" /></entry><entry><title>Kampfansage an technische Schulden – Ein Managementproblem mit technischen Folgen</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                   &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Einleitung: Das unsichtbare Erbe von IT-Projekten&lt;br&gt;&lt;/strong&gt;Technische Schulden begegnen uns in nahezu jedem digitalen Projekt – häufig erst dann, wenn es schmerzt. Langsame Release-Zyklen, hohe Wartungskosten oder stockende Innovationen sind oft Symptome eines Problems, das nicht primär im Code, sondern im Management verankert ist. Denn was als pragmatische Abkürzung im Projektalltag beginnt, entwickelt sich schnell zu einem schwer zu steuernden Risiko. Dieser Artikel beleuchtet, wie technische Schulden entstehen, welche Auswirkungen sie auf Organisationen haben und wie Projekt- und Change Management einen entscheidenden Beitrag zur Prävention und Auflösung leisten können.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Was sind technische Schulden – und woher kommen sie wirklich?&lt;br&gt;&lt;/strong&gt;Der Begriff „technische Schulden“ wurde ursprünglich von Ward Cunningham geprägt, um zu beschreiben, dass eine schnelle, aber unsaubere Lösung kurzfristig Vorteile bringt, langfristig jedoch „Zinsen“ in Form von Mehraufwand kostet. Heute verstehen wir darunter eine Vielzahl von Versäumnissen, die nicht nur im Code, sondern auch in Prozessen, Architekturentscheidungen oder fehlenden Dokumentationen liegen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/TechnicalDebt.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;502&quot;&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;Abbildung 1: Technical Debt - what lies beneath the surface (Quelle: Image generated by Gemini for Workspace)&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;Typische Ursachen aus Managementsicht:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Zeit- und Budgetdruck:&lt;/strong&gt; Liefertermine priorisieren, kurzfristige Ergebnisse vor langfristiger Qualität&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Unklare Anforderungen und fehlende Abstimmungen: &lt;/strong&gt;Was nicht klar definiert ist, wird „irgendwie“ gelöst&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Organisatorische Silos:&lt;/strong&gt; Entwicklung, Betrieb und Fachbereiche agieren isoliert – technologische Entscheidungen bleiben unreflektiert&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Fehlendes Bewusstsein:&lt;/strong&gt; Technische Schulden gelten oft als rein technisches Problem und bleiben deshalb lange unadressiert&lt;br&gt;&lt;br&gt;&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Symptome und Auswirkungen: Wenn Schulden zur Hypothek werden&lt;br&gt;&lt;/strong&gt;Technische Schulden bauen sich schleichend auf, doch ihre Effekte sind messbar:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Erhöhte Wartungsaufwände&lt;/strong&gt; und sinkende Produktivität der Teams&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Geringere Innovationsfähigkeit&lt;/strong&gt;, da Ressourcen für technische Reparaturen gebunden sind&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Demotivierte Teams&lt;/strong&gt;, die in einem instabilen System arbeiten müssen&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Steigende Projekt- und Betriebskosten&lt;/strong&gt;, oft erst Jahre nach Projektabschluss sichtbar&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;Besonders gefährlich: In großen Organisationen werden technische Schulden oft nicht als Risiko geführt – sie sind unsichtbar im Portfolio- und Risikomanagement.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Management-Debt.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;383&quot;&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;Abbildung 2: From Management to Debt Load - a systematic problem (Quelle: Image generated by Gemini for Workspace)&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Die Ausgangsbasis: Technische Schulden messbar machen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Bevor man technische Schulden aktiv managen kann, muss man wissen, wo man steht. Doch wie erhebt man etwas, das häufig nicht dokumentiert ist?&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;strong&gt;&lt;em&gt;Methoden zur Erhebung:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Technische Assessments:&lt;/strong&gt; Codequalität, Testabdeckung, Architektur-Reviews&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Organisatorische Analysen: &lt;/strong&gt;Wo wurden pragmatische Abkürzungen genommen? Welche Entscheidungspfade gab es?&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Befragungen &amp;amp; Workshops:&lt;/strong&gt; Das Wissen der Entwickler*innen und PMs ist oft der beste Indikator&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Technical Debt Register:&lt;/strong&gt; Systematische Erfassung mit Beschreibung, Risiko, Ursache, Priorität&lt;/li&gt; &lt;/ul&gt; &lt;p&gt;&lt;sup&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Distribution-Debt.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;360&quot;&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;Abbildung 3: Distribution of Technical Debt by Area : Projects Quelle: Image generated by Gemini for Workspace)&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/TechnicalDept_weichselberger.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;178&quot;&gt;&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Strategien zur Bewältigung: Change-Management statt Reparaturmodus&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Der Abbau technischer Schulden ist kein IT-Fix, sondern eine Veränderung in Kultur, Prozessen und Steuerung. Projekt- und Change Management übernehmen hier eine zentrale Rolle. Erfolgreiche Strategien beinhalten:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;&lt;strong&gt;Schulden als Teil der Projektplanung:&lt;/strong&gt; Jede Iteration kann ein kleines Refactoring enthalten – geplant, nicht nebenbei.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Business Case für Qualität:&lt;/strong&gt; Die Kosten technischer Schulden (z. B. Downtime, langsame Time-to-Market) müssen kommuniziert werden.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Stakeholder einbinden: &lt;/strong&gt;Entscheidungsträger müssen verstehen, dass Schuldenmanagement eine Investition in Zukunftsfähigkeit ist.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Transparente Kommunikation: &lt;/strong&gt;Schulden benennen, sichtbar machen – und über Fortschritte berichten.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Agile Einbettung: &lt;/strong&gt;Backlogs und Sprintpläne sollten explizit Raum für technischen Schuldenabbau lassen.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;&lt;br&gt;Fazit: Wer technische Schulden ignoriert, zahlt doppelt&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Technische Schulden sind keine rein technische Herausforderung – sie sind das Ergebnis von Entscheidungen auf allen Ebenen des Projekts. Projekt- und Change Manager spielen eine Schlüsselrolle dabei, sie frühzeitig zu erkennen, transparent zu machen und systematisch abzubauen.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Wer eine nachhaltige IT-Landschaft will, muss den Schulden den Kampf ansagen – nicht als einmalige Aufräumaktion, sondern als integralen Bestandteil guter Projektführung.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Alexander Weichselberger: „Sie möchten mehr darüber erfahren, wie technische Schulden aktiv und pragmatisch gemanagt werden können? &lt;a href=&quot;https://www.seqis.com/de/events/kampfansage-an-technische-schulden&quot;&gt;Dann besuchen Sie meinen Vortrag&lt;/a&gt; – wir gehen gemeinsam den ersten Schritt zur Entschuldung.”&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/kampfansage-an-technische-schulden-ein-managementproblem-mit-technischen-folgen" /><updated>2025-07-07T11:34:00+00:00</updated><id>https://www.seqis.com/de/blog/kampfansage-an-technische-schulden-ein-managementproblem-mit-technischen-folgen</id><author><name>Alexander Weichselberger</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/TechnicalDebt.png" type="image/png" /></entry><entry><title>Nachhaltige Beziehungen bei SEQIS – mehr als nur ein kurzes Abenteuer</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                      &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/7/undraw_interview_yz52-6606610a.png&quot; width=&quot;400&quot; height=&quot;304&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: https://undraw.co/&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Bei SEQIS stehen nachhaltige Beziehungen im Vordergrund – sowohl im Team als auch mit Kunden. Diese langfristigen Partnerschaften basieren auf Vertrauen, Respekt und gegenseitiger Wertschätzung und sind der Schlüssel zu unserem dauerhaften Erfolg.&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Nachhaltigkeit bedeutet für uns mehr als umweltbewusstes Handeln – es geht um langfristige, wertschätzende Beziehungen. Denn Erfolg entsteht nicht über Nacht, sondern durch Vertrauen, Beständigkeit und gegenseitigen Respekt. Ob im Team oder mit unseren Kunden: Nur wenn wir auf verlässliche Partnerschaften setzen, können wir gemeinsam wachsen und wirklich etwas bewegen. Bei der HR Arbeit stelle ich sicher, dass Bewerber gleich zu Beginn des Prozesses verstehen, warum dieser Wert für uns so genauso wichtig ist wie Qualität, in allem, was wir tun.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;strong&gt;Team: Vertrauen und Wertschätzung als Basis&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Unser Team ist das Herzstück unseres Unternehmens – ohne die Menschen, die bei SEQIS arbeiten, wären wir nur ein schickes Logo mit einer netten Webseite. Deshalb setzen wir auf eine Unternehmenskultur, die Offenheit, Fairness und Zusammenarbeit auf Augenhöhe fördert. Wir glauben daran, dass sich Menschen dort am besten entfalten, wo sie sich geschätzt und gefördert fühlen.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Regelmäßige Feedbackgespräche, ehrliche Kommunikation und individuelle Entwicklungsmöglichkeiten sorgen dafür, dass wir uns stetig weiterentwickeln – als Einzelne und als Team. Unser Ziel ist es, ein Arbeitsumfeld zu schaffen, das nicht nur heute, sondern auch morgen und in Zukunft ein Ort ist, an dem jeder seinen besten Job machen kann und jeden Tag mit Freude zur Arbeit kommt.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;strong&gt;Kunden: Partnerschaft auf Augenhöhe&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Auch unsere Kunden profitieren von dieser Haltung. Wir setzen auf langfristige Partnerschaften, geprägt von Vertrauen, Ehrlichkeit und Verlässlichkeit. Uns geht es nicht um den schnellen Gewinn, sondern darum, nachhaltige Lösungen zu entwickeln, die echten Mehrwert bieten.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Das Ergebnis? Zufriedene Kunden, die uns weiterempfehlen, immer wieder mit uns zusammenarbeiten und mit denen wir über Jahre hinweg Erfolge feiern. Denn wir glauben daran, dass eine gute Geschäftsbeziehung genauso wie eine starke Freundschaft funktioniert: mit Respekt, Verlässlichkeit und dem gemeinsamen Ziel, Großes zu erreichen.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;strong&gt;Nachhaltigkeit als Erfolgsfaktor&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Nachhaltige Beziehungen sind für uns kein Trend, sondern ein entscheidender Erfolgsfaktor. Ob innerhalb unseres Teams oder in der Zusammenarbeit mit unseren Kunden – durch kontinuierliche Investitionen in Beziehungen stellen wir sicher, dass SEQIS auch in Zukunft stabil, innovativ und erfolgreich bleibt.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Denn Erfolg ist keine Eintagsfliege – sondern das Ergebnis von echtem Engagement und verlässlichen Partnerschaften.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Also, auf eine lange und erfolgreiche Zusammenarbeit!&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/nachhaltige-beziehungen-bei-seqis-mehr-als-nur-ein-kurzes-abenteuer" /><updated>2025-07-07T11:29:00+00:00</updated><id>https://www.seqis.com/de/blog/nachhaltige-beziehungen-bei-seqis-mehr-als-nur-ein-kurzes-abenteuer</id><author><name>Susanne Greber</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/undraw_interview_yz52.png" type="image/png" /></entry><entry><title>Sind IoT und Nachhaltigkeit im Widerspruch oder eine Chance?</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                      &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/f/AdobeStock_417929874-fdfd24d1.jpeg&quot; width=&quot;400&quot; height=&quot;267&quot; alt=&quot;&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle: Leonid - stock.adobe.com&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;p class=&quot;p1&quot;&gt;Die rasante Entwicklung des Internet of Things (IoT) hat unsere Welt grundlegend verändert. Intelligente Sensoren, vernetzte Geräte und smarte Anwendungen optimieren Prozesse in nahezu allen Lebensbereichen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Aktuell gibt es in Europa schätzungsweise &lt;strong&gt;3,92 Milliarden IoT-Geräte &lt;/strong&gt;(Stand 2024). Diese Zahl verdeutlicht die wachsende Verbreitung von IoT-Technologien in verschiedenen Bereichen wie Smart Homes, Industrieautomation und Transportwesen. Prognosen zufolge wird die Anzahl der IoT-Verbindungen in Europa 2025 auf etwa 4,36 Milliarden ansteigen - weltweit auf etwa 20,1 Milliarden.&lt;sup&gt;[1]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Dieses Wachstum wird durch Investitionen in Technologien wie Low-Power-Wide-Area-Netzwerke (LPWAN) und die Einführung von 5G-Netzen unterstützt, die eine kostengünstige und energieeffiziente Konnektivität ermöglichen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die zunehmende Verbreitung von IoT-Geräten trägt dazu bei, Prozesse zu optimieren und Kosten zu senken, was ihre Popularität in Europa weiter fördert. Es wird erwartet, dass dieser Trend in den kommenden Jahren anhält, insbesondere in Bereichen wie Energieeffizienz, Logistik und Umweltüberwachung.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Doch wie wirkt sich diese Technologie auf die Nachhaltigkeit aus? Sind IoT und Nachhaltigkeit ein Widerspruch, oder können sie gemeinsam zur Gestaltung einer umweltfreundlicheren Zukunft beitragen?&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Dieser Artikel beleuchtet die Potenziale und Herausforderungen des IoT im Kontext der Nachhaltigkeit.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;Chancen: IoT als Treiber für Nachhaltigkeit&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p1&quot;&gt;IoT bietet zahlreiche Möglichkeiten, Nachhaltigkeitsziele effektiv zu unterstützen:&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;&lt;br&gt;Effiziente Ressourcennutzung:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Präzisionslandwirtschaft: &lt;/span&gt;IoT-Sensoren liefern in Echtzeit Daten zu Bodenfeuchtigkeit, Temperatur, Nährstoffgehalt und Wetterbedingungen. Dadurch kann die Bewässerung gezielt auf die Bedürfnisse der Pflanzen abgestimmt werden, was nicht nur Wasser spart, sondern auch die Gefahr von Bodenerosion reduziert. Auch der Dünger wird durch gezielte Anwendung effizienter genutzt, was zu einer ressourcenschonenderen Landwirtschaft beiträgt.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Energieeffiziente Gebäude:&lt;/span&gt; Intelligente Heizungs-, Kühl- und Beleuchtungssysteme passen sich an die Nutzung an. So wird zum Beispiel ungenutzte Beleuchtung automatisch ausgeschaltet, und Heizsysteme werden in leeren Räumen heruntergeregelt. Dies spart nicht nur Energie, sondern reduziert auch die Betriebskosten erheblich.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Stromnetze:&lt;/span&gt; Intelligente Stromnetze (Smart Grids) nutzen IoT zur Optimierung des Energieverbrauchs und Integration erneuerbarer Energien.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Optimierung der Lieferketten:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Transparenz:&lt;/span&gt; IoT-Geräte wie GPS-Tracker ermöglichen die lückenlose Nachverfolgung von Waren in Echtzeit. Dadurch können ineffiziente Routen vermieden und Lieferzeiten verkürzt werden. Dies spart Kraftstoff und reduziert CO₂-Emissionen.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Reduzierung von Lebensmittelverschwendung:&lt;/span&gt; In der Lebensmittelbranche überwachen smarte Verpackungen die Temperatur verderblicher Waren während des Transports. Bei Temperaturabweichungen kann frühzeitig eingegriffen werden, wodurch Lebensmittelabfall vermieden wird.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;&lt;br&gt;Unterstützung der Kreislaufwirtschaft:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Proaktive Wartung:&lt;/span&gt; IoT kann den Zustand von Maschinen und Geräten überwachen, um Anzeichen von Verschleiß frühzeitig zu erkennen. So werden Reparaturen rechtzeitig durchgeführt, bevor teure und ressourcenintensive Ausfälle auftreten.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Langlebigkeit und Recycling: &lt;/span&gt;Nutzungsdaten helfen Herstellern, Schwachstellen in ihren Produkten zu erkennen und diese langlebiger zu gestalten. Auch das Recycling wird durch eine genauere Identifikation von Materialien in IoT-Geräten vereinfacht.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Intelligente Abfallwirtschaft: &lt;/span&gt;IoT-Sensoren in Müllcontainern optimieren die Entleerungstouren von Entsorgungsunternehmen und reduzieren damit Verkehrsaufkommen und Energieverbrauch.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Umweltüberwachung:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Klimaschutz:&lt;/span&gt; IoT-Sensoren erfassen Daten zu Luftqualität, Emissionen und Wasserverunreinigungen. Diese Informationen können in Echtzeit übermittelt werden, um Umweltprobleme schneller zu identifizieren und gezielte Maßnahmen einzuleiten.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Städtische Infrastruktur:&lt;/span&gt; Smarte Verkehrsmanagementsysteme analysieren Verkehrsflüsse auf Basis von IoT-Technologie in Echtzeit und optimieren Ampelschaltungen oder leiten Fahrzeuge um, um Staus zu vermeiden. Dies reduziert sowohl die Fahrzeiten als auch den Kraftstoffverbrauch und verbessert die Luftqualität.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Herausforderungen: Nachhaltigkeitsrisiken des IoT&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;Trotz der vielversprechenden Möglichkeiten birgt der Einsatz von IoT auch Herausforderungen für die Umwelt:&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Energieverbrauch:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Skalierungseffekte: &lt;/span&gt;Die exponentielle Verbreitung von IoT-Geräten führt zu einem steigenden Strombedarf für deren Betrieb und Datenverarbeitung.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Rechenzentren als Energieverbraucher:&lt;/span&gt; Cloud-Infrastrukturen, die IoT-Daten speichern und analysieren, sind oft sehr energieintensiv und benötigen nachhaltige Energielösungen.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Optimierungspotenzial: &lt;/span&gt;Ohne den Einsatz von energieeffizienten Algorithmen und Hardware könnte der Betrieb von IoT-Netzwerken den Energiebedarf der IT-Industrie erheblich steigern.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Elektronikschrott:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Kurze Lebenszyklen: &lt;/span&gt;Viele IoT-Geräte haben eine begrenzte Lebensdauer. Zudem erschweren proprietäre Technologien und fehlende Standards das Recycling.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Wachsende Abfallberge:&lt;/span&gt; Laut der UNEP („UN Environment Programme“) entsteht jährlich mehr als 50 Millionen Tonnen Elektroschrott. IoT könnte diese Zahl weiter erhöhen, wenn keine geeigneten Maßnahmen ergriffen werden.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Obsoleszenz durch technologische Entwicklung: &lt;/span&gt;Kurze Innovationszyklen führen dazu, dass Geräte schneller veralten und ersetzt werden müssen, was die Umweltbelastung erhöht.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Datensicherheit und Datenschutz:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Energieverbrauch durch Datenverarbeitung:&lt;/span&gt; Die Speicherung und Analyse von IoT-Daten benötigen große Rechenkapazitäten und somit Energie. Unnötige Datensammlungen könnten diesen Effekt verschärfen.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Ethische Fragen:&lt;/span&gt; Neben den Umweltaspekten wirft IoT Fragen des Datenschutzes und der Privatsphäre auf, da immer mehr persönliche Daten von IoT-Geräten gesammelt und verarbeitet werden.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Lösungsansätze: Nachhaltigkeit im IoT fördern&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Nachhaltigkeit im IoT kann durch gezielte Maßnahmen entlang des gesamten Lebenszyklus von IoT-Geräten und -Infrastrukturen gefördert werden. Hier sind die wichtigsten Ansätze:&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Green Design:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Effiziente Hardware:&lt;/span&gt; Geräte sollten energiearme Sensoren und Chips nutzen, die minimalen Stromverbrauch garantieren und mit langlebigen Materialien ausgestattet sind.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Modularität:&lt;/span&gt; Designs, die einfache Reparaturen und Upgrades erlauben, reduzieren Elektroschrott und sorgen für eine längere Nutzungsdauer.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Einsatz recycelter Materialien:&lt;/span&gt; Hersteller können nachhaltige Materialien integrieren und hohe Recyclingquoten anstreben, um die Umweltbelastung zu minimieren&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Betrieb:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Erneuerbare Energiequellen:&lt;/span&gt; IoT-Geräte und die dazugehörige Infrastruktur, wie Rechenzentren, sollten auf Strom aus erneuerbaren Energien setzen. Dezentrale Energiequellen wie Solarenergie für Sensoren können ebenfalls helfen.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Dynamische Datenverarbeitung:&lt;/span&gt; Edge Computing ermöglicht es, Daten näher an der Quelle zu verarbeiten, wodurch der Energieverbrauch für die Datenübertragung verringert wird. Redundante Datensammlungen sollten vermieden werden, um unnötige Rechenlasten zu minimieren.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Nutzung von Low-Power-Netzwerken:&lt;/span&gt; Technologien wie LPWAN (Low Power Wide Area Networks) bieten energieeffiziente Kommunikationslösungen, besonders für Geräte mit geringer Bandbreitenanforderung&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Standardisierung und Regulierung:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Globale Standards:&lt;/span&gt; Einheitliche Protokolle und offene Standards erleichtern die Wiederverwendung und das Recycling von Geräten&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Verpflichtende Recyclingquoten:&lt;/span&gt; Hersteller sollten gesetzlich verpflichtet werden, hohe Anteile an recycelten Materialien in neuen IoT-Produkten zu verwenden.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Bewusstseinsbildung:&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Aufklärung:&lt;/span&gt; Unternehmen müssen Mitarbeitende und Kunden über nachhaltige Nutzungsmöglichkeiten informieren.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;span class=&quot;s1&quot;&gt;Nachhaltiger Konsum:&lt;/span&gt; Verbraucher sollten Geräte bewusst auswählen und bei ihren Kaufentscheidungen auf Langlebigkeit und Effizienz achten.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h4 class=&quot;p1&quot;&gt;&lt;strong&gt;Fazit&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p2&quot;&gt;IoT und Nachhaltigkeit stehen nicht zwangsläufig im Widerspruch. Im Gegenteil: Richtig eingesetzt, kann IoT eine entscheidende Rolle bei der Bewältigung globaler Umweltprobleme spielen. Entscheidend ist jedoch, dass die Technologien verantwortungsvoll entwickelt und genutzt werden. Energieeffizienz, langlebige Designs und der Einsatz erneuerbarer Energien müssen dabei im Mittelpunkt stehen, um sicherzustellen, dass IoT zu einer nachhaltigen Zukunft beiträgt – statt sie zu gefährden.&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Hinweis: Dieser Artikel wurde durch ChatGPT unterstützt.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[1]&lt;/sup&gt; &lt;a href=&quot;https://explodingtopics.com/blog/number-of-iot-devices&quot;&gt;https://explodingtopics.com/blog/number-of-iot-devices&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/sind-iot-und-nachhaltigkeit-im-widerspruch-oder-eine-chance" /><updated>2025-07-07T11:18:00+00:00</updated><id>https://www.seqis.com/de/blog/sind-iot-und-nachhaltigkeit-im-widerspruch-oder-eine-chance</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/AdobeStock_417929874.jpeg" type="image/jpeg" /></entry><entry><title>Nachhaltigkeit vs. Fortschritt: Ist KI ein Umweltproblem?</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                   &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Künstliche Intelligenz (KI) hat sich in den letzten Jahren rasant entwickelt und durchdringt zunehmend verschiedene Bereiche unseres Lebens. Spätestens seit der Veröffentlichung des Textroboters ChatGPT von OpenAI ist KI in aller Munde. Ob in der Medizin, der Industrie oder dem Alltagsleben – KI-Technologien bieten enorme Chancen für Effizienzsteigerung und Innovation. Doch die zunehmende Verbreitung dieser Technologien hat auch eine entscheidende Kehrseite: Sie kann erhebliche Umweltbelastungen verursachen. Öffnen wir mit KI somit eine Büchse der Pandora?&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;Entwicklung der künstlichen Intelligenz&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Die Wurzeln der künstlichen Intelligenz reichen bis in die 1950er Jahre zurück, als Wissenschaftler begannen, Algorithmen zu entwickeln, die menschliches Lernen und Problemlösungsverhalten nachahmen. In den letzten Jahrzehnten haben Fortschritte in der Rechenleistung und die Verfügbarkeit großer Datenmengen (Big Data) das maschinelle Lernen und insbesondere tiefe neuronale Netze (Deep Learning) revolutioniert. Heute sind KI-Modelle in der Lage, komplexe Aufgaben zu bewältigen, von der Bilderkennung bis hin zur Vorhersage von Krankheitsverläufen. Doch die leistungsfähigen Algorithmen erfordern immense Rechenkapazitäten, was zu steigenden Energieverbräuchen führt.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Zusätzlich zu diesen technologischen Fortschritten hat die Kommerzialisierung von KI-Technologien eine exponentielle Nachfrage nach Rechenleistung geschaffen. Unternehmen und Forschungseinrichtungen weltweit investieren in immer leistungsstärkere Hardware, um wettbewerbsfähig zu bleiben. Dies hat zur Entstehung riesiger Rechenzentren geführt, die eine ununterbrochene Stromversorgung und Kühlung benötigen.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;Warum ist KI deswegen ein Umweltproblem?&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;„Nachhaltigkeit” ist - leider - zu einem Modewort verkommen. Überall findet man Nachhaltigkeit, auf Milchpackungen genauso wie auf den Hinweisen von Spielsachen, auf Werbeseiten von Fluglinien und sogar in der Softwareentwicklung. Zur Definition von Nachhaltigkeit fragen wir Wikipedia:&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;em&gt;„Nachhaltigkeit ist ein Handlungsprinzip bei der Nutzung von Ressourcen. Hierbei soll eine dauerhafte Bedürfnisbefriedigung gewährleistet werden, indem die natürliche Regenerationsfähigkeit der beteiligten Systeme bewahrt wird, vor allem von Lebewesen und Ökosystemen. Das Handlungsprinzip der Nachhaltigkeit ist ein Zielkonflikt, ein veränderlicher bestmöglicher Zustand, in dem es nicht möglich ist, die Ziel-Eigenschaft Ressourcennutzung zu verbessern, ohne zugleich die andere Eigenschaft des Ressourcen-Erhalts verschlechtern zu müssen. Im Allgemeinen wird Nachhaltigkeit heute als Form der Ressourcennutzung verstanden, die nach dem Drei-Säulen-Modell auf dem gleichzeitigen und gleichberechtigten Umsetzen von Umweltschutz, langfristigem Wirtschaften und einem fairen Miteinander beruht, damit auch zukünftige Generationen gut leben können.” &lt;sup&gt;[1]&lt;/sup&gt;&lt;/em&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Kurz gesagt, Nachhaltigkeit soll sicherstellen, dass das ökologische Gleichgewicht erhalten bleibt. Eine steigende Nutzung von Ressourcen geht also gleichzeitig mit einer Benachteiligung des Gleichgewichts einher.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Nun fragt man sich - Rechenzentren hat es doch schon früher gegeben, warum soll das auf einmal so schädlich für die Umwelt sein?&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;KI ist kein „fertiges Programm”, das einmalig entwickelt wird. Sie soll sich weiterentwickeln, soll lernen, soll trainiert werden - selbständig, durch die Erfahrungen mit InternetnutzerInnen, oder durch die gezielte Versorgung mit Testdaten. Und das benötigt Rechenleistung und somit Energie. Auch unabhängig davon verbraucht eine Anfrage etwa bei ChatGPT grob zehnmal so viel Energie wie eine Google-Suche.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;„Rechenzentren verbrauchen heute vier bis fünf Prozent des weltweiten Energieverbrauchs“, sagte der Geschäftsführer des Hasso-Plattner-Instituts (HPI) in Potsdam und Leiter des Fachgebiets Künstliche Intelligenz und Nachhaltigkeit, Ralf Herbrich, der Nachrichtenagentur dpa. „Es gibt Schätzungen, dass der Verbrauch in den nächsten Jahren auf 30 Prozent ansteigen wird.“&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Masanet.jpeg&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;302&quot;&gt;&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;Abbildung 1: (Quelle: Masanet et al. (2020), Cisco, IEA, Goldman Sachs Research)&lt;/sup&gt;&lt;/span&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Die Umweltbelastung durch KI-Technologien lässt sich auf mehrere Faktoren zurückführen:&lt;/p&gt; &lt;p&gt;&lt;strong&gt;&lt;em&gt;1. Energieverbrauch von Rechenzentren&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Moderne KI-Anwendungen basieren auf rechenintensiven Prozessen, die in leistungsfähigen Rechenzentren durchgeführt werden. Diese Rechenzentren benötigen enorme Mengen an Energie, um sowohl die Server zu betreiben als auch die notwendige Kühlung zu gewährleisten. Das Training des „Generative Pre-trained Transformer 3” (GPT-3) Sprachmodells von OpenAI, welches Deep Learning verwendet, benötigte beispielsweise 1.287 Megawattstunden Strom - das entspricht dem Verbrauch einer Kleinstadt über mehrere Monate (Beispiel: Klein-Neusiedl; ca. 1.000 Einwohner). Die dabei entstandenen CO&lt;span class=&quot;s2&quot;&gt;2&lt;/span&gt;-Emissionen entsprachen etwa 700 Hin- und Rückflügen von Wien nach Dubai. Der Nachfolger, GPT-4, benötigte 6 Monate Training und verbrauchte dabei sogar 7.200 Megawattstunden - das 5,5-fache seines Vorgängers! Google möchte bis zum Jahr 2030 unterm Strich klimaneutral sein. Aus diesem Grund sollen KI-Rechenzentren künftig mit kleinen modularen Atomkraftwerken betrieben werden, bis 2035 soll die jährliche Leistung 500 Megawatt erreichen. Nachhaltigkeit durch Atomstrom?&lt;/p&gt; &lt;p&gt;&lt;strong&gt;&lt;em&gt;2. Ressourcenverbrauch und CO&lt;/em&gt;&lt;/strong&gt;&lt;span class=&quot;s2&quot;&gt;&lt;strong&gt;&lt;em&gt;2&lt;/em&gt;&lt;/strong&gt;&lt;/span&gt;&lt;strong&gt;&lt;em&gt;-Emissionen&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Die Herstellung der Hardware für KI-Systeme erfordert seltene Erden und andere Rohstoffe, deren Abbau oft mit erheblichen Umweltschäden verbunden ist. Zudem erzeugt der Betrieb von KI-Modellen erhebliche CO&lt;span class=&quot;s2&quot;&gt;2&lt;/span&gt;-Emissionen, insbesondere wenn der Strom aus fossilen Quellen stammt. Selbst in Regionen mit erneuerbarer Energie besteht das Problem, dass der steigende Strombedarf die Energiewende verlangsamen könnte. Eine Studie der Universität Massachusetts ergab, dass das Training eines einzigen großen KI-Modells mehr als 284 Tonnen CO&lt;span class=&quot;s2&quot;&gt;2&lt;/span&gt; emittieren kann – das entspricht dem fünfmaligen CO&lt;span class=&quot;s2&quot;&gt;2&lt;/span&gt;-Ausstoß eines durchschnittlichen amerikanischen Autos über dessen gesamte Lebensdauer.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Ein weiteres Problem ist der Wasserverbrauch. Rechenzentren benötigen große Mengen an Wasser zur Kühlung, was in trockenen Regionen zu ernsthaften Wasserknappheiten führen kann. Ein aktuelles Thema dazu sind die Waldbrände in Südkalifornien, welche seit dem 7. Jänner 2025 wüten, wo die Wasserknappheit zu erheblichen Problemen bei der Bekämpfung der Brände führt. Ironischerweise sind in Kalifornien auch große Rechenzentren angesiedelt, etwa von Google, die das Grundwasser zusätzlich belasten.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;&lt;strong&gt;&lt;em&gt;3. E-Waste und kurze Innovationszyklen&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;Technologische Fortschritte führen dazu, dass Hardware-Komponenten immer schneller ersetzt werden müssen. Alte Server, Prozessoren und GPUs werden entsorgt, was zu wachsendem Elektroschrott führt. Da viele dieser Materialien schwer zu recyceln sind, entstehen zusätzliche Umweltprobleme. Darüber hinaus sind die Lebenszyklen von KI-Technologien oft sehr kurz. Neue Modelle und Algorithmen erfordern oft spezialisierte Chips, die ältere Generationen schnell obsolet machen. Dies führt zu einem noch schnelleren Austausch der Hardware, was den Ressourcenverbrauch weiter erhöht.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;Nutzen und Kosten von KI aus ökologischer Sicht&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;KI-Technologien können jedoch auch zur Lösung von Umweltproblemen beitragen. Daher stellt sich die Frage, ob der Nutzen den ökologischen Schaden überwiegt.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;&lt;em&gt;Nutzen von KI für die Umwelt&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Optimierung von Energieverbrauch:&lt;/strong&gt; KI kann dabei helfen, Stromnetze effizienter zu steuern und den Energieverbrauch in Unternehmen und Haushalten zu reduzieren.&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;&lt;strong&gt;Nachhaltige Landwirtschaft: &lt;/strong&gt;Durch präzise Analysen können KI-Modelle Landwirten helfen, Wasser und Düngemittel effizienter einzusetzen.&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;&lt;strong&gt;Früherkennung von Umweltproblemen:&lt;/strong&gt; KI-gestützte Sensoren können Umweltveränderungen frühzeitig identifizieren und Katastrophen wie Waldbrände, Erdbeben oder Tsunamis vorhersagen.&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;&lt;strong&gt;Kreislaufwirtschaft:&lt;/strong&gt; KI kann Materialströme optimieren und so Recyclingprozesse verbessern.&lt;/li&gt; &lt;li class=&quot;p6&quot;&gt;&lt;strong&gt;KI im Umweltschutz:&lt;/strong&gt; Google selbst nutzt das Unternehmen DeepMind KI, um den Energieverbrauch seiner Rechenzentren um 40 % zu reduzieren.&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;&lt;em&gt;Kosten und Risiken&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;Steigender Energiehunger: Die Fortschritte in der KI führen dazu, dass immer leistungsfähigere Modelle trainiert werden müssen, was den Energiebedarf weiter erhöht.&lt;/p&gt; &lt;p class=&quot;p6&quot;&gt;Mangelnde Transparenz: Es gibt bislang wenige Standards für die Nachhaltigkeit von KI-Anwendungen, was es schwierig macht, ihren ökologischen Einfluss zu bewerten.&lt;/p&gt; &lt;p class=&quot;p6&quot;&gt;Abhängigkeit von Rohstoffen: Der steigende Bedarf an Hochleistungs-Hardware erhöht die Nachfrage nach seltenen Erden und anderen kritischen Rohstoffen.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Lösungsansätze für eine nachhaltige KI&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Um das Spannungsfeld zwischen Fortschritt und Nachhaltigkeit zu entschärfen, sind verschiedene Maßnahmen notwendig:&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;&lt;em&gt;Energieeffiziente KI-Modelle&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Die Forschung an effizienteren Algorithmen kann dazu beitragen, den Rechenaufwand zu senken. Beispielsweise können prädiktive Modelle zur Energieeinsparung beitragen oder sparsamer programmierte neuronale Netze verwendet werden.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;&lt;em&gt;Einsatz erneuerbarer Energien&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Rechenzentren können verstärkt auf erneuerbare Energien setzen, um ihren CO&lt;span class=&quot;s1&quot;&gt;2&lt;/span&gt;-Fußabdruck zu minimieren. Einige Tech-Unternehmen investieren bereits in nachhaltige Stromquellen, doch hier gibt es noch viel Potenzial.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;&lt;em&gt;Verlängerte Lebensdauer von Hardware&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Durch Recycling und Wiederverwendung können wertvolle Rohstoffe eingespart werden. Unternehmen sollten zudem auf langlebigere Hardware setzen und die Innovationszyklen verlängern.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;&lt;em&gt;Bewusste Nutzung von KI&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Nicht jede Anwendung muss auf komplexen neuronalen Netzen basieren. Häufig reichen einfachere, weniger rechenintensive Modelle aus, um eine Aufgabe zu bewältigen. Unternehmen sollten prüfen, in welchen Fällen eine ressourcenintensive KI wirklich notwendig ist.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/ChatGPT-bewussteNutzung.jpeg&quot; alt=&quot;&quot; width=&quot;200&quot; height=&quot;281&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;Abbildung 2: (Quelle: x.com)&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Müssen wir wirklich jedes Mal eine KI befragen, wenn wir nach etwas suchen? Und auch wenn wir keine KI fragen, müssen wir wirklich eine Suchmaschine öffnen? Haben Lexika, Wörterbücher und Atlanten wirklich keine Daseinsberechtigung mehr?&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;strong&gt;&lt;em&gt;Regulierung und Transparenz&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Politische Entscheidungsträger können Nachhaltigkeitsstandards für KI entwickeln und Unternehmen dazu verpflichten, ihre Umweltauswirkungen offenzulegen. Dadurch könnten nachhaltigere Innovationen gefördert werden.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Ausblick: Die Zukunft der nachhaltigen KI&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Ist KI somit gesehen ein Umweltproblem? Die Antwort lautet: ja. Aber sie ist ein Problem, dem entgegengewirkt werden kann, und die Debatte darüber sollte intensiviert und Verbesserungen dringend erarbeitet werden. Eine nachhaltige KI ist möglich – doch sie erfordert bewusstes Handeln und eine langfristige Strategie. Nur so kann sichergestellt werden, dass der Fortschritt nicht auf Kosten der Umwelt geht, sondern im Einklang mit ihr steht. Und dazu müssen wir zuallererst unsere eigene Einstellung zu KI hinterfragen. Wollen wir ChatGPT nur benutzen, nur weil es gerade “in” ist? Müssen wir wirklich einen “smarten” Thermostat kaufen? Oder reicht es, selber die paar Schritte zum Heizkörper zu machen, und währenddessen in einem Lexikon nachzuschlagen?&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/Brandhuber_Fortschritt%20vs.%20Nachhaltigkeit%20.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;438&quot;&gt;&lt;/p&gt;         &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[1]&lt;/sup&gt; https://de.wikipedia.org&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/nachhaltigkeit-vs-fortschritt-ist-ki-ein-umweltproblem" /><updated>2025-07-07T11:04:00+00:00</updated><id>https://www.seqis.com/de/blog/nachhaltigkeit-vs-fortschritt-ist-ki-ein-umweltproblem</id><author><name>Martin Brandhuber</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/Brandhuber_Fortschritt%20vs.%20Nachhaltigkeit%20.png" type="image/png" /></entry><entry><title>Ressourcenbewusster Umgang in der IT</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                   &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;strong&gt;Steigende Energiekosten machen den effizienten, nachhaltigen Umgang mit unseren Ressourcen nicht nur zu einem ökologischen, sondern auch zu einem ökonomischen Thema, das aber bisher großteils sehr stiefmütterlich behandelt wurde und noch immer in den Kinderschuhen steckt. Eine weitere Schwierigkeit ist, dass es in dem Bereich, wie auch in vielen anderen Bereichen der  IT, nur wenig allgemeingültige Paradigmen gibt, sondern viele Wege, die Vor- aber auch Nachteile haben. Daher möchte ich mit diesem Artikel vor allem Gedankenanstöße liefern. Welche Maßnahmen für verschiedene Teams, Organisationen und Unternehmen sinnvoll sind, muss man konkret und individuell bestimmen und, wie üblich, kontinuierlich verbessern und an neue Entwicklungen anpassen.&lt;/strong&gt;&lt;/span&gt;&lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;Kurzfristige und im kleinen Bereich umsetzbare Maßnahmen&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p4&quot;&gt;Zuerst zeige ich Ideen auf, die ohne große Vorbereitungen, finanziellen Aufwand und teilweise auch vom Team oder einzelnen Teammitgliedern umgesetzt werden können.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Speicher- und/oder Rechenleistung sparender Code&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;Das hört sich auf den ersten Blick nach einer Selbstverständlichkeit an, ist es aber in Wirklichkeit nicht. Ich habe es in meinem Berufsleben oft genug erlebt, dass effizienter Einsatz von Speicher und Rechenleistung zumindest in Teilbereichen keine wichtige Nicht-Funktionale-Anforderung war. Oft gibt es nur die Anforderung, dass die Benutzeroberfläche schnell reagieren muss, Back-End-Tasks werden aber oft nicht in Hinblick auf Effizienz programmiert, wenn ihre Durchlaufzeit keine Wichtigkeit hat. Man sollte aber jetzt auch nicht in einen “Optimierungswahn” verfallen. Lesbarer und leicht verständlicher Code ist in den meisten Fällen besser als hoch optimierter Code, der z.B. exzessiv Objekte wiederverwendet, um Aufwand durch Initialisierungen und Garbage Collection zu reduzieren. Es besteht die Gefahr, dass kleine Ressourceneinsparungen hier durch erhöhten Wartungsaufwand aufgefressen werden.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Modularer Code&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;Per se spart modulare Programmierung jetzt keine Ressourcen, sie ermöglicht es aber erst, exakt an die Anforderungen skalierbare Software zu erstellen.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Wahl effizienter Programmiersprachen&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;Programmiersprachen haben stark unterschiedliche Stärken und Schwächen. Manche Aufgaben können ausgezeichnet von leichtgewichtigen Skriptsprachen erledigt werden. Schwergewichtige Allzweck-Sprachen mit großem Funktions- und Leistungsumfang zu verwenden bedeutet, öfters auch mal mit Kanonen auf Spatzen zu schießen. Sicherlich haben diese Sprachen ihre Berechtigung, der Einsatz sollte aber bewusst erfolgen und nicht als einzigen Grund haben, dass “es das eh auch kann”.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Wahl der passenden IDE&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;Hier gibt es 2 Dinge zu beachten. Erstens gibt es IDEs, die initial schon deutlich mehr Ressourcen verbrauchen als leichtgewichtige Alternativen. Hier sollte man nicht einfach die IDE wählen, die die meisten Funktionen hat, sondern die, die die benötigten bietet. Zweitens kann man mittlerweile quasi alle IDEs hochgradig erweitern und Zusatzmodule installieren. Hier gibt es die Gefahr, dass man nicht genau überlegt, was man braucht, sondern einfach aus Bequemlichkeit viel zu viel installiert und die IDE unnötig aufbläht.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Richtiger Einsatz von KI&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;KI wird mittlerweile nicht nur als Hilfe bei der Programmierung, sondern auch immer mehr in der Software selbst eingesetzt. Klarerweise benötigt dieser Einsatz Ressourcen, er wird aber in vielen Fällen sinnvoll sein. Oft gibt es hier aber noch sehr viel Optimierungspotential. Mächtige LLMs liefern mittlerweile in vielen Szenarien erstaunlich gute Ergebnisse, brauchen aber sehr viel Energie (und verursachen dann auch hohe Kosten). Viele Tasks können aber auch von gut eingestellten, speziellen Modellen ähnlich gut, aber mit viel weniger Energieverbrauch und Kosten erledigt werden.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt; &lt;/p&gt; &lt;h4 class=&quot;p3&quot;&gt;&lt;strong&gt;Maßnahmen, die typischerweise aufwendiger in der Umsetzung sind und über die Teamebene hinausgehen&lt;/strong&gt;&lt;/h4&gt; &lt;p class=&quot;p3&quot;&gt;Die folgenden Maßnahmen müssen üblicherweise firmenweit getroffen werden, benötigen höheren finanziellen Einsatz und können oft nur langfristig umgesetzt werden.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Nutzung von Software-Virtualisierung&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;Software-Virtualisierung kann helfen, die Software je nach Auslastung nach unten oder oben zu skalieren und damit nur so viele Ressourcen wie wirklich aktuell gebraucht werden. Auch können so Test- und Staging-Systeme einfach nach Bedarf hoch- und nieder gefahren. Modulare Software, die auf Services aufbaut, kann hier noch gezielter benötigten Teilen mehr Ressourcen zuweisen, ohne automatisch das ganze System hochskalieren zu müssen.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Nutzung von Hardware-Virtualisierung&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;Hardware-Virtualisierung hat den Vorteil, dass aus einem gemeinsamen Pool an Speicher und Rechenleistung beides nach Bedarf den laufenden Systemen zugeteilt werden kann. Ohne diese Virtualisierung müsste jedem System von vornherein so viele Ressourcen zugeteilt werden, wie es maximal benötigen darf – was in Summe deutlich mehr sein kann. Besonders sinnvoll ist dies, wenn man schon a priori weiß, dass das System zu unterschiedlichen Zeiten hohe Auslastungen haben wird.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Natürlich wird durch diese Virtualisierung Overhead erzeugt, daher muss dies mit dem Einsparungspotential abgeglichen werden. Sicherheitstechnisch muss man zusätzlich bedenken, dass physische Daten von mehreren Systemen auf einer Hardware landen, was eventuell nicht gewünscht ist. Sauber konfigurierte Systeme können diese Risiken aber softwaretechnisch gut mitigieren, bei extrem sensiblen Daten mag dies aber nicht reichen.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Dann stellt sich auch die Frage, ob diese Virtualisierung intern abgewickelt, von einem Rechenzentrum übernommen oder überhaupt von einem Cloud-Anbieter abgewickelt werden soll.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Das größte Ressourcen-Einsparungspotential gibt es sicherlich in der Cloud. In der Cloud können Einsparungsmaßnahmen so weit gehen, dass Rechenleistung zeitlich an unterschiedlichen Orten generiert wird, wo gerade Überschuss an Energie herrscht. Nachteil ist aber, dass man kaum Einfluss darauf hat, wie der Cloud-Anbieter dies wirklich umsetzt, ob diese Einsparungen sich ökonomisch auch für den Kunden lohnen und ob andere Nebeneffekte den ökologischen Fußabdruck nicht doch noch größer machen. All dies hat man natürlich besser im Griff, wenn Rechenleistung und Speicher intern bereitgestellt werden.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Passende Hardware für Mitarbeiter&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;Eine sinnvolle Auswahl der Hardware kann auch Einsparungspotential bieten. ARM-Systeme sind derzeit deutlich ressourcenschonender als x86-Systeme.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Ebenso ist der Einsatz von Echtgeräten eine Alternative zur Verwendung von besonders rechenstarker Hardware, die die Emulation stemmen können muss.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Eine weitere Möglichkeit ist die Verwendung von virtualisierten Arbeitsumgebungen. So muss die geforderte Rechenleistung nicht von der Hardware des Users generiert werden, sondern kann von einem zentralen Server bezogen werden, der dies potenziell effizienter machen kann.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;&lt;strong&gt;&lt;em&gt;Homeoffice im Hinblick auf Ressourcenschonung&lt;br&gt;&lt;/em&gt;&lt;/strong&gt;Homeoffice spart zwar Ressourcen, die bei der Anfahrt zum Arbeitsort verbraucht werden, verbraucht aber an anderer Stelle auch Ressourcen. Als einfachstes Beispiel gebe ich hier ein größeres Meeting an, bei dem einmal alle Teilnehmer ihren eigenen Computer und Bildschirm nutzen und über das Netzwerk kommunizieren müssen, während, wenn alle an einem Ort wären, keine technischen Geräte in Betrieb sein müssten. Auch andere Aspekte könnten ein großes Büro effizienter bedienen als viele einzelne verteilte Arbeitsplätze.&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Ein öffentlich gut erreichbares, energieeffizientes Gebäude, Mitarbeiter-Benefits wie gestützte E-Mobility und sinnvoller Einsatz von Homeoffice tragen sicherlich auch zu ökologischer Effizienz bei.&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;strong&gt;Abschließende Worte&lt;br&gt;&lt;/strong&gt;Der ressourcenbewusste Umgang in der IT ist ein komplexes und vielschichtiges Feld, das von kurzfristig umsetzbaren Optimierungen im Code bis hin zu langfristigen strategischen Entscheidungen auf Unternehmensebene reicht. Dieser Artikel ist als Impulsgeber zu verstehen, die hier vorgestellten Ideen müssen in Ihrem eigenen Kontext geprüft, evaluiert und angepasst werden. Es ist klar, dass dies eine teilweise herausfordernde, aber auch lohnende Aufgabe ist. Gerne können wir Sie hierbei auch unterstützen und einen Teil des Weges gemeinsam gehen. Auch über Feedback und Erfahrungsaustausch würde ich mich freuen. &lt;a href=&quot;https://www.seqis.com/&amp;#109;&amp;#97;&amp;#105;&amp;#108;&amp;#116;&amp;#111;&amp;#58;markus@&amp;#115;&amp;#x63;&amp;#104;&amp;#x77;&amp;#97;&amp;#x62;&amp;#101;&amp;#x6E;&amp;#101;&amp;#x64;&amp;#101;&amp;#x72;&amp;#64;&amp;#x53;&amp;#69;&amp;#x51;&amp;#73;&amp;#x53;&amp;#46;&amp;#x63;&amp;#111;&amp;#x6D;&quot;&gt;markus@&amp;#115;&amp;#x63;&amp;#104;&amp;#x77;&amp;#97;&amp;#x62;&amp;#101;&amp;#x6E;&amp;#101;&amp;#x64;&amp;#101;&amp;#x72;&amp;#64;&amp;#x53;&amp;#69;&amp;#x51;&amp;#73;&amp;#x53;&amp;#46;&amp;#x63;&amp;#111;&amp;#x6D;&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/ressourcenbewusster-umgang-in-der-it" /><updated>2025-07-07T10:55:00+00:00</updated><id>https://www.seqis.com/de/blog/ressourcenbewusster-umgang-in-der-it</id><author><name>SEQIS</name></author></entry><entry><title>Brauchen wir wirklich Green IT?</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                   &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Die aktuelle Lage der Klimakatastrophe und ihre Entwicklung&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Um zu beurteilen, wie wichtig Nachhaltigkeit in der IT ist, zuerst zur aktuellen Lage: Fast jedes Jahr ein neues Jahrhunderthochwasser (August 2002 in Teilen Deutschlands, Tschechien und Österreich - Juni 2013 in Mitteleuropa, vor allem Bayern - Juli 2021 Ahrtal in Deutschland - Dezember 2023 Niedersachsen, Sachsen-Anhalt Thüringen und Nordrhein-Westfalen, Juni 2024 Teile Süddeutschlands)&lt;sup&gt;[1]&lt;/sup&gt;, jedes Jahr ein neuer Hitzerekord (die letzten 10 Jahre sind die Top 10 der heißesten Jahre weltweit seit Beginn der Aufzeichnungen)&lt;sup&gt;[2]&lt;/sup&gt; und Dürreperioden, die Waldbrände begünstigen&lt;sup&gt;[3]&lt;/sup&gt; und sogar zu Trinkwasserrationierung führen. Der Amazonas Regenwald ist bereits ein Emittent von Treibhausgasen anstatt ein Speicher, wie Geo.de 2021 berichtet:&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;em&gt;„Der brasilianische Teil des Amazonasgebiets hat zwischen 2010 und 2019 rund 18 Prozent mehr CO2 ausgestoßen als im selben Gebiet vom Regenwald gespeichert wurde.“ &lt;/em&gt;&lt;sup&gt;[4] &lt;/sup&gt;(Thome, M. (2021, May 3).&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Amazonas-Gebiet stößt mehr CO2 aus, als es bindet (GEO. Retrieved February 26, 2025).&lt;sup&gt;[4]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Im Januar lag die globale Temperatur 1,75 Grad über dem vorindustriellen Niveau 5. Dies ist auch der Grafik zu entnehmen, in der man auch sieht, dass die Jahre 2023 und 2024 einen beachtlichen Sprung der globalen Temperatur aufweisen.&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/C3S_PR_202501_Fig2_timeseries_global_temperature_anomalies_ref1850-1900_allmonths.png&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;418&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;Abbildung 1: ECMWF/ Copernicus Climate Change Service (Quelle: https://climate.copernicus.eu/copernicus-january-2025-was-warmest-record-globally-despite-emerging-la-nina)&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Das Pariser Klimaabkommen hat sich zum Ziel gesetzt, die globale Erderwärmung auf 1,5°C zu beschränken. Häufig ist zu lesen, dass sich diese Temperatur auf das Mittel von 1-2 Jahrzehnten bezieht. Das würde bedeuten, wir können erst im Nachhinein feststellen, ob wir das Ziel verfehlt haben. Unabhängig davon sehen wir anhand der Grafik des 6. Weltklimaratberichts und des aktuellen politischen Kurses, dass zu wenig getan wird und dieses Ziel jetzt schon als gescheitert angesehen werden kann. 2024 war sogar der Verbrauch von Öl, Gas und Kohle auf einem Allzeithoch.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;img src=&quot;https://www.seqis.com/files/SEQIS/downloads/events/2025/IPCC_AR6_WGIII_FigureSPM4.webp&quot; alt=&quot;&quot; width=&quot;500&quot; height=&quot;378&quot;&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;Abbildung 2: (Quelle: Kriegler, E., et al. “Data for Figure SPM.4 - Summary for Policymakers of the Working Group III Contribution to the IPCC Sixth Assessment Report.” MetadataWorks, https://doi.org/10.48490/ys3e-mq98)&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Bereits jetzt ist absehbar, dass kein aktuell lebender Mensch mehr einen Rückgang der Erwärmung erleben wird. Die Klimakatastrophe kann nur noch gebremst, aber zu unseren Lebzeiten nicht rückgängig gemacht werden. Also, es ist höchste Zeit zu handeln, denn das Fenster, etwas zu tun, schließt sich immer weiter.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt; &lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Die Hauptverursacher, Potentiale und die Rolle der IT&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Die größten Faktoren für das Steigen der Emissionen sind vor allem Energie-, Industrie- und Bausektor mit ~79%. Danach kommt die Land- und Forstwirtschaft sowie andere Landnutzung Sektoren mit insgesamt 22%.&lt;sup&gt;[9]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Die EU Kommission&lt;sup&gt;[10]&lt;/sup&gt; nennt konkreter die folgenden Gründe für das weitere Anwachsen der Emissionen:&lt;/p&gt; &lt;ul&gt; &lt;li class=&quot;p4&quot;&gt;Verbrennung von Kohle, Erdöl und Erdgas&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Abholzung von Wäldern (Entwaldung)&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Intensivierung der Viehzucht&lt;/li&gt; &lt;li class=&quot;p5&quot;&gt;Stickstoffhaltige Dünger&lt;/li&gt; &lt;/ul&gt; &lt;p class=&quot;p2&quot;&gt;Der Informations- und Kommunikationssektor (IKT-Sektor) ist dabei gerade mal für 2% der weltweiten CO2 Emissionen verantwortlich. Sieht man sich den Stromverbrauch an, sind es 5-9%&lt;sup&gt;[11]&lt;/sup&gt;. Das sind durchaus beachtliche Zahlen, doch im Vergleich zu den oben genannten Faktoren eher gering. Würde man die Energiegewinnung vollständig auf erneuerbare Energien umstellen, würde der Anteil an CO2 Emissionen des IKT-Sektors auch beachtlich schrumpfen. Jedoch ist die Belastung von Klima und Umwelt nicht ausschließlich auf CO2-Emissionen, beschränkt und die vollständige Umstellung auf erneuerbare Energien würde auch noch einige Zeit und mehr politischen Willen benötigen.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Im sechsten Sachstandbericht der Arbeitsgruppe 3 zur Minderung des Klimawandels habe ich folgende Aussage gefunden:&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;&lt;em&gt;„In Entwicklungsländern wurde Innovation aufgrund von weniger förderlichen Rahmenbedingungen verzögert. Digitalisierung kann Emissionssenkungen ermöglichen, kann aber auch negative Nebeneffekte haben, wenn sie nicht angemessen gesteuert wird.“&lt;/em&gt;&lt;sup&gt;[12]&lt;/sup&gt;&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Als Beispiel: Der Einsatz von KI und Robotern kann Produktionsprozesse weiter optimieren, indem der Materialverbrauch reduziert und die Energieeffizienz gesteigert wird. Gleichzeitig könnte dadurch die Produktion gesteigert und so die Auswirkungen einer geringeren Belastung für die Umwelt verloren gehen. (Sollten Sie sich für KI und Nachhaltigkeit interessieren, finden Sie auch einen eigenen Artikel dazu in unserer Quality News: &lt;span class=&quot;s1&quot;&gt;„&lt;/span&gt;Nachhaltigkeit vs. Fortschritt: Ist KI ein Umweltproblem?“).&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Das bedeutet, dass sich eine Effizienzsteigerung nicht auf eine erhöhte Produktion, sondern nur auf reduzierte Kosten auswirken sollte. Außerdem ist es wichtig, den Energieverbrauch so weit wie möglich zu reduzieren. Selbst bei ausschließlicher Nutzung erneuerbarer Energien bleibt ein verantwortungsvoller Umgang mit Rohstoffen und unserer Umwelt unerlässlich – denn die Naturgesetze sind unveränderlich.&lt;br&gt;&lt;br&gt;&lt;/p&gt; &lt;h3 class=&quot;p1&quot;&gt;&lt;strong&gt;Wie können wir Green IT und Nachhaltigkeit im Unternehmen umsetzen und wie kann davon profitiert werden?&lt;/strong&gt;&lt;/h3&gt; &lt;p class=&quot;p2&quot;&gt;Natürlich ist individuelles Verantwortungsbewusstsein zu befürworten. Zum Beispiel ist es sinnvoll, nicht benötigte Arbeitsgeräte (z.B. über das Wochenende) abzuschalten, anstatt nur in den Standby-Modus zu versetzen. Jedoch würde ich an dieser Stelle noch nicht von Green IT sprechen, abgesehen davon, dass es nur sehr marginale Verbesserung bringt, vermutlich nicht von allen umgesetzt wird. Hier meine Vorschläge für konkrete Handlungsempfehlungen:&lt;/p&gt; &lt;p class=&quot;p4&quot;&gt;Home Office: Durch Home Office lassen sich Arbeitswege vermeiden und so den CO2 Ausstoß für Arbeitswege stark reduzieren. Dadurch, dass das Büro nicht mehr voll besetzt ist, können geteilte Arbeitsplätze eingerichtet und somit Kosten gespart werden. Richtig umgesetzt, können sie für Arbeitnehmer ein attraktiveres Unternehmen werden und bieten einen Vorteil gegenüber der Konkurrenz.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;Videokonferenzen: Manchmal lässt es sich nicht vermeiden, zu einem Kunden zu fahren. Videokonferenzen können Reisekosten sparen, sie sind einfacher zu planen und kurzfristiger umzusetzen und das weltweit.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;Auf erneuerbare Energien setzen: Erneuerbare Energie ist die am nachhaltigsten produzierte Energie. Darum ist es vorteilhaft, Strom von Anbietern zu beziehen, die ausschließlich erneuerbare Energien beziehen. So kann auf Dauer Geld gespart werden und unterstützt den Ausbau dieses Sektors.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;Energieeffiziente Hardware verwenden: Sei es bei Servern oder anderer IT-Ausrüstung. Es ist sinnvoll, auf energieeffiziente Hardware zu achten. Diese verbrauchen weniger Strom, was zu einer reduzierten Wärmeentwicklung und damit zu einer geringeren Kühlungsanforderung führt.&lt;/p&gt; &lt;p class=&quot;p5&quot;&gt;Cloud Computing und Virtualisierung: Vor der Beschaffung von eigenen Servern kann es hilfreich sein, zu beurteilen, ob eine Cloud Computing Lösung vorteilhafter ist. Diese verringern den Bedarf physischer Hardware und auch den anfallenden Elektroschrott. Außerdem können Cloud-Anbieter energieeffizientere Lösungen anbieten und erleichtern die Skalierbarkeit, wenn Ihr Unternehmen wächst. Durch Virtualisierung von Workspaces, vielleicht auch durch Auslagerung an Cloud-Providern, lässt sich zusätzliche Hardware einsparen, da mehrere Virtual Machines auf einem Server betrieben werden können. Durch die Auslagerung der Virtualisierung können auch andere diese Systeme nutzen, wenn sie nicht benötigt werden.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Es gibt noch zahlreiche andere Möglichkeiten für mehr Nachhaltigkeit im Unternehmen, wie nachhaltige Beschaffung, Optimierung des Produktlebenszyklus auf Langlebigkeit und Recycling. Sogar nachhaltige Softwareentwicklung wird immer wichtiger.&lt;/p&gt; &lt;p class=&quot;p2&quot;&gt;Für die Themen ressourceneffizientes Coding, nachhaltiges Testdatenmanagement und vieles mehr lesen Sie gerne die weiteren interessanten Artikel in unserer aktuellen Ausgabe der Quality News: Nachhaltigkeit in der IT!&lt;/p&gt;         &lt;/div&gt; &lt;div class=&quot;ce_text fazit block&quot;&gt;                   &lt;p&gt;&lt;strong&gt;Quellen und weiterführende Informationen&lt;/strong&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[1] &lt;/sup&gt;Wangerin, Claudia. „Flutschäden: Das nächste Jahrhunderthochwasser kommt bestimmt – was tun?“ Telepolis, 3 June 2024, &lt;a href=&quot;https://www.telepolis.de/features/Flutschaeden-Das-naechste-Jahrhunderthochwasser-kommt-bestimmt-was-tun-9744748.html.&quot;&gt;https://www.telepolis.de/features/Flutschaeden-Das-naechste-Jahrhunderthochwasser-kommt-bestimmt-was-tun-9744748.html.&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;sup&gt;[2] &lt;/sup&gt;„Wärmste Jahre weltweit seit Beginn der Messung bis 2024.“ Statista, 4 February 2025, &lt;a href=&quot;https://de.statista.com/statistik/daten/studie/157755/umfrage/klimawandel-die-weltweit-waermsten-jahre-seit-1880/.&quot;&gt;https://de.statista.com/statistik/daten/studie/157755/umfrage/klimawandel-die-weltweit-waermsten-jahre-seit-1880/.&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p3&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[3] &lt;/sup&gt;&lt;/span&gt;„Klimawandel hat laut Studie die Brände in Los Angeles begünstigt.“ Tagesschau, 28 Januar 2025, &lt;a href=&quot;https://www.tagesschau.de/wissen/klima/klimawandel-waldbraende-kalifornien-100.html.&quot;&gt;https://www.tagesschau.de/wissen/klima/klimawandel-waldbraende-kalifornien-100.html.&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[4] &lt;/sup&gt;&lt;/span&gt;„Thome, Matthias. “Amazonas-Gebiet stößt mehr CO2 aus, als es bindet -.“ GEO, 3 May 2021, &lt;a href=&quot;https://www.geo.de/natur/oekologie/amazonas-gebiet-stoesst-mehr-co2-aus--als-es-bindet-30510406.html.&quot;&gt;https://www.geo.de/natur/oekologie/amazonas-gebiet-stoesst-mehr-co2-aus--als-es-bindet-30510406.html. &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[5] &lt;/sup&gt;&lt;/span&gt;„Jänner 2025 war der wärmste je gemessene.“ Kurier, 6 February 2025, &lt;a href=&quot;https://kurier.at/politik/klima/klimabericht-jaenner-monat-hitze-klimawandel-erderwaermung-temperaturen-copernicus/403007307.&quot;&gt;https://kurier.at/politik/klima/klimabericht-jaenner-monat-hitze-klimawandel-erderwaermung-temperaturen-copernicus/403007307.&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[6] &lt;/sup&gt;&lt;/span&gt;„Copernicus: January 2025 was the warmest on record globally, despite an emerging La Niña | Copernicus.“ Copernicus Climate Change, 6 February 2025, &lt;a href=&quot;https://climate.copernicus.eu/copernicus-january-2025-was-warmest-record-globally-despite-emerging-la-nina.&quot;&gt;https://climate.copernicus.eu/copernicus-january-2025-was-warmest-record-globally-despite-emerging-la-nina. &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[7] &lt;/sup&gt;&lt;/span&gt;„CO₂-Emissionen 2024: Verbrauch von Öl, Gas und Kohle so hoch wie nie zuvor.” RND, 13 November 2024, &lt;a href=&quot;https://www.rnd.de/wissen/co2-emissionen-2024-verbrauch-von-oel-gas-und-kohle-so-hoch-wie-nie-zuvor-AGWLBITZXRKWPKBL6TEYTHFZXQ.html.&quot;&gt;https://www.rnd.de/wissen/co2-emissionen-2024-verbrauch-von-oel-gas-und-kohle-so-hoch-wie-nie-zuvor-AGWLBITZXRKWPKBL6TEYTHFZXQ.html. &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[8]&lt;/sup&gt;&lt;/span&gt; Kriegler, E., et al. „Data for Figure SPM.4 - Summary for Policymakers of the Working Group III Contribution to the IPCC Sixth Assessment Report.” MetadataWorks, &lt;a href=&quot;https://doi.org/10.48490/ys3e-mq98.&quot;&gt;https://doi.org/10.48490/ys3e-mq98.&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[9]&lt;/sup&gt;&lt;/span&gt; „Klimawandel – Ursachen und Folgen.” Welthungerhilfe, &lt;a href=&quot;https://www.welthungerhilfe.de/informieren/themen/klimawandel.&quot;&gt;https://www.welthungerhilfe.de/informieren/themen/klimawandel. &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[10]&lt;/sup&gt;&lt;/span&gt; „Ursachen des Klimawandels - Europäische Kommission.“ EU Climate Action, &lt;a href=&quot;https://climate.ec.europa.eu/climate-change/causes-climate-change_de.&quot;&gt;https://climate.ec.europa.eu/climate-change/causes-climate-change_de. &lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[11]&lt;/sup&gt;&lt;/span&gt; Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie, &lt;a href=&quot;https://www.bmk.gv.at/themen/energie/effizienz/rechenzentren.html&quot;&gt;https://www.bmk.gv.at/themen/energie/effizienz/rechenzentren.html&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;&lt;span class=&quot;s1&quot;&gt;&lt;sup&gt;[12]&lt;/sup&gt;&lt;/span&gt; Deutsche IPCC-Koordinierungsstelle - de-IPCC, &lt;a href=&quot;https://www.de-ipcc.de.&quot;&gt;https://www.de-ipcc.de.&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Katharina Aganina, „Green IT: So können Sie mithelfen, Ihr Unternehmen umweltfreundlicher zu gestalten“, Ratbacher Blog, &lt;a href=&quot;https://www.ratbacher.at/blog/green-it-massnahmen/#:~:text=Beispiele%3A%20Green%20IT%20in%20der,im%20Bereich%20Green%20IT%20t%C3%A4tig.&quot;&gt;https://www.ratbacher.at/blog/green-it-massnahmen/#:~:text=Beispiele%3A%20Green%20IT%20in%20der,im%20Bereich%20Green%20IT%20t%C3%A4tig.&lt;/a&gt;&lt;/p&gt; &lt;p class=&quot;p1&quot;&gt;Amanda McGrath, Alexandra Jonker, „Was ist nachhaltige IT?“, IBM, 5. Juli 2024, &lt;a href=&quot;https://www.ibm.com/de-de/think/topics/sustainable-it&quot;&gt;https://www.ibm.com/de-de/think/topics/sustainable-it&lt;/a&gt;&lt;/p&gt;         &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/brauchen-wir-wirklich-green-it" /><updated>2025-07-07T10:36:00+00:00</updated><id>https://www.seqis.com/de/blog/brauchen-wir-wirklich-green-it</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/downloads/events/2025/C3S_PR_202501_Fig2_timeseries_global_temperature_anomalies_ref1850-1900_allmonths.png" type="image/png" /></entry><entry><title>Der ultimative Leitfaden für Remote Software Testing</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                      &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/3/doncorleone2855_abstract_IT_visualization_in_style_of_Apple_w_1341991a-b7a0-49bf-8622-79d7d4af61ee_3-500x381-2144eb55.webp&quot; width=&quot;400&quot; height=&quot;305&quot; alt=&quot;Resilienz&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle Bild: midjourney.com&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;h2&gt;Einführung in Remote Testing&lt;/h2&gt; &lt;p&gt;In der heutigen digitalisierten Welt ist Remote Software Testing mehr als nur eine praktische Lösung – es ist eine Notwendigkeit. Mit Teams, die auf der ganzen Welt verteilt sind, ermöglicht Remote Testing die Durchführung von Softwaretests unabhängig von geografischen Grenzen. Aber was genau bedeutet Remote Testing und warum ist es so entscheidend für moderne Unternehmen?&lt;/p&gt; &lt;p&gt;Stellen Sie sich vor, Sie könnten die Qualität Ihrer Software erhöhen, ohne Ihre internen Ressourcen zu belasten, und das alles von überall auf der Welt. Klingt verlockend, oder? In diesem Leitfaden werden wir die Grundlagen des Remote Software Testings durchleuchten, die Vorteile und Herausforderungen diskutieren, und Ihnen eine detaillierte Schritt-für-Schritt-Anleitung zur Implementierung geben. Zudem werden wir durch eine Fallstudie eine Erfolgsgeschichte beleuchten und den direkten Vergleich zwischen Vor-Ort- und Remote-Testing ziehen.&lt;/p&gt; &lt;h3&gt;Was ist Remote Testing?&lt;/h3&gt; &lt;p&gt;Remote Testing bezieht sich auf die Durchführung von Softwaretests durch Teams, die nicht physisch zusammenarbeiten. Dies kann über verschiedene Tools und Plattformen geschehen, die es ermöglichen, Tests zu planen, durchzuführen und zu überwachen, unabhängig davon, wo sich die Teammitglieder befinden.&lt;/p&gt; &lt;h2&gt;Vorteile von Remote Testing&lt;/h2&gt; &lt;h3&gt;Flexibilität&lt;/h3&gt; &lt;p&gt;Remote Testing bietet eine immense Flexibilität, die in der heutigen, &lt;strong&gt;zunehmend globalisierten Arbeitswelt&lt;/strong&gt; von unschätzbarem Wert ist. Teams können von überall aus arbeiten, was bedeutet, dass Unternehmen Talente aus der ganzen Welt anziehen können. Dies ist besonders nützlich in Zeiten, in denen es schwierig ist, lokal qualifiziertes Personal zu finden. Ein Entwickler in Berlin kann problemlos mit einem Tester in Bangalore zusammenarbeiten, ohne dass physische Anwesenheit erforderlich ist. Diese Flexibilität erstreckt sich auch auf die Arbeitszeiten. Teams können &lt;strong&gt;asynchron arbeiten&lt;/strong&gt;, was besonders vorteilhaft ist, wenn Mitarbeiter&lt;strong&gt; in verschiedenen Zeitzonen &lt;/strong&gt;leben. So kann die Arbeit nahtlos weitergehen, selbst wenn ein Teil des Teams schläft.&lt;/p&gt; &lt;h3&gt;Kostenersparnis&lt;/h3&gt; &lt;p&gt;Da keine physische Präsenz erforderlich ist, sparen Unternehmen an &lt;strong&gt;Infrastrukturkosten&lt;/strong&gt; wie Büros und Hardware. &lt;/p&gt; &lt;p&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;a href=&quot;https://rayzr.tech/techtalk/der-ultimative-leitfaden-fuer-remote-software-testing/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;&lt;strong&gt;Hier weiterlesen &lt;/strong&gt;&lt;/a&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/der-ultimative-leitfaden-fuer-remote-software-testing" /><updated>2024-08-26T08:05:00+00:00</updated><id>https://www.seqis.com/de/blog/der-ultimative-leitfaden-fuer-remote-software-testing</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/images/aktuelles/2024/doncorleone2855_abstract_IT_visualization_in_style_of_Apple_w_1341991a-b7a0-49bf-8622-79d7d4af61ee_3-500x381.webp" type="image/webp" /></entry><entry><title>Gefahr im Verzug: Wie unzureichende Tests Ihre Kundenbeziehungen gefährden</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                      &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/d/doncorleone2855_customer_relationship_management_in_IT_indust_28e195db-2534-4f01-abf3-8850f2118c9f_0-500x381-7af21854.webp&quot; width=&quot;400&quot; height=&quot;305&quot; alt=&quot;Resilienz&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle Bild: midjourney.com&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;h2&gt;Kundenvertrauen und Softwarequalität&lt;/h2&gt; &lt;p&gt;Willkommen in der digitalen Ära, wo Ihr Softwareprodukt nicht nur das Rückgrat Ihres Unternehmens ist, sondern auch der Schlüssel zu den Herzen Ihrer Kunden. Stellen Sie sich vor, Ihre Software ist das Fundament eines Wolkenkratzers: Risse und Schwachstellen sind hier keine Option. Ein kleiner Bug kann nicht nur den Betrieb lahmlegen, sondern auch das Vertrauen Ihrer Kunden in Schutt und Asche legen. Unternehmen müssen daher die Herausforderung annehmen, erstklassige Software zu liefern, die reibungslos und zuverlässig läuft – alles andere wäre ein Spiel mit dem Feuer. Doch leider sind unzureichende Tests die Brandbeschleuniger, die diese Ziele gefährden können.&lt;/p&gt; &lt;p&gt;&lt;strong&gt;Kundenvertrauen: Das Rückgrat des Erfolgs&lt;/strong&gt;&lt;/p&gt; &lt;p&gt;Das Vertrauen der Kunden ist das Fundament jedes erfolgreichen Unternehmens. Wenn Kunden Ihrer Marke vertrauen, sind sie eher bereit, Ihre Produkte und Dienstleistungen zu kaufen, langfristig treu zu bleiben und positive Empfehlungen auszusprechen. Vertrauen ist jedoch ein zerbrechliches Gut, das schnell verloren gehen kann, insbesondere wenn es um die Qualität der angebotenen Software geht. Kunden erwarten heutzutage reibungslose und fehlerfreie digitale Erlebnisse. Jede Störung, jeder Fehler oder Bug kann das Vertrauen erheblich untergraben und zu einem Verlust von Kunden führen.&lt;/p&gt; &lt;p&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;a href=&quot;https://rayzr.tech/techtalk/wie-unzureichende-tests-ihre-kundenbeziehungen-gefaehrden/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;&lt;strong&gt;Hier weiterlesen &lt;/strong&gt;&lt;/a&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/gefahr-im-verzug-wie-unzureichende-tests-ihre-kundenbeziehungen-gefaehrden" /><updated>2024-08-26T08:02:00+00:00</updated><id>https://www.seqis.com/de/blog/gefahr-im-verzug-wie-unzureichende-tests-ihre-kundenbeziehungen-gefaehrden</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/images/aktuelles/2024/doncorleone2855_customer_relationship_management_in_IT_indust_28e195db-2534-4f01-abf3-8850f2118c9f_0-500x381.webp" type="image/webp" /></entry><entry><title>Gefahr im Verzug: Die 5 größten Risiken bei unterlassenen Software-Tests</title><content type="html"> &lt;div class=&quot;ce_text block&quot;&gt;                      &lt;figure class=&quot;image_container float_above&quot;&gt;               &lt;img src=&quot;https://www.seqis.com/assets/images/4/doncorleone2855_httpss.mj_.runcJ2_MG_SDjM_IT_security_and_unus_de448b10-3cac-4e3e-aad0-bf52f0695305_1-e1723128064267-500x381-46c188b4.jpg&quot; width=&quot;400&quot; height=&quot;305&quot; alt=&quot;Resilienz&quot;&gt;                      &lt;figcaption class=&quot;caption&quot;&gt;Quelle Bild: midjourney.com&lt;/figcaption&gt;            &lt;/figure&gt;          &lt;div class=&quot;text-container&quot;&gt;&lt;h2&gt;&lt;strong&gt;Risiken in der Software-Entwicklung&lt;/strong&gt;&lt;/h2&gt; &lt;p&gt;Die Software-Entwicklung ist ein komplexer und dynamischer Prozess, bei dem Fehler unvermeidlich sind. Doch obwohl diese Tatsache allgemein bekannt ist, werden Software-Tests oft vernachlässigt. Dies führt zu erheblichen Risiken, die nicht nur die Qualität der Software, sondern auch die Reputation und Finanzen eines Unternehmens erheblich beeinträchtigen können. In diesem Artikel beleuchten wir die fünf größten Risiken, die durch unterlassene Software-Tests entstehen, und warum Remote Testing Services (RTS) eine essentielle Lösung bieten.&lt;/p&gt; &lt;h3&gt;&lt;strong&gt;Übersicht der größten Risiken&lt;/strong&gt;&lt;/h3&gt; &lt;ul&gt; &lt;li&gt;&lt;strong&gt;Sicherheitslücken&lt;/strong&gt;&lt;/li&gt; &lt;li&gt;&lt;strong&gt;Leistungsprobleme&lt;/strong&gt;&lt;/li&gt; &lt;li&gt;&lt;strong&gt;Kompatibilitätsprobleme&lt;/strong&gt;&lt;/li&gt; &lt;li&gt;&lt;strong&gt;Benutzererfahrung&lt;/strong&gt;&lt;/li&gt; &lt;li&gt;&lt;strong&gt;Regulatorische Compliance&lt;/strong&gt;&lt;/li&gt; &lt;/ul&gt; &lt;h4&gt;&lt;strong&gt;1. Sicherheitslücken&lt;/strong&gt;&lt;/h4&gt; &lt;p&gt;Ungetestete Software birgt ein hohes Risiko für Sicherheitslücken, die von Cyberkriminellen ausgenutzt werden können. Ohne gründliche Tests können Schwachstellen unentdeckt bleiben, was zu Datenverlust, finanziellen Schäden und einem Vertrauensverlust bei den Kunden führen kann. Ein prominentes Beispiel ist der Equifax-Datenvorfall, bei dem Millionen von personenbezogenen Daten aufgrund einer unentdeckten Sicherheitslücke gestohlen wurden.&lt;/p&gt; &lt;p&gt;&lt;em&gt;Die Gefahr von Zero-Day-Exploits&lt;/em&gt;&lt;/p&gt; &lt;p&gt;Zero-Day-Exploits sind Schwachstellen, die von Cyberkriminellen entdeckt und ausgenutzt werden, bevor der Hersteller davon Kenntnis hat. Solche Schwachstellen können katastrophale Folgen haben, da sie unbemerkt in Systeme eindringen und erheblichen Schaden anrichten können. Regelmäßige und gründliche Sicherheitstests sind unerlässlich, um solche Bedrohungen zu minimieren und potenzielle Zero-Day-Exploits frühzeitig zu erkennen und zu beheben.&lt;/p&gt; &lt;p&gt;&lt;span style=&quot;text-decoration: underline;&quot;&gt;&lt;a href=&quot;https://rayzr.tech/techtalk/die-5-groessten-risiken-bei-unterlassenen-software-tests/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;&lt;strong&gt;Hier weiterlesen &lt;/strong&gt;&lt;/a&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;    &lt;/div&gt; </content><link rel="alternate" href="https://www.seqis.com/de/blog/gefahr-im-verzug-die-5-groessten-risiken-bei-unterlassenen-software-tests" /><updated>2024-08-26T07:55:00+00:00</updated><id>https://www.seqis.com/de/blog/gefahr-im-verzug-die-5-groessten-risiken-bei-unterlassenen-software-tests</id><author><name>SEQIS</name></author><media:content url="https://www.seqis.com/files/SEQIS/images/aktuelles/2024/doncorleone2855_httpss.mj_.runcJ2_MG_SDjM_IT_security_and_unus_de448b10-3cac-4e3e-aad0-bf52f0695305_1-e1723128064267-500x381.jpg" type="image/jpeg" /></entry></feed>