Grafik mit einer Lupe auf gelbem Hintergrund

Arbeit und Leben

Generative KI im Alltag: Wie das HEC-Team damit arbeitet und wo die Grenzen liegen

02. April 2026 / Annekathrin Gut

„Ich nutze KI gezielt während der Softwareentwicklung, um zeitintensive Probleme effizient zu lösen“, sagt HEC-Softwareentwicklerin Senay Uzuner. So wie sie sehen es viele bei uns in der HEC: Künstliche Intelligenz ist längst Arbeitsrealität. Doch jede:r von uns erlebt sie ein wenig anders. Wir haben zehn Kolleg:innen gefragt, wie generative KI ihren Alltag verändert, wo sie in Kundenprojekten unterstützt und wo die Grenzen oder Risiken liegen.

KI als Arbeitspartner: Rollen und Denkweisen verändern sich

Die auffälligste Veränderung, die viele beschreiben, ist keine technische, sondern betrifft die Aufgabe. HEC-Entwickler Fingal Orlando Galashan bringt es so auf den Punkt: „Die größte Veränderung ist nicht das Tool, es ist meine Rolle. Ich bin weniger Coder und mehr Architekt und Reviewer geworden." Früher hat er Zeile für Zeile gecoded, im Flow und mit Podcast im Ohr. Das vermisst er manchmal. Aber insgesamt fühle sich die Entwicklung für ihn richtig an.

Auch Senay Uzuner beschreibt einen ähnlichen Wandel. Zu Beginn war sie skeptisch, dass KI-Assistenten zu viel halluzinieren. Heute betrachtet sie die KI als eine Art „Pairing Partner": Sie hilft bei akuten Blockaden und fungiert als erste Instanz für Code-Reviews.

Für Christian Seedig, Berater und Product Owner, hat sich vor allem das Texten verändert. „Das Formulieren von Angeboten und anderen Texten ist stark vereinfacht. Anstatt Text zu erzeugen, begrenzt sich die Arbeit auf das ‚Entkünstlichen' und etwas Anpassen von Content." Auch im Anforderungsprozess – von der Produktvision über Personas bis zu User Stories – bekomme er durchgehend Unterstützung.

Wo KI wirklich hilft: konkrete Anwendungsfälle

Die Einsatzfelder reichen von der täglichen Organisation bis in den produktiven Software-Workflow. Microsoft Copilot-Expertin Bärbel Rolfes beschreibt den Nutzen im Büroalltag: „Besonders hilfreich ist sie bei der Terminvorbereitung: Sie fasst relevante E-Mails und Dokumente zusammen, erstellt Agenden oder plant ganze Projektterminserien."

Jonas Tiggemann sieht das größte Potenzial dort, wo Sprache auf strukturierte Daten trifft: im produktiven Workflow bei E-Mail-Eingängen – „beispielsweise bei der Erfassung von Auftragsdaten aus unstrukturierten E-Mails mit Anhängen in proprietären Datenformaten wie PDF." Ein Large Language Model könne dabei gezwungen werden, Output in einem bestimmten Datenformat zu liefern, sodass Auftragsdaten ohne Medienbruch extrahiert werden können. „Das spart manuelle Arbeit."

Björn Seebeck beschreibt, wie Claude Code mittlerweile die komplette Entwicklungskette begleiten kann: „Meeting-Transkript rein, User Stories raus, sinnvoll geschnitten, direkt ins Ticketing." Auch automatisierte UI-Tests, die vorher wirtschaftlich schlicht nicht drin gewesen seien, würden jetzt einfach geschrieben. Sein Fazit: „Der echte Gewinn ist nicht Geschwindigkeit, sondern dass Dinge passieren, die vorher nie passiert sind."

Wo KI an ihre Grenzen stößt

So hilfreich KI im operativen Alltag ist, die Grenzen sind ebenso da. Microsoft-Experte Sven Sieverding benennt ein strukturelles Problem, das er in vielen Projekten beobachtet: „Viele KI-Projekte scheitern gerade. Und zwar nicht an der KI selbst, sondern oft daran, dass wir über Jahrzehnte Dateien in Ordnerstrukturen angehäuft haben, über die wir keinen Überblick mehr haben." Widersprüchliche Daten lenken die KI ab. Präzise Anfragen und saubere Informationen sind die eigentliche Voraussetzung für gute Ergebnisse.

Jonas Tiggemann ergänzt die konzeptionelle Seite: Die Grenzen seien die Informationen, die man bereitstelle, also das implizite Wissen. Unvollständige oder veraltete Notizen würden zwar vom Modell korrekt verarbeitet, die Resultate seien aber trotzdem falsch. Und: „LLMs sind keine Magie. Sie können von Haus aus keine Datenanalysen oder tolle Visualisierungen."

Christian Seedig weist auf ein systemisches Risiko hin, das langfristig schwerer wiegt: „Je mehr digitaler Content durch KI ersetzt wird, je weniger neues Wissen entsteht, KI wird also systemisch dumm." Große Mengen unwahrer Informationen würden von der KI als „wahrscheinlich wahr" bewertet. Das Problem dürfte sich mit der zunehmenden Verbreitung KI-generierter Inhalte verschärfen.

Risiken: Blindes Vertrauen, Datenschutz, Abhängigkeit

Fast alle Kolleg:innen benennen ein zentrales Risiko: unkritisches Vertrauen in KI-Output. Senay Uzuner formuliert es direkt: „Die größte Gefahr ist blindes Vertrauen. KI-generierter Code darf niemals ungeprüft übernommen werden." Oft fehle der KI das Verständnis für komplexe architektonische Zusammenhänge, was zu suboptimalen Lösungen führen könne.

Björn Seebeck differenziert nach Erfahrungslevel: Für Einsteiger:innen, die nie selbst durch Fehler gelernt haben, fehle „das Bauchgefühl“, um KI-Output einschätzen zu können. Für erfahrene Entwickler:innen schleiche sich etwas anderes ein: „Die Erwartungen steigen mit der Tool-Geschwindigkeit. Irgendwann ist man schneller, aber nicht fertig. Das kann in Überlastung enden."

Bärbel Rolfes bringt die regulatorische Perspektive ein. Als KI-Datenschutzbeauftragte der HEC beobachtet sie, dass die KI-Verordnung oft als Bremse wahrgenommen wird – nicht, weil sie es tatsächlich sei, sondern weil viele sie nicht genau genug kennen. Gleichzeitig gebe es Menschen, die sich überhaupt nicht mit den Konsequenzen ihres KI-Einsatzes beschäftigen. Das fördere die Verbreitung von Deepfakes.

Senay Uzuner lenkt den Blick auf eine geopolitische Dimension, die im Alltag leicht übersehen wird: „Eine kritische Herausforderung sehe ich in der Abhängigkeit von großen, meist US-amerikanischen Anbietern und deren Firmenpolitik." Um technologische Souveränität zu wahren, hält sie die Entwicklung starker europäischer oder nationaler KI-Lösungen für zwingend erforderlich.

Blick nach vorne: KI in zwei bis drei Jahren

Wohin entwickelt sich das alles? Gülsah Arslan, Softwaretesterin, sieht KI auf dem Weg, zur Selbstverständlichkeit zu werden: „KI wird schon in wenigen Jahren so normal sein wie heute das Internet." Deshalb sei es wichtig, sie zu verstehen, um sie richtig nutzen und mit ihr zusammenarbeiten zu können.

Felix Huschle ergänzt: KI werde nicht mehr als Hilfsmittel wahrgenommen werden, „sondern als selbstverständlicher Teil der Arbeitsumgebung – ähnlich wie heute eine IDE oder eine CI/CD-Pipeline." Teams, die heute aktiv den Umgang damit lernten, würden einen spürbaren Wettbewerbsvorteil haben. Gleichzeitig würden die Anforderungen an kritisches Denken und fachliches Urteilsvermögen steigen: „Je mächtiger das Werkzeug, desto wichtiger der Mensch dahinter."

Einen überraschenden Ausblick gibt Sven Sieverding. Er glaubt, dass sich das Konzept von Software selbst verändern wird: „Ich brauche keine visuelle Oberfläche mehr, die mich durch Prozesse führt. Stattdessen habe ich einen Chat, mit dem ich viel flexibler auf der Basis meiner Daten interagieren kann." Viele Softwareprodukte, die heute auf Speziallösungen und Kleindatenbanken setzen, würden sich „ganz schön umstellen müssen".

Zwischen Alltagsentlastung und Kompetenzverlust

Was diese zehn Stimmen gemeinsam haben? Weder Euphorie noch Panikmache sind angebracht. Es gilt, sich realistisch mit den Potenzialen und Risiken der generativen KI auseinanderzusetzen. 

Softwaretesterin Na Wang-Franke fasst die Vorteile zusammen: “KI entlastet Menschen von vielen repetitiven Alltagsaufgaben und macht den Alltag dadurch einfacher und effizienter.“ Zugleich sieht sie mögliche negative Auswirkungen auf unsere Kompetenzen: „Wir verlernen die Fähigkeit, selbständig zu analysieren und dann zu lösen, aber auch der Abbau von Kreativität.“

KI verändert bei uns – und in allen anderen Unternehmen – nicht nur Tools, sondern auch Rollen, Arbeitsweisen und Verantwortung. Bärbel Rolfes glaubt, dass wir künftig mehr Spezialistinnen und Spezialisten für KI brauchen werden: „Es braucht Menschen, die nicht nur KI-Systeme bedienen, sondern auch deren Ergebnisse kritisch einordnen können.“ Wer mit generativer KI arbeitet, muss also mehr mitdenken, nicht weniger.

Im Unternehmen gut mit KI arbeiten

Wo wird Ihr Unternehmen durch KI effizienter? Wie implementieren Sie KI-Lösungen? Und ist KI in diesem Fall überhaupt das richtige Werkzeug? Wir unterstützen Sie mit Beratung, Workshops und der Einführung von KI-Lösungen.