adesso Blog

Die Integration von Data Science in Unternehmen ist heute von entscheidender Bedeutung, um wertvolle Erkenntnisse aus Daten zu gewinnen und fundierte Geschäftsentscheidungen zu treffen. Bei adesso haben wir uns intensiv mit dem Einsatz agiler Vorgehensweisen in Data-Science-Projekten auseinandergesetzt.

In den aktuellen Forschungen gibt es noch viel Raum für weitere Untersuchungen und Erkenntnisse zu agilen Data-Science-Projekten. Nachfolgend werden die wichtigsten Erkenntnisse der Experteninterviews zusammenfassend dargestellt und mit Hilfe des aktuellen Forschungsstands ergänzt.

Experteninterviews und Ergebnisse

Insgesamt wurden 14 Interviews mit Expertinnen und Experten aus verschiedenen Geschäftsbereichen bei adesso – etwa Data and Analytics, Health oder Insurance – durchgeführt. Dabei haben wir wichtige Erkenntnisse gewinnen können. In den Experteninterviews wurden Chancen und Herausforderungen agiler Ansätze im Data-Science-Kontext thematisiert und es wurde Bezug zu den Data-Science-Prozessmodellen genommen.

Ziel der Experteninterviews war die Ableitung von Best Practices. In den Experteninterviews wurden unterschiedliche Perspektiven beleuchtet, die sich zum einen aus den verschiedenen Projektkontexten und zum anderen aus den unterschiedlichen Tätigkeitsbereichen der Expertinnen und Experten ergeben. Viele Äußerungen lassen sich in dem aktuellen Forschungsstand wiederfinden. Es wurden aber auch neue Erkenntnisse gewonnen, die in der Forschung nicht hinreichend thematisiert wurden. Nichtsdestotrotz gibt es in der Forschung agile Methoden im Data-Science-Kontext, die in den Experteninterviews nicht thematisiert wurden, weil sie in der Praxis (noch) nicht angewendet werden.

Was erwartet dich als Leserin oder Leser also nun? Wir haben keinen goldenen Weg, mit dem ab sofort jedes Data-Science-Projekt gelingen wird. Es wird also keine Vorlage kommen, die ohne Weiteres angewandt werden kann und direkt zum Erfolg führt. Dennoch kann man sagen, dass sich Handlungsempfehlungen aus den Interviews heraus entwickeln ließen, die sich gut in den eigenen Teams diskutieren und transparent machen lassen. Vielleicht gelingt es dem ein oder anderen, dadurch schneller und effizienter an sein Ziel zu gelangen.

„Being agile“ als Voraussetzung für agile Data-Science-Projekte

Die Verinnerlichung agiler Prinzipien und Werte ist essenziell, um agile Methoden und Vorgehensweisen gewinnbringend einzusetzen. Agilität sollte verstanden und gelebt werden. Nicht nur in der Forschung, sondern auch in den Experteninterviews wurde das fehlende agile Verständnis als große Herausforderung in agilen Data-Science-Projekten gesehen. Viele Expertinnen und Experten berichteten von dem gescheiterten Versuch, agil in einem „nichtagilen“ Umfeld zu arbeiten, und betonten die Notwendigkeit, Bewusstsein und Verständnis für agile Vorgehensweisen sowie Vertrauen in Agilität zu schaffen. Das Verständnis für agile Vorgehensweisen sei nicht nur für die Stakeholder, sondern auch für die Entwicklerinnen und Entwickler wichtig.

Die Verinnerlichung agiler Werte und Prinzipien („Being agile“) bildet die Grundlage für die ordnungsgemäße und erfolgreiche Anwendung agiler Vorgehensweisen („Doing agile“).

Stakeholdermanagement

In den Experteninterviews wurde mehrfach erwähnt, dass Kundinnen und Kunden kein Verständnis für den explorativen Data-Science-Workflow mitbringen und ihr Hintergrundwissen nicht ausreiche, um zu verstehen, wie Data Scientists oder Machine Learning Engineers arbeiten. Dies stellt eine Herausforderung dar, da Kundinnen und Kunden eine realitätsferne Erwartungshaltung besitzen.

Data Science wird in der Praxis oftmals mit der Softwareentwicklung gleichgesetzt, weshalb beispielsweise in den Sprint Reviews ein „Produkt“ erwartet wird. In Data-Science-Projekten gibt es jedoch in den meisten Fällen unterschiedliche Use Cases und verschiedene „Produkte“. Es können im Vorhinein keine Annahmen über Daten oder mögliche Ergebnisse getroffen werden.

In der Praxis kann es bei der Anwendung des Rahmenwerks Scrum zum Beispiel Sprintzyklen geben, bei denen gar kein Fortschritt entsteht oder das Modell komplett verworfen wird. Wichtig ist hierbei, dass Kundinnen und Kunden Verständnis für den ungewissen und unsicheren Charakter von Data-Science-Projekten haben und eine realistische Erwartungshaltung in den Sprint Reviews besitzen.

Data-Science-Vorgehensmodelle im agilen Kontext

In der Forschung spricht unter anderem Saltz (2018) die Notwendigkeit einer systematischen Prozessmethodik in Data-Science-Projekten an, um bessere Projektergebnisse zu erzielen. CRISP-DM und CRISP-ML(Q) sind etablierte Data-Science-Vorgehensweisen, die laut Saltz und Suthrland (2019) in einen agilen Rahmen eingebettet werden müssen, um Teamkoordination, Kommunikation und Prioritätensetzungen zu standardisieren. CRISP-DM und CRISP-ML(Q) beschreiben, „was“ zu tun ist.

Agile Methoden und Rahmenwerke beschäftigen sich ergänzend damit, „wie“ Modelle entwickelt und Iterationen umgesetzt werden sollen. Obwohl CRISP-DM ein verbreiteter und etablierter Ansatz ist, gaben nur die Hälfte der Expertinnen und Experten an, dass ihr Umfeld keine Erfahrung damit hat oder das Vorgehen rein intuitiv anwendet, ohne den Prozess explizit zu befolgen. Lediglich vier von ihnen haben die Methode bewusst angewendet. Die Integration von agilen Methoden in den Data-Science-Workflow sei laut den Expertinnen und Experten nicht trivial und bereits in einigen Projekten gescheitert. Viele Projekte sind aus Prozess- und Projektmanagementsicht fehlgeschlagen. Daraus ergibt sich die folgende Handlungsempfehlung: Es bedarf einer Integration und bewussten Anwendung von Data-Science-Prozessmodellen wie CRISP-DM und CRISP-ML(Q) in Data-Science-Projekten, um die Befolgung eines systematischen Ansatzes sicherzustellen.

Expertise des Teams

Data Scientists benötigen ein breites Skillset, um in interdisziplinären Teams Verständnis für die Arbeitsweise der anderen Teammitglieder mitzubringen. Dies betonen auch die Fachleute. Data Scientists haben nie gelernt, Software zu entwickeln. Sie folgen einem forschungsnahen Ansatz und arbeiten mit Softwareentwicklerinnen und -entwicklern, Machine Learning Engineers oder Data Engineers zusammen. Die Expertinnen und Experten unterstreichen jedoch, dass nicht nur Data Scientists Kompetenzen in anderen Disziplinen benötigen, sondern auch Softwareentwicklerinnen und entwickler oder Data Engineers Expertise in Data-Science-Themen haben sollten.

Kombination agiler Vorgehensweisen im Data-Science-Kontext

In der Forschung gibt es zwar vereinzelte Hinweise und Empfehlungen zur Anwendung von agilen Methoden und Praktiken in konkreten Projektphasen, jedoch mangelt es an einem ganzheitlichen Ansatz, der über alle Projektphasen hinweg Handlungsempfehlungen für den Einsatz von agilen Methoden oder Rahmenwerken gibt. In den Experteninterviews wurden die Fachleute danach gefragt, welche agilen Methoden sie in den unterschiedlichen Projektphasen unterstützen würden.

Business Understanding und Data Understanding

Die Business- und Data-Understanding-Phase sind wichtig, da sie die Grundlage für die Modellentwicklung schaffen. In diesen Phasen muss ein gemeinsames Verständnis in Bezug auf das Problem, die Anforderungen und Daten geschaffen werden, was einen intensiven Austausch innerhalb des Projektteams und mit den Stakeholdern erfordert. Nachfolgend werden die Vorschläge der Expertinnen und Experten mit weiteren Handlungsempfehlungen aus dem aktuellen Forschungsstand ergänzt. Für die Business- und Data-Understanding-Phase bedeutet das die Integration von Design-Thinking-Prozessen, um ein tiefergehendes Verständnis für die Problem- und Lösungsfindung sicherzustellen. Design Thinking eignet sich für chaotische Projekte, bei denen sowohl die Anforderungen als auch die Lösungsideen noch unklar sind. Unternehmen wissen in Data-Science-Projekten oft nicht, welches Problem sie lösen wollen und was ihre Anforderungen sind. Daher können Design-Thinking-Methoden die geeignete Wahl sein, das Problem und passende Lösungsmöglichkeiten zu definieren.

Design- (oder Data-)Thinking-Methoden in den initialen Anfangsphasen von Data-Science-Projekten können mit intensiven Austauschformaten, wie Workshops, und ohne die Definition von festen Sprintlängen eine geeignete Technik für das Business Understanding und Data Understanding sein. Die Besonderheit von Design-Thinking-Workshops in der Problemfindungsphase ist der alleinige Fokus auf das Problem. Expertinnen und Experten betonen die Notwendigkeit eines intensiven Austauschs zu Beginn des Projekts, um ein gemeinsames Verständnis zu entwickeln. Dabei bietet Scrum definierte Verantwortlichkeiten, wodurch Struktur geschaffen wird. Die Product-Ownerin oder der Product-Owner spielt im Business Understanding eine entscheidende Rolle und sollte die fachliche Expertise besitzen, das Problem identifizieren und daraus die Anforderungen ableiten zu können.

Das Kanban-Board kann als Hilfsmittel verwendet werden, um eine klare Struktur für die Aufgaben zu haben. Von den Fachleuten wurde mehrfach betont, dass die Aufgaben in der Business- und Data-Understanding-Phase nicht geschätzt werden sollten, weil es zu viele Abhängigkeiten gibt. Aufgaben könnten beispielsweise priorisiert statt geschätzt werden. Auch die „Definition of Done“ ist hilfreich bei der Formulierung von Product-Backlog-Einträgen. Das „Refinement“ wurde von einigen Expertinnen und Experten als Chance für eine detaillierte Beschreibung von Product-Backlog-Einträgen gesehen. Die Ansichten bezüglich der Frequenz und Ausprägung der Scrum-Events fällt bei den Fachleuten jedoch unterschiedlich aus. Die Scrum-Events werden einerseits als sinnvoller Austausch und andererseits als zu zeitintensiv empfunden. Hierbei ist es wichtig, mit dem Team zu sprechen und die Scrum-Events individuell an das Projektteam und den Projektkontext anzupassen. Ein Abgleich der Scrum-Events mit den Kanban-Kadenzen kann ebenfalls eine sinnvolle Diskussion für die Teams darstellen.

Außerdem kam von einigen Expertinnen und Experten der Vorschlag, genügend Testdaten für die Data-Understanding-Phase zu generieren, um Verständnis in Bezug auf die vorhandene Datengrundlage zu schaffen. Damit wird sichergestellt, dass man einen Eindruck über den Datenbestand gewinnt und einschätzen kann, ob die Anforderungen, die aus der Business-Understanding-Phase gewonnen werden, mit den vorhandenen Daten realisierbar sind. Schlussfolgernd kann durch diese Maßnahme der unsichere Charakter von Data-Science-Projekten reduziert werden.

Model Development und Operations

In der Forschung existieren keinerlei Handlungsempfehlungen zu agilen Ansätzen in der Modellentwicklung. Kleist und Pier (2021) finden die kurzen Sprintzyklen vorteilhaft, da früh erkannt wird, ob ein Modell effizient ist oder nicht. Einige Expertinnen und Experten sind der gleichen Ansicht und finden, dass die Einbettung der Modellentwicklung und des Modelldeployments in Sprintzyklen sinnvoll ist. In den Implementierungsphasen wird der Einsatz eines Kanban-Boards positiv gesehen. Neben regelmäßigen Abstimmungen in Form von Scrum-Events oder eben auch Kanban-Kadenzen können die Developer nach einer Expertin oder einem Experten möglichst klein gehalten werden. Vor allem in den Implementierungsphasen kann über eine Aufteilung von Data Scientists und Softwareentwicklerinnen und entwicklern nachgedacht werden, da sich ihre Aufgaben wesentlich voneinander unterscheiden. Interdisziplinäre Teams können laut den Fachleuten bei fehlendem fachlichem Verständnis zu Herausforderungen in der Zusammenarbeit führen. Aus diesem Grund wird sowohl laut den aktuellen Forschungsansätzen als auch in den Experteninterviews deutlich, dass die Cross-Funktionalität abhängig von dem Skillset des Projektteams ist.

Zusammenfassend kann die Kombination agiler Vorgehensweisen in Data-Science-Projekten dazu beitragen, ein effizientes und flexibles Projektmanagement zu gewährleisten und den Erfolg des Projekts zu verbessern. Die spezifische Anwendung agiler Methoden sollte jedoch den Anforderungen und dem Kontext des jeweiligen Projekts angepasst werden.

Ausblick

In einer sich ständig verändernden und datengetriebenen Welt sind Agilität und Data Science wichtige Erfolgsfaktoren für Unternehmen. In meiner Masterarbeit habe ich mich genau damit beschäftigt und spannende Erkenntnisse gewonnen.

Die Kombination von Agilität und Data Science ermöglicht es Unternehmen, Muster und Trends zu erkennen, die Effizienz zu steigern und automatisierte Entscheidungen zu treffen. Agile Methoden, Rahmenwerke und Ansätze sind dabei unerlässlich, um den Herausforderungen komplexer Data-Science-Projekte gerecht zu werden und die Projektorganisation effizient und flexibel zu gestalten. Doch Agilität ist mehr als nur Prozesse und Werkzeuge! Es geht um ein Mindset, um die Begrüßung von Veränderungen und die Internalisierung agiler Werte.

Natürlich gibt es nicht den einen „richtigen“ agilen Ansatz. Jedes Projekt ist einzigartig und erfordert individuelle Vorgehensweisen. Daher ist es wichtig, agiles Denken vor das konkrete Handeln zu stellen. Wenn ein agiler Ansatz nicht funktioniert, sollten wir mutig neue Wege einschlagen. Vielleicht sind Design-Thinking-Prozesse in der Problemfindung die Lösung, um Klarheit in chaotischen Projekten zu schaffen. In der Implementierung können andere agile Ansätze wie Scrum, Kanban oder Scrumban zum Einsatz kommen.

Ein zentraler Aspekt agiler Projekte ist der Mensch. Agilität bedeutet, Menschen in den Mittelpunkt zu stellen und Veränderungen willkommen zu heißen. Regelmäßige Events, wie sie beispielsweise Scrum bietet, schaffen eine Plattform für den Austausch und das offene Ansprechen von Problemen. Es kann zu Reibungspunkten kommen, wenn Probleme offen kommuniziert werden. Aber genau hier liegt die Chance, flexibel auf Veränderungen zu reagieren und erfolgreich zu sein. Jede Veränderung ist ein Prozess, der Geduld erfordert.

Nicht nur die Bedeutung von Agilität für Data-Science-Projekte ist hier zu berücksichtigen, sondern auch der Faktor Mensch und das „Being agile“ sind der Schlüssel zum Erfolg. Nur durch das Zusammenspiel von Fachwissen, agilen Prinzipien und einem echten Verständnis für die Bedeutung von Agilität können wir in einer datengetriebenen Welt mit unvorhersehbaren Ereignissen wahrhaft agil und erfolgreich sein.

Bild Sezen Ipek

Autorin Sezen Ipek

Sezen Ipek ist seit 2021 studentische Mitarbeiterin im Competence Center Business Engineering bei adesso. Ihre Themenschwerpunkte sind Requirements Engineering, Workshopformate, Data Science und Agilität.

Derzeit studiert sie Wirtschaftsinformatik mit dem Schwerpunkt Data Science & Consulting (M. Sc.) und wird ihr Studium voraussichtlich im Januar 2024 abschließen.

Bild Stefan Mönk

Autor Stefan Mönk

Stefan Mönk ist bei adesso als Senior Consultant für die Line of Business Public am Standort Hannover tätig. Seine Leidenschaft ist das Thema Agilität. Als Requirements Engineer, agiler Projektmanager, Product Owner und Scrum Master hat ihn das Thema agile Softwareentwicklung stehts begleitet. Neben der Agilität interessiert er sich darüber hinaus für digitale, skalierende Geschäftsmodelle und deren Monetarisierung.

Diese Seite speichern. Diese Seite entfernen.