Yunus Fidan
BI-Consultant | Data Engineer
Mit über fünf Jahren Berufserfahrung im IT-Bereich arbeite ich heute als Freelancer im Bereich BI-Consulting und Data Engineering. Dabei verbinde ich technisches Fachwissen mit strategischem Denken. Mein Schwerpunkt liegt auf der Lakehouse-Technologie sowie den Plattformen Databricks und Microsoft Fabric. Ziel ist es, Unternehmen bei der Datenintegration, -analyse und Entwicklung moderner Datenplattformen zu unterstützen, um datengetriebene Entscheidungen und effiziente Geschäftsprozesse zu ermöglichen.
Mein beruflicher Weg begann mit einer Ausbildung zum Kfz-Mechatroniker, gefolgt von einer dualen Ausbildung zum Fachinformatiker für Systemintegration. Diese Kombination aus praktischer Technik und fundiertem IT-Wissen bildet die Basis meiner Expertise. Heute arbeite ich mit einem breiten Technologie-Stack und verfüge über 7 Databricks- sowie 2 Fabric-Zertifizierungen, die meine Spezialisierung untermauern.
Als selbstständiger IT-Dienstleister begleite ich Unternehmen bei der Einführung moderner Cloud- und Datenlösungen – von Architektur und Implementierung bis zum Betrieb. Mein Ansatz ist darauf ausgerichtet, nicht nur IT-Systeme zu modernisieren, sondern auch Effizienz und Wettbewerbsfähigkeit nachhaltig zu steigern.
Zertifizierungen








Detaillierter Lebenslauf
Berufserfahrung:
Selbstständig | Fidan IT-Dienstleistungen: Dezember 2024 – bis heute
Digitalisierung von KMU:
- Entwicklung und Umsetzung professioneller Online‑Auftritte (Websites, Google My Business)
- Analyse und Optimierung interner Kommunikations‑ und Prozessabläufe
- Konzeption und Steuerung von IT‑Projekten sowie operatives Betriebsmanagement
- Planung, Implementierung und Wartung von IT‑Infrastrukturen inklusive Endanwender‑Support
Ab September 2025:
BI Consulting für Data Engineering & Data Architecture
Azure, GCP, AWS, Databricks und Microsoft Fabric
- End-to‑End‑Lakehouse‑Implementierung
- Planung und Realisierung moderner Datenarchitekturen mit Databricks und Microsoft Fabric
- ETL/ELT‑Pipelines & Data‑Governance
- Aufbau und Optimierung von Batch‑ und Streaming‑Pipelines
- Implementierung von CI/CD‑Prozessen und Data‑Governance‑Strategien
- Migration & Modernisierung
- Analyse und Ablösung legacybasierter Systeme
- Transformation in flexible, cloudnative Architekturen
- Kostenkontrolle & Best Practices
- Monitoring und Steuerung von Cloud‑Ausgaben
- Einführung von Standards und Best Practices für Performance und Kosteneffizienz
- Projekt‑Sprint & Sparring
- Unterstützung als kurzfristiger Sprint‑Partner oder langfristiger Berater
- Workshops & Schulungen
- Hands‑on‑Trainings in Deutsch und Englisch zu Databricks, Spark, Lakehouse, Unity Catalog und Fabric
areto consulting GmbH | Technical Lead – BI-Consultant – Data Engineer: Februar 2023 – August 2025
Anzahl der Projekte: 9
Tätigkeiten:
- Datenanalyse & -modellierung
- Entwicklung und Pflege von Datenmodellen für effiziente Speicherung und Abfrage
- Identifikation relevanter Datenquellen und -strukturen
- Modellierung und Verwaltung von Lakehouse‑Architekturen (Delta‑Lake)
- Konzeption & Implementierung von Data‑Pipelines
- Aufbau von ETL/ELT‑Prozessen
- Automatisierung und Orchestrierung von Datenflüssen zwischen On‑Premise‑ und Cloud‑Quellen (Azure, Google Cloud, AWS)
- Integration heterogener Datenquellen in einheitliche Datensätze
- Performance‑Optimierung & Skalierung
- Tuning von Spark‑Jobs auf Databricks‑Clustern
- Datenqualität, Monitoring & Governance
- Implementierung von Data‑Quality‑Checks (Great Expectations, DQX, DQF)
- Überwachung der Datenqualität und Etablierung von Alerting‑Mechanismen
- Umsetzung von Datenschutzrichtlinien und Sicherheitsstandards zur Sicherung sensibler Daten
- Beratung & Stakeholder‑Kommunikation
- Fachliche Beratung bei Auswahl und Implementierung moderner BI‑ und Data‑Engineering‑Technologien
- Abstimmung mit BI‑Teams, Data Scientists, DevOps und anderen Stakeholdern zur Anforderungsanalyse und Lösungsanpassung
- Schulung & Know‑how‑Transfer
- Durchführung von Schulungen zu Best Practices in Spark, SQL‑on‑Lakehouse und Cloud‑Security (Grundlagen)
- Erstellung von Dokumentationen und Training Materials zur nachhaltigen Wissensvermittlung
- Intern:
- Strategische Partnerschaften stärken: Die Zusammenarbeit mit Databricks kontinuierlich ausbauen und gemeinsame Innovationen vorantreiben.
- Wissen aufbauen und teilen: Technisches Know‑how im Unternehmen systematisch entwickeln, dokumentieren und in Austausch Meetings sowie Schulungen vermitteln.
- Standards etablieren: Einheitliche Architektur‑ und Implementierungsrichtlinien für Lakehouse‑Lösungen definieren, dokumentieren und durchsetzen.
ALDI SÜD – NIT | Senior IT Professional – Data Engineer: Februar 2022 bis Januar 2023
Tätigkeiten:
- Konzipieren und Einrichten von ETL/ELT-Strecken
- SAP BW:
- Erstellen und Transportieren von Querys
- Datenextraktion mithilfe von Alteryx
- Support für die Endnutzer (AfO, Launchpad, Nutzer Berechtigungen usw.)
- Hadoop Data Lake:
- Erstellen, Konzipieren und Managen von CI/CD Pipelines (PySpark, Scala, Sqoop)
- Datenextraktionen ins Data Lake aus verschiedenen Stammdatensystemen
- MSSQL:
- Betreuen von Legacy Reports
- Erstellen, Konzipieren und Managen von SSIS-Paketen
- Erstellen und Betreuen von SSRS-Berichten
- Standard Excel Reports für “Adhoc“ Anfragen
- SAP BW:
- Verantwortlicher – Agiles Arbeiten
- Verantwortlicher – Dokumentation (Confluence)
Selbstständig | Fidan IT-Dienstleistungen & Consulting: Juni 2021 bis Dezember 2022
Digitalisierung von Unternehmen:
- Öffentliches Auftreten (Homepage, Google My Business)
- Kommunikation (VoIP, ACD, Schriftverkehr)
- Projekt- und Betriebsmanagement
- Infrastruktur
Beratung und Unterstützung:
- Transformationsprojekte
- Großprojekte
- Data Engineering
- System Engineering
- IT-Trainings und Schulungen
Sanvartis GmbH | Business Intelligence Analyst/Developer: Dezember 2020 bis Januar 2022
Entwicklung und Analyse
Tätigkeiten:
- Erstellen von ETL-Strecken mithilfe von Oracle und Qlik
- Pandas (Python)
- Analysieren, Bereinigen und Aufbereiten von Daten für die Darstellung in Qlik Sense (BI-Tool) und Excel-Reports
- Betreuung des Data Warehouses
Technologien/Sprachen:
- MSSQL, Oracle, Talend, Python, PL/SQL
Sanvartis GmbH | Systemadministrator: Juni 2020 bis November 2020
System Engineering, Administration und Support
Projekte:
- Umzug der On-Premise Systemlandschaft in ein Rechenzentrum
- Umzug des Unternehmensstandorts
Sanvartis GmbH |Ausbildung zum Fachinformatiker: September 2018 bis Juni 2020
Fachinformatiker für Systemintegration
Systemadministration und Support
Zusätzliche Erfahrungswerte in den Bereichen IT-Entwicklung und Projektmanagement
Ausbildungsinhalte:
- Microsoft Server und Umgebung (Active Directory, Exchange, O365, Windows 7 & 10)
- Linux Server (Debian und Ubuntu)
- Virtualisierung (Proxmox und VMWare)
- Netzwerktechnik (Cisco, Ubiquiti bzw. Unify, MikroTik und PfSense, PRTG, Nagios)
- ACD/Telefonanlagen (3CX und Avaya)
- Entwicklung (SQL, MYSQL, ORACLE, C#, Python, HTML/CSS, PHP)
- Agiles Arbeiten (SCRUM)
- Atlassiantools (Jira, Confluence, BitBucket)
- Projektmanagement (Kommunikation mit Kunden und eigenständiges leiten von Projekten)
- Audit ISO 27001
Juni 2018 bis Juli 2018 Dietrich GmbH | Kfz-Mechatroniker
März 2018 bis Mai 2018 BMW Group |Kfz-Mechatroniker
Februar 2017 bis Januar 2018 Autohaus Paaßen | Ausbildung zum Kfz-Mechatroniker
September 2016 bis Januar 2017 Autotechnik Mühlenkamp | Ausbildung zum Kfz-Mechatroniker
September 2014 bis August 2016 Özcan Kfz-Technik |Ausbildung zum Kfz-Mechatroniker
Ausbildung:
2023 bis heute IU Internationale Hochschule – Wirtschaftsinformatik B. Sc.
2018 bis 2021 WBK-Duisburg Abendgymnasium – Allgemeine Hochschulreife
2018 bis 2020 Duale Berufsausbildung - Berufskolleg Uerdingen Krefeld
2014 bis 2017 Duale Berufsausbildung – Hans Sachs Berufskolleg Oberhausen
2012 bis 2014 Allgemeine Hochschulreife – BKO Ost-Vest Datteln
2006 bis 2012 Fachoberschulreife mit Qualifikation – Rosa-Parks-Schule Herten
Kenntnisse & Fähigkeiten:
Bewertungsgrundlage: Grundkenntnisse – Fortgeschritten – Experte
Programmiersprachen:
Python – Experte
PHP – Grundkentnisse
HTML/CSS – Fortgeschritten
JavaScript - Grundkenntnisse
Java – Grundkenntnisse
C# - Grundkenntnisse
Technologien:
Hadoop – Fortgeschritten
Alteryx – Fortgeschritten
SAP BW – Fortgeschritten
Talend – Fortgeschritten
Qlik – Fortgeschritten
MSSQL – Fortgeschritten
SSIS – Fortgeschritten
SSRS – Grundkenntnisse
Oracle On-Premise – Fortgeschritten
Docker – Grundkenntnisse
Azure – Experte
AWS – Grundkentnisse
GCP – Fortgeschritten
Snowflake – Grundkentnisse
Databricks – Experte
Fabric – Experte
Azure Synapse - Experte
Zertifizierungen:
Cisco - CCNA1
Azure - Data Engineer Associate - DP-203
Azure - Fabric Analytics Engineer Associate - DP-600
Databricks - Lakehouse Fundamentals
Databricks - Generative AI Fundamentals
Databricks - Platform Administrator
Databricks - Azure Databricks Platform Architect
Databricks - Data Analyst Associate
Databricks - Data Engineer Associate
Databricks - Data Engineer Professional
Fremdsprachen:
Englisch – fließend
Türkisch – fließend
Führerschein:
Klasse B