Yunus Fidan

BI-Consultant | Data Engineer

Mit über fünf Jahren Berufserfahrung im IT-Bereich arbeite ich heute als Freelancer im Bereich BI-Consulting und Data Engineering. Dabei verbinde ich technisches Fachwissen mit strategischem Denken. Mein Schwerpunkt liegt auf der Lakehouse-Technologie sowie den Plattformen Databricks und Microsoft Fabric. Ziel ist es, Unternehmen bei der Datenintegration, -analyse und Entwicklung moderner Datenplattformen zu unterstützen, um datengetriebene Entscheidungen und effiziente Geschäftsprozesse zu ermöglichen.

Mein beruflicher Weg begann mit einer Ausbildung zum Kfz-Mechatroniker, gefolgt von einer dualen Ausbildung zum Fachinformatiker für Systemintegration. Diese Kombination aus praktischer Technik und fundiertem IT-Wissen bildet die Basis meiner Expertise. Heute arbeite ich mit einem breiten Technologie-Stack und verfüge über 7 Databricks- sowie 2 Fabric-Zertifizierungen, die meine Spezialisierung untermauern.

Als selbstständiger IT-Dienstleister begleite ich Unternehmen bei der Einführung moderner Cloud- und Datenlösungen – von Architektur und Implementierung bis zum Betrieb. Mein Ansatz ist darauf ausgerichtet, nicht nur IT-Systeme zu modernisieren, sondern auch Effizienz und Wettbewerbsfähigkeit nachhaltig zu steigern.

Detaillierter Lebenslauf

Berufserfahrung:

Selbstständig | Fidan IT-Dienstleistungen: Dezember 2024 – bis heute
Digitalisierung von KMU:

  • Entwicklung und Umsetzung professioneller Online‑Auftritte (Websites, Google My Business)
  • Analyse und Optimierung interner Kommunikations‑ und Prozessabläufe
  • Konzeption und Steuerung von IT‑Projekten sowie operatives Betriebsmanagement
  • Planung, Implementierung und Wartung von IT‑Infrastrukturen inklusive Endanwender‑Support

Ab September 2025:

BI Consulting für Data Engineering & Data Architecture
Azure, GCP, AWS, Databricks und Microsoft Fabric

  • End-to‑End‑Lakehouse‑Implementierung
    • Planung und Realisierung moderner Datenarchitekturen mit Databricks und Microsoft Fabric
  • ETL/ELT‑Pipelines & Data‑Governance
    • Aufbau und Optimierung von Batch‑ und Streaming‑Pipelines
    • Implementierung von CI/CD‑Prozessen und Data‑Governance‑Strategien
  • Migration & Modernisierung
    • Analyse und Ablösung legacybasierter Systeme
    • Transformation in flexible, cloudnative Architekturen
  • Kostenkontrolle & Best Practices
    • Monitoring und Steuerung von Cloud‑Ausgaben
    • Einführung von Standards und Best Practices für Performance und Kosteneffizienz
  • Projekt‑Sprint & Sparring
    • Unterstützung als kurzfristiger Sprint‑Partner oder langfristiger Berater
  • Workshops & Schulungen
    • Hands‑on‑Trainings in Deutsch und Englisch zu Databricks, Spark, Lakehouse, Unity Catalog und Fabric

 

areto consulting GmbH | Technical Lead – BI-Consultant – Data Engineer: Februar 2023 – August 2025

Anzahl der Projekte: 9


Tätigkeiten:

  • Datenanalyse & -modellierung
    • Entwicklung und Pflege von Datenmodellen für effiziente Speicherung und Abfrage
    • Identifikation relevanter Datenquellen und -strukturen
    • Modellierung und Verwaltung von Lakehouse‑Architekturen (Delta‑Lake)
  • Konzeption & Implementierung von Data‑Pipelines
    • Aufbau von ETL/ELT‑Prozessen
    • Automatisierung und Orchestrierung von Datenflüssen zwischen On‑Premise‑ und Cloud‑Quellen (Azure, Google Cloud, AWS)
    • Integration heterogener Datenquellen in einheitliche Datensätze
  • Performance‑Optimierung & Skalierung
    • Tuning von Spark‑Jobs auf Databricks‑Clustern
  • Datenqualität, Monitoring & Governance
    • Implementierung von Data‑Quality‑Checks (Great Expectations, DQX, DQF)
    • Überwachung der Datenqualität und Etablierung von Alerting‑Mechanismen
    • Umsetzung von Datenschutzrichtlinien und Sicherheitsstandards zur Sicherung sensibler Daten
  • Beratung & Stakeholder‑Kommunikation
    • Fachliche Beratung bei Auswahl und Implementierung moderner BI‑ und Data‑Engineering‑Technologien
    • Abstimmung mit BI‑Teams, Data Scientists, DevOps und anderen Stakeholdern zur Anforderungsanalyse und Lösungsanpassung
  • Schulung & Know‑how‑Transfer
    • Durchführung von Schulungen zu Best Practices in Spark, SQL‑on‑Lakehouse und Cloud‑Security (Grundlagen)
    • Erstellung von Dokumentationen und Training Materials zur nachhaltigen Wissensvermittlung

 

  • Intern:
    • Strategische Partnerschaften stärken: Die Zusammenarbeit mit Databricks kontinuierlich ausbauen und gemeinsame Innovationen vorantreiben.
    • Wissen aufbauen und teilen: Technisches Know‑how im Unternehmen systematisch entwickeln, dokumentieren und in Austausch Meetings sowie Schulungen vermitteln.
    • Standards etablieren: Einheitliche Architektur‑ und Implementierungsrichtlinien für Lakehouse‑Lösungen definieren, dokumentieren und durchsetzen.

 

ALDI SÜD – NIT | Senior IT Professional – Data Engineer: Februar 2022 bis Januar 2023
 Tätigkeiten:

  • Konzipieren und Einrichten von ETL/ELT-Strecken
    • SAP BW:
      • Erstellen und Transportieren von Querys
      • Datenextraktion mithilfe von Alteryx
      • Support für die Endnutzer (AfO, Launchpad, Nutzer Berechtigungen usw.)
    • Hadoop Data Lake:
      • Erstellen, Konzipieren und Managen von CI/CD Pipelines (PySpark, Scala, Sqoop)
      • Datenextraktionen ins Data Lake aus verschiedenen Stammdatensystemen
    • MSSQL:
      • Betreuen von Legacy Reports
      • Erstellen, Konzipieren und Managen von SSIS-Paketen
      • Erstellen und Betreuen von SSRS-Berichten
      • Standard Excel Reports für “Adhoc“ Anfragen
  • Verantwortlicher – Agiles Arbeiten
  • Verantwortlicher – Dokumentation (Confluence)

 

Selbstständig | Fidan IT-Dienstleistungen & Consulting: Juni 2021 bis Dezember 2022
Digitalisierung von Unternehmen:

  • Öffentliches Auftreten (Homepage, Google My Business)
  • Kommunikation (VoIP, ACD, Schriftverkehr)
  • Projekt- und Betriebsmanagement
  • Infrastruktur

Beratung und Unterstützung:

  • Transformationsprojekte
  • Großprojekte
    • Data Engineering
    • System Engineering
  • IT-Trainings und Schulungen

 

Sanvartis GmbH | Business Intelligence Analyst/Developer: Dezember 2020 bis Januar 2022
Entwicklung und Analyse

 Tätigkeiten:

  • Erstellen von ETL-Strecken mithilfe von Oracle und Qlik
  • Pandas (Python)
  • Analysieren, Bereinigen und Aufbereiten von Daten für die Darstellung in Qlik Sense (BI-Tool) und Excel-Reports
  • Betreuung des Data Warehouses

Technologien/Sprachen:

  • MSSQL, Oracle, Talend, Python, PL/SQL

 

Sanvartis GmbH | Systemadministrator: Juni 2020 bis November 2020
System Engineering, Administration und Support

Projekte:

  • Umzug der On-Premise Systemlandschaft in ein Rechenzentrum
  • Umzug des Unternehmensstandorts

 

Sanvartis GmbH |Ausbildung zum Fachinformatiker: September 2018 bis Juni 2020
Fachinformatiker für Systemintegration
Systemadministration und Support

Zusätzliche Erfahrungswerte in den Bereichen IT-Entwicklung und Projektmanagement

Ausbildungsinhalte:

  • Microsoft Server und Umgebung (Active Directory, Exchange, O365, Windows 7 & 10)
  • Linux Server (Debian und Ubuntu)
  • Virtualisierung (Proxmox und VMWare)
  • Netzwerktechnik (Cisco, Ubiquiti bzw. Unify, MikroTik und PfSense, PRTG, Nagios)
  • ACD/Telefonanlagen (3CX und Avaya)
  • Entwicklung (SQL, MYSQL, ORACLE, C#, Python, HTML/CSS, PHP)
  • Agiles Arbeiten (SCRUM)
  • Atlassiantools (Jira, Confluence, BitBucket)
  • Projektmanagement (Kommunikation mit Kunden und eigenständiges leiten von Projekten)
  • Audit ISO 27001

 

Juni 2018 bis Juli 2018                                     Dietrich GmbH | Kfz-Mechatroniker

März 2018 bis Mai 2018                                  BMW Group |Kfz-Mechatroniker

Februar 2017 bis Januar 2018                        Autohaus Paaßen | Ausbildung zum Kfz-Mechatroniker

September 2016 bis Januar 2017                  Autotechnik Mühlenkamp | Ausbildung zum Kfz-Mechatroniker

September 2014 bis August 2016                 Özcan Kfz-Technik |Ausbildung zum Kfz-Mechatroniker

 

Ausbildung:

2023 bis heute                                                     IU Internationale Hochschule – Wirtschaftsinformatik B. Sc.

2018 bis 2021                                                       WBK-Duisburg Abendgymnasium – Allgemeine Hochschulreife

2018 bis 2020                                                       Duale Berufsausbildung - Berufskolleg Uerdingen Krefeld

2014 bis 2017                                                       Duale Berufsausbildung – Hans Sachs Berufskolleg Oberhausen

2012 bis 2014                                                       Allgemeine Hochschulreife – BKO Ost-Vest Datteln

2006 bis 2012                                                       Fachoberschulreife mit Qualifikation – Rosa-Parks-Schule Herten

 

Kenntnisse & Fähigkeiten:

Bewertungsgrundlage:                                 Grundkenntnisse – Fortgeschritten – Experte

Programmiersprachen:

Python – Experte
PHP – Grundkentnisse
HTML/CSS – Fortgeschritten
JavaScript - Grundkenntnisse
Java – Grundkenntnisse
C# - Grundkenntnisse

Technologien:                 

Hadoop – Fortgeschritten
Alteryx – Fortgeschritten
SAP BW – Fortgeschritten
Talend – Fortgeschritten
Qlik – Fortgeschritten
MSSQL – Fortgeschritten
SSIS – Fortgeschritten
SSRS – Grundkenntnisse 
Oracle On-Premise – Fortgeschritten
Docker – Grundkenntnisse
Azure – Experte
AWS – Grundkentnisse
GCP – Fortgeschritten
Snowflake – Grundkentnisse
Databricks – Experte
Fabric – Experte
Azure Synapse - Experte

Zertifizierungen:

Cisco - CCNA1
Azure - Data Engineer Associate - DP-203
Azure - Fabric Analytics Engineer Associate - DP-600
Databricks - Lakehouse Fundamentals
Databricks - Generative AI Fundamentals
Databricks - Platform Administrator
Databricks - Azure Databricks Platform Architect
Databricks - Data Analyst Associate
Databricks - Data Engineer Associate
Databricks - Data Engineer Professional

Fremdsprachen:                                             

Englisch – fließend
Türkisch – fließend

Führerschein:                                                   

Klasse B

Logo

©Urheberrecht. Alle Rechte vorbehalten.

Wir benötigen Ihre Zustimmung zum Laden der Übersetzungen

Wir nutzen einen Drittanbieter-Service, um den Inhalt der Website zu übersetzen, der möglicherweise Daten über Ihre Aktivitäten sammelt. Bitte überprüfen Sie die Details in der Datenschutzerklärung und akzeptieren Sie den Dienst, um die Übersetzungen zu sehen.