LEBENSLAUF

FELIX SCHOLZ

Cloud Administrator / DevOps Engineer

Ich bin als DevOps Engineer mit Schwerpunkt auf Automatisierung, Cloud-Lösungen und Künstlicher Intelligenz bei der TIQ Solutions tätig. Bereits im Studium (B.Sc.) an der Hochschule Mittweida habe ich mich auf Software-Architektur, Java-Programmierung, IT-Administration und Projektmanagement fokussiert.

Durch meine Erfahrung in verschiedenen Projekten habe ich umfassende Kenntnisse in der Web-Entwicklung, IT-Administration sowie im Aufbau moderner Cloud-Infrastrukturen entwickelt. Dabei lag mein Fokus zunehmend auf der Integration von DevOps-Prinzipien und der Nutzung von Künstlicher Intelligenz zur Optimierung von Entwicklungs- und Betriebsprozessen.

Bei TIQ Solutions bin ich maßgeblich an der Planung und Umsetzung innovativer Software- und Cloud-Projekte sowie an der Entwicklung von AI-gestützten Lösungen beteiligt. Zusätzlich verantwortet ich die Konzeption und den Betrieb von sicheren Cloud-Infrastrukturen und setze skalierbare und kosteneffiziente Plattformen für Kundenprojekte um:

  • Entwicklung und Betrieb von AI-gestützten Anwendungen, vor allem im Bereich Big Data,
  • Sichere und automatisierte Bereitstellung von Cloud-Lösungen,
  • Optimierung von Entwicklungsprozessen durch den Einsatz von AI- und DevOps-Toolchains.

Ich zeichne mich durch hohe Eigenverantwortung, Teamfähigkeit und Belastbarkeit aus. Meine Expertise in DevOps und Künstlicher Intelligenz macht mich zu einem wertvollen Ansprechpartner für komplexe, zukunftsorientierte Projekte.

Profile Bild

(Stand: Mai/2025)

Ausbildung: Studium Informatik (B.Sc.)

Geburtsjahr: 1989

Projekterfahrung seit: 2017

Fremdsprachen: English

Branchen: E-Commerce, Social Media, PR, öffentliche Banken, Motorenbau

AUSBILDUNG

Sept./2015 - Aug./2018

Studium | Medieninformatik B.Sc. | Hochschule Mittweida in Mittweida

Medieninformatik und interaktives Entertainment B.Sc.

Sept./2011 - Aug./2015

Studium | Informatik B.Sc. | Hochschule Mittweida in Mittweida

Informatik B.Sc.

Aug./2010 - Juli/2011

Fachhochschulreife Fertigungsmechaniker | BSZ für "Technik Gustav Anton Zeuner" in Dresden

Feb./2007 - Jan./2010

Berufsausbildung | Fertigungsmechaniker Fertigungsmechaniker | IHK-HWK-Ausbildungsverbund in Dresden

Die Ausbildung zum Facharbeiter als Fertigungsmechaniker

Sept./2006 - Dez./2006

Berufsausbildung | Mechatroniker Mechatroniker | Aufzugsbau Dresden GmbH in Dresden

Meine Berufausbildung zum Mechatroniker

Sept./2000 - Juni/2006

Allgemeine Bildung | Realschule Realschulabschluss | Realschule in Freital - Hainsberg in Freital

Sept./1996 - Juli/2000

Allgemeine Bildung | Grundschule in Freital - Hainsberg in Freital

BERUFLICHE LAUFBAHN

März/2024 -
heute

Cloud-Administrator / DevOps Engineer | TIQ Solutions GmbH in Leipzig

Als erfahrener Cloud-Administrator und DevOps Engineer habe ich Azure Ressourcen über das Azure Portal verwaltet und mithilfe von Azure DevOps Pipelines und Infrastructure as Code (IaC) optimiert. Meine Hauptaufgaben umfassten die Provisionierung und Verwaltung der Cloud-Infrastruktur, die Implementierung benutzerdefinierter Pipelines und die Überwachung der Systemleistung. Durch enge Zusammenarbeit mit dem Team und proaktive Problemlösung konnte ich stets für einen effizienten Betrieb sorgen.

Sept./2019 - März/2024

Java-Entwickler/ Azure Cloud-Administrator | TIQ Solutions GmbH in Leipzig

Als erfahrener Java-Entwickler und Azure Cloud-Administrator im Big Data Stack ADF und Hadoop war ich verantwortlich für die Entwicklung und Wartung von Java-basierten Anwendungen auf der Azure Cloud-Plattform, die große Datenmengen verarbeiteten und analysierten. Ich habe Hadoop-Cluster eingerichtet, Code geschrieben, um Daten zu extrahieren, transformieren und in das System zu laden, benutzerdefinierte Datenpipelines erstellt und die Leistung des Systems überwacht, Probleme behoben und mit anderen Teammitgliedern zusammengearbeitet.

Dez./2018 - Mai/2019

PHP - Backendentwicklung | Check24 Vergleichportal Reise in Leipzig

Als erfahrener PHP-Entwickler im Backend und für REST-APIs habe ich Server-seitige Anwendungen und APIs entwickelt und gewartet. Ich habe PHP verwendet, um Backend-Funktionalitäten zu implementieren und REST-APIs zu entwickeln, die es Front-End-Anwendungen ermöglichten, auf Daten und Funktionalitäten des Backends zuzugreifen. Meine Aufgaben beinhalteten die Optimierung der Performance von Anwendungen und APIs, die Sicherstellung der Integrität und Sicherheit von Daten sowie die Zusammenarbeit mit Front-End-Entwicklern und anderen Teammitgliedern. Ich habe fundierte Kenntnisse in PHP und Erfahrung in der Backend-Entwicklung und in der Erstellung von REST-APIs.

Jan./2018 - Aug./2018

Werkstudent | B-S-S Business Software Solutions GmbH in Dresden

Als erfahrener Java-Entwickler für SharePoint-Schnittstellen habe ich Java-basierte Schnittstellen entwickelt, um SharePoint-Systeme mit anderen Anwendungen und Datenquellen zu integrieren. Ich habe eng mit SharePoint-Administratoren und anderen Entwicklern zusammengearbeitet, um Anforderungen zu sammeln und Lösungen zu entwickeln, die die Integrität und Sicherheit der SharePoint-Daten gewährleisteten.

Apr./2010 - Aug./2010

Facharbeiter | persona service AG & Co. KG in Dresden

  • Papierfabrik Freital-Hainsberg

ARBEITSSCHWERPUNKTE

Softwareentwicklung in Java und C# | Datenmanagement | Systemadministration | Azure-Cloud-Administration und –Automatisierung | Cloud-Konzeption | IaaC-Infrastrukturentwicklung | AI Administration

ZERTIFIKATE / WEITERBILDUNGEN

Programming in C# | Englisch C1.1 | PHP-Unit | AZ-900 | Schulung zu KI-Kompetenz

METHODENKENNTNISSE

Anforderungsmanagement | Konzeption / Architektur | Deployment/ DevOps | Softwaretesting / Benchmarking | Projektmanagement | Projektdokumentation | System Architektur Security | Cloud Netzwerk Security | Infrastructure as Code | Scrum | Kanban

IT-KENNTNISSE

Betriebssysteme

  • Windows
  • Linux/ Unix
  • Debian
  • CentOS

Cloud

  • Azure
  • Cloudera
  • Google

Datenbanken

  • PostgreSQL
  • Microsoft SQL
  • T-SQL
  • MySQL
  • SQLite
  • CosmoDB
  • Azure SQL

Programmieren

  • C#
  • Latex
  • Python
  • sh/bash-Scripts
  • PowerShell-Scripts
  • Go

ETL

  • Azure Data Factory
  • Apache Oozie

API

  • ODBC/ JDBC
  • SQL-Server
  • Text/CSV
  • XML
  • JSON
  • REST

Maschine Learning

  • Azure ML

Big Data Stack

  • Azure BigData Stack
  • Azure Databricks

BI Tools

  • Qlik Sense
  • Power BI

Netzwerke / Protokolle

  • TCP/IP
  • http
  • FTP
  • SSH
  • Ethernet
  • IPv4/ IPv6
  • VPN
  • LDAP
  • Kerberos
  • Azure Virtuales Netzwerk

Entwicklungswerkzeuge

  • PyCharm
  • IntelliJ IDEA
  • MS Visual Studio
  • Git
  • GitLab CI
  • Azure DevOps
  • JupyterHub

Package Repositorien

  • npm
  • apt
  • yum
  • PyPi

Standard-Software

  • Confluence
  • Azure DevOps
  • Jira
  • SharePoint
  • MS Visio
  • Microsoft Office 356
  • Power Query

Provisionierung

  • Terraform
  • Ansible

AI / LLM

  • Azure AI
  • OpenAI
  • Azure Cognitiv Search

AUSGEWÄHLTE PROJEKTE

Motorenbau | Dokumentation, Entwicklung, Support

ZeitraumJan./2025 - heute
Projektaktivitäten

Verantwortlich für die End-to-End-Umsetzung und den Support von Datenmanagement- und Integrationslösungen auf Grundlage moderner Technologien. Schlüsselaufgaben umfassen:

  • Datenpipelines und ETL-Entwicklung: Implementierung und Optimierung von Datenpipelines mit Talend und SSIS zur Automatisierung des Datenaustauschs zwischen IT-Systemen.
  • API-Implementierung und Management: Entwicklung und Wartung von APIs inklusive Routing-Policies und API-Secure-Authentifizierung (z. B. SSO).
  • Systeminfrastruktur: Verwaltung und Optimierung von Linux-basierten Servern, einschließlich Docker-Container und Ansible-Playbooks, zur Sicherstellung von Stabilität und Sicherheit.
  • Incident- und Supportmanagement: Bearbeitung von Incidents und Service Requests über IT-Service-Portale (z. B. IT4U), Ursachenanalysen sowie Zusammenarbeit mit Softwareherstellern und 2nd-/3rd-Level-Support.
  • Dokumentation und Prozessdesign: Erstellung detaillierter Dokumentationen und Prozessbeschreibungen, um hohe Qualität und Nachvollziehbarkeit sicherzustellen.

Erfolge:

  • Effiziente Automatisierung des Datenaustauschs und stabiler Betrieb von Integrationsplattformen.
  • Proaktive Identifikation und Behebung von Problemen durch kontinuierliches Monitoring und Wartung.

Methoden/ TechnologienTalend Cloud API Services Platform 7.3.1 | Collibra | Azure Service Bus | Docker | Ansible | Red Hat Enterprise Linux | SQL Server | Jira | IT4U | DevOps

E-Commerce | Webscraping

ZeitraumDez./2024
Projektaktivitäten

Entwicklung eines effizienten WebScraping-Tools zur Extraktion von Produktdaten von der Website Bogensportwelt. Mit der Go Colly-Bibliothek wurde eine robuste Lösung umgesetzt, die Daten wie Artikelvarianten (Größe, Farbe) gesammelt und im CSV-Format bereitgestellt hat – kompatibel mit dem JTL-Ameise-Importsystem.

Herausforderungen
  • Komplexe Seitenstruktur: Dynamische Inhalte und Variationsdaten (Vater-Kind-Artikel) korrekt zu extrahieren.
  • Datenformat: Sicherstellung, dass die CSV-Daten den Anforderungen des JTL-Imports entsprechen.
Lösungsansatz
  • Einsatz von Go Colly zur rekursiven Durchsuchung der Marken (z.B. ElToro, Drake), um strukturierte Daten wie Namen, Kategorien und Variationen effizient zu sammeln.
  • Automatischer CSV-Export, optimiert für die JTL-Importstruktur mit Vater- und Kindartikeln.
Ergebnisse
  • Automatisierte Extraktion: Erfolgreiches Sammeln aller Produktvariationen (~30 % Zeitersparnis).
  • Exakter CSV-Output: Ermöglicht den direkten Import in JTL ohne Nachbearbeitung.
  • Wartungsfähig: Wiederverwendbares Go-Scraping-Tool für zukünftige Anforderungen.

Das Projekt führte zu einer schnellen, verlässlichen Lösung, um fehlende Produktvariationen zu ergänzen und JTL effizient mit Daten zu versorgen.

Methoden/ TechnologienGo | CI/CD

Finanzdienstleistungen | Cloudadministration & Cloudkonzeption

ZeitraumFeb./2022 - Nov./2024
Projektaktivitäten

Als Cloud-Administrator bei einer großen deutschen Kreditbank lag mein Schwerpunkt auf der Administration und Konzeption von Azure-Cloud-Infrastrukturen. In dieser Zeit konnte ich als Teil eines agilen Teams entscheidend dazu beitragen, innovative Konzepte umzusetzen und zentrale Projekte erfolgreich abzuschließen.

Hauptverantwortlichkeiten und Erfolge
1. Migration geschäftskritischer Anwendungen
  • Migration zentraler Anwendungen von einer lokalen Umgebung in die Azure-Cloud mit Terraform und ARM (IaC).
2. Entwicklung eines AI-gestützten Chatsystems
  • Umsetzung eines AI-Chatsystems mit Azure OpenAI und Cognitive Search.
  • Skalierung der Infrastruktur und Optimierung der CI/CD-Pipelines mit Azure DevOps.
3. Sicherheitsrichtlinien & Incident-Management
  • Implementierung granularer Azure Policies, um Compliance-Standards sicherzustellen.
  • Unterstützung von Incident-Management in Kubernetes-Umgebungen.
4. Agile Koordination und Wissenstransfer
  • Steuerung von Projekten nach der Scrum-Methode und enge Zusammenarbeit mit cross-funktionalen Teams.

Ergebnisorientierung und Weiterentwicklung

Durch moderne, skalierbare Cloud-Lösungen und die Integration von AI-Technologien habe ich Prozesse vereinfacht und zukunftssicher gestaltet. Meine Kenntnisse in Azure-AI-Lösungen, Cloud-Betrieb und DevOps habe ich dabei kontinuierlich vertieft.

Methoden/ TechnologienAzure Ressourcen Manager (Azure RM) | Azure Policies | Terraform | IaaC | Azure DevOps | CI/CD | Kubernetes | Incident-Management | SAP | Scrum | DevOps | Azure AI

Logistik | Systemarchitektur

ZeitraumSept./2021 - Nov./2021
Projektaktivitäten

Um die logistischen Abläufe an einem großen deutschen Flughafen zu optimieren, werden umfangreiche Flughafenauswertungen durchgeführt. Hierbei werden viele Analyse-Daten gesammelt. Um die großen Datenmengen schneller und sicherer zu verarbeiten, soll die aktuelle Big Data-Architektur in Hadoop durch eine Big Data-Architektur in Azure ersetzt werden. Die Tätigkeitsinhalte umfassen:

  • Konzeption und Aufbau einer Data-Lake-Struktur mit Integration des vom Kunden bereitgestellten Rechtekonzepts
  • Konfiguration von Azure Databricks und Azure-Databricks-Umgebung
  • Datenmigration der strukturierten Daten von HDFS nach Azure Storage Account und Migration der bestehenden On-Premise-Installation von MLflow in die von Databricks bereitgestellte Instanz
  • Aufbau und Administration eines Azure Datawarehouses mit ETL-Stecke und Maschine Learning-Umgebung, um Auswertungen aus den gesammelten Daten zu erstellen und Prognosen für die Zukunft zu treffen
  • Migration bestehender Spark-Jobs nach Databricks und bestehender Python-Jobs nach Databricks
  • Optimierung der vorhandenen Jobs hin zu optimaler Ressourcennutzung in Databricks und Integration der neuen Databricks-Jobs in das bestehende Apache Airflow.

Methoden/ TechnologienHadoop | Azure SQL | Azure Data Factory | Azure ML | Azure Dashboard | Azure Virtual Network | Azure Key Vault | Azure Identity | Python | Spark

Wirtschafsprüfer | Health Check

ZeitraumMärz/2021
Projektaktivitäten

Analyse eines langsamen Qlik Sense Servers und Vorschläge für die Optimierung dieses Servers. Untersucht wurden interne Qlik Sense Monitoring Apps. Diese wurden entsprechend reparieret bzw. neu erzeugt. Des Weiteren wurden die Server Logs auf auffällige Fehler untersucht und entsprechende Maßnahmen eingeleitet. Die von TIQ erstellte Qlik Sense-PrintAPI wurde auf Schwachstellen und Performanceoptimierung untersucht und optimiert.

Methoden/ TechnologienQlik Sense | Windows Server 2012 | Heath Check

Social Media Analyse | Datawarehouse

ZeitraumJan./2021 - Dez./2023
Projektaktivitäten

Beim Kunden werden mittels Social Listening und Künstlicher Intelligenz diverse Stimmungsbarometer in verschiedenen Ausprägungen sowie sogenannte Siegelstudien für Unternehmen und Marken erstellt. Die dafür notwendigen Schritte müssen automatisiert werden, um der wachsenden Nachfrage und Datenmenge gerecht zu werden. Dafür werden eine komplette neue IT-Infrastruktur in einer Datawarehouse Infrastruktur aufgebaut, die Schritte für die automatisierte Datenanalyse integriert und ein Reporting aufgesetzt.

Aufbau und Administration eines Azure Datawarehouses mit ETL-Stecke und Maschine Learning Umgebung, um Auswertungen aus den gesammelten Daten zu treffen und Prognosen für die Zukunft zu treffen.

Zudem ist eine parametrisiert Abfragemethode die Daten direkt in eine Excel Tabelle bzw. ein Power BI Dashboard mittels Power Query gewünscht.

Methoden/ TechnologienTerraform | Azure SQL | Microsoft SQL | Azure Data Factory | Azure ML | Azure Dashboard | Azure Virtual Network | Azure Key Vault | Azure Identity | Power Query | Power BI

Social Media Analyse | Administration Big Data

ZeitraumJan./2020 - März/2021
Projektaktivitäten

Beim Kunden werden mittels Social Listening und Künstlicher Intelligenz diverse Stimmungsbarometer in verschiedenen Ausprägungen sowie sogenannte Siegelstudien für Unternehmen und Marken erstellt. Die dafür notwendigen Schritte müssen automatisiert werden, um der wachsenden Nachfrage und Datenmenge gerecht zu werden. Dafür werden eine komplette neue IT-Infrastruktur auf Big Data Architektur aufgebaut, die Schritte für die automatisierte Datenanalyse integriert und ein Reporting aufgesetzt.

Aufbau und Administration einer Cloudera Plattform in der Azure Deutschland Cloud: Aufbau der Azure Umgebung mit allen VM bzw. Server, Netzwerken und Zugangspunkten die Cloudera benötigt. Zudem noch den Aufbau des Cloudera Manager und Cloudera Agenten mit den Services die im Cloudera Cluster benötigt werden.

Methoden/ TechnologienAnsibe | Azure CLI | Python | Cloudera | DevOps | Linux Hosts in der Azure Cloud | LDAP | Kerberos | Apache Hadoop | Apache Hive | Apache Oozie | Apache Spark | Terraform | T-SQL

Produktentwicklung | Erweiterung

ZeitraumNov./2019 - Dez./2020
Projektaktivitäten

Automatisierter Aufbau eines Cloudera Clusters in der Azure Cloud

Entwicklung einer Automatisierung für den Cloudera Manager mit Ansible Moduls, mit welcher man das Cloudera Cluster über Ansible managen kann und folgende Tasks automatisiert abgebildet werden:

  • Automatisches Erstellen der benötigen virtuellen Maschinen in der Cloud.
  • Provisionierung eines Cluster-Management mit automatischer Installation und Konfiguration von OpenVPN-, LDAP- und DNS-Diensten
  • Installation der Cloudera Packages
  • Konfiguration Basis Cloudera Cluster

Methoden/ TechnologienAnsibe | Azure CLI | Python | Cloudera Manager API | Linux Hosts in der Azure Cloud | LDAP | OpneVPN | Kerberos

Produktentwicklung | Administration

ZeitraumOkt./2019 - Dez./2020
Projektaktivitäten

Entwicklung und Bereitstellung eines Cloud-basierten Big Data Stack für die Nutzung als Reporting und Advanced Analytics Plattform.

Ziel ist die unkomplizierte Bereitstellung einer vollständig vorkonfigurierten Plattform für individuelle Prozesse und Analysen.

Unterstützung:

Installation und Konfiguration eines Cloudera Clusters in der Azure Cloud für den produktiven Einsatz mit Hilfe von Ansible.

Methoden/ TechnologienAnsibe | Azure CLI | Python | Cloudera | Linux Hosts in der Azure Cloud | LDAP | OpneVPN

Produktentwicklung | Java-Entwickler

ZeitraumOkt./2019 - Jan./2020
Projektaktivitäten

Konzeption und Erstellung eines Webservice zur Anbindung der Graphdatenbank Neo4J an Qlik Sense und QlikView.

Ziel ist es, die Graphendatenbank Neo4J in den Qlik Produkten zur Verfügung zu stellen und mit den so gewonnenen Daten arbeiten zu können.

Unterstützung:

Evaluierung des Funktionsumfangs eines Java-Webservers und eines mit AngularJS programmierten Frontend. Erweiterung der Java-Webservers um Endpoints und JUnit-Test.

Methoden/ TechnologienJava | JavaScript | AngularJS | Jetty Webserver Framework | JUnit

Wirtschafsprüfer | C# - Entwickler

ZeitraumSept./2019 - März/2020
Projektaktivitäten

Unterstützung bei der Entwicklung einer „PrintAPI“ zur Konfiguration und Automation eines Druckprozesses im Qlik Sense für die Erstellung von Wirtschaftsberichten im PDF-Format. Supportleistungen zur Optimierung und Weiterentwicklung des definierten Druckprozesses.

Methoden/ TechnologienQlik Sense | C# | .NET | IIS | ASP.NET-Webanwendung | Windows Server | Visual Studio 2017

E-Commerce | PHP-Backend-Entwickler

ZeitraumDez./2018 - Mai/2019
Projektaktivitäten

Entwicklung eines leistungsfähigen PHP-Backends zur Aufbereitung und Weiterverarbeitung von Daten.
Das Backend war mit einem JavaScript- und Vue.js-basierten Frontend integriert, welches die Ansicht der aufbereiteten Daten und Verarbeitungspipelines ermöglichte.

Leistungen:

  • Implementierung von REST-Schnittstellen für die Datenkommunikation.
  • Automatisiertes Testing mit PHPUnit und End-to-End-Tests mit Selenium.
  • Erstellung eines Codestyle-Guides und Dokumentation für eine nachhaltige Entwicklung.
  • Enge Zusammenarbeit mit Frontend-Entwicklern zur Anbindung des Vue.js-Frontends.

Methoden/ TechnologienPHP7.2 | PHPUnit | Selenium | Dokumentation | Codestyle-Guide | REST

Produktentwicklung | Java-Entwickler

ZeitraumJan./2018 - Aug./2018
Projektaktivitäten

Ich habe ein Data-Crawler-Plugin für den Aspire-Webserver entwickelt, einem leistungsstarken Framework für die Inhaltsindizierung und -verarbeitung. Meine Arbeit konzentrierte sich auf die Optimierung von REST-Schnittstellen sowie die Entwicklung und Integration neuer Funktionen, um Inhalte effizient zu erfassen, zu verarbeiten und für Suchmaschinen bereitzustellen. Dabei habe ich Technologien wie Java und Groovy genutzt und durch automatisierte Tests mit JUnit die Zuverlässigkeit und Qualität sichergestellt. In einer agilen Umgebung unterstützte ich die Skalierbarkeit und Erweiterbarkeit des Systems unter Berücksichtigung von Funktionen wie der inkrementellen Verarbeitung sowie der Widerstandsfähigkeit gegen Systemausfälle.

Methoden/ TechnologienJava | Groovy | Accenture Aspire | REST | JUnit