LEBENSLAUF
FELIX SCHOLZ
Cloud Administrator / DevOps Engineer
Ich bin als DevOps Engineer mit Schwerpunkt auf Automatisierung, Cloud-Lösungen und Künstlicher Intelligenz bei der TIQ Solutions tätig. Bereits im Studium (B.Sc.) an der Hochschule Mittweida habe ich mich auf Software-Architektur, Java-Programmierung, IT-Administration und Projektmanagement fokussiert.
Durch meine Erfahrung in verschiedenen Projekten habe ich umfassende Kenntnisse in der Web-Entwicklung, IT-Administration sowie im Aufbau moderner Cloud-Infrastrukturen entwickelt. Dabei lag mein Fokus zunehmend auf der Integration von DevOps-Prinzipien und der Nutzung von Künstlicher Intelligenz zur Optimierung von Entwicklungs- und Betriebsprozessen.
Bei TIQ Solutions bin ich maßgeblich an der Planung und Umsetzung innovativer Software- und Cloud-Projekte sowie an der Entwicklung von AI-gestützten Lösungen beteiligt. Zusätzlich verantwortet ich die Konzeption und den Betrieb von sicheren Cloud-Infrastrukturen und setze skalierbare und kosteneffiziente Plattformen für Kundenprojekte um:
- Entwicklung und Betrieb von AI-gestützten Anwendungen, vor allem im Bereich Big Data,
- Sichere und automatisierte Bereitstellung von Cloud-Lösungen,
- Optimierung von Entwicklungsprozessen durch den Einsatz von AI- und DevOps-Toolchains.
Ich zeichne mich durch hohe Eigenverantwortung, Teamfähigkeit und Belastbarkeit aus. Meine Expertise in DevOps und Künstlicher Intelligenz macht mich zu einem wertvollen Ansprechpartner für komplexe, zukunftsorientierte Projekte.

(Stand: Mai/2025)
Ausbildung: Studium Informatik (B.Sc.)
Geburtsjahr: 1989
Projekterfahrung seit: 2017
Fremdsprachen: English
Branchen: E-Commerce, Social Media, PR, öffentliche Banken, Motorenbau
AUSBILDUNG
| Sept./2015 - Aug./2018 | Studium | Medieninformatik B.Sc. | Hochschule Mittweida in Mittweida Medieninformatik und interaktives Entertainment B.Sc. |
| Sept./2011 - Aug./2015 | Studium | Informatik B.Sc. | Hochschule Mittweida in Mittweida Informatik B.Sc. |
| Aug./2010 - Juli/2011 | Fachhochschulreife Fertigungsmechaniker | BSZ für "Technik Gustav Anton Zeuner" in Dresden |
| Feb./2007 - Jan./2010 | Berufsausbildung | Fertigungsmechaniker Fertigungsmechaniker | IHK-HWK-Ausbildungsverbund in Dresden Die Ausbildung zum Facharbeiter als Fertigungsmechaniker |
| Sept./2006 - Dez./2006 | Berufsausbildung | Mechatroniker Mechatroniker | Aufzugsbau Dresden GmbH in Dresden Meine Berufausbildung zum Mechatroniker |
| Sept./2000 - Juni/2006 | Allgemeine Bildung | Realschule Realschulabschluss | Realschule in Freital - Hainsberg in Freital |
| Sept./1996 - Juli/2000 | Allgemeine Bildung | Grundschule in Freital - Hainsberg in Freital |
BERUFLICHE LAUFBAHN
| März/2024 - heute | Cloud-Administrator / DevOps Engineer | TIQ Solutions GmbH in Leipzig Als erfahrener Cloud-Administrator und DevOps Engineer habe ich Azure Ressourcen über das Azure Portal verwaltet und mithilfe von Azure DevOps Pipelines und Infrastructure as Code (IaC) optimiert. Meine Hauptaufgaben umfassten die Provisionierung und Verwaltung der Cloud-Infrastruktur, die Implementierung benutzerdefinierter Pipelines und die Überwachung der Systemleistung. Durch enge Zusammenarbeit mit dem Team und proaktive Problemlösung konnte ich stets für einen effizienten Betrieb sorgen. |
| Sept./2019 - März/2024 | Java-Entwickler/ Azure Cloud-Administrator | TIQ Solutions GmbH in Leipzig Als erfahrener Java-Entwickler und Azure Cloud-Administrator im Big Data Stack ADF und Hadoop war ich verantwortlich für die Entwicklung und Wartung von Java-basierten Anwendungen auf der Azure Cloud-Plattform, die große Datenmengen verarbeiteten und analysierten. Ich habe Hadoop-Cluster eingerichtet, Code geschrieben, um Daten zu extrahieren, transformieren und in das System zu laden, benutzerdefinierte Datenpipelines erstellt und die Leistung des Systems überwacht, Probleme behoben und mit anderen Teammitgliedern zusammengearbeitet. |
| Dez./2018 - Mai/2019 | PHP - Backendentwicklung | Check24 Vergleichportal Reise in Leipzig Als erfahrener PHP-Entwickler im Backend und für REST-APIs habe ich Server-seitige Anwendungen und APIs entwickelt und gewartet. Ich habe PHP verwendet, um Backend-Funktionalitäten zu implementieren und REST-APIs zu entwickeln, die es Front-End-Anwendungen ermöglichten, auf Daten und Funktionalitäten des Backends zuzugreifen. Meine Aufgaben beinhalteten die Optimierung der Performance von Anwendungen und APIs, die Sicherstellung der Integrität und Sicherheit von Daten sowie die Zusammenarbeit mit Front-End-Entwicklern und anderen Teammitgliedern. Ich habe fundierte Kenntnisse in PHP und Erfahrung in der Backend-Entwicklung und in der Erstellung von REST-APIs. |
| Jan./2018 - Aug./2018 | Werkstudent | B-S-S Business Software Solutions GmbH in Dresden Als erfahrener Java-Entwickler für SharePoint-Schnittstellen habe ich Java-basierte Schnittstellen entwickelt, um SharePoint-Systeme mit anderen Anwendungen und Datenquellen zu integrieren. Ich habe eng mit SharePoint-Administratoren und anderen Entwicklern zusammengearbeitet, um Anforderungen zu sammeln und Lösungen zu entwickeln, die die Integrität und Sicherheit der SharePoint-Daten gewährleisteten. |
| Apr./2010 - Aug./2010 | Facharbeiter | persona service AG & Co. KG in Dresden
|
ARBEITSSCHWERPUNKTE
Softwareentwicklung in Java und C# | Datenmanagement | Systemadministration | Azure-Cloud-Administration und –Automatisierung | Cloud-Konzeption | IaaC-Infrastrukturentwicklung | AI Administration
ZERTIFIKATE / WEITERBILDUNGEN
Programming in C# | Englisch C1.1 | PHP-Unit | AZ-900 | Schulung zu KI-Kompetenz
METHODENKENNTNISSE
Anforderungsmanagement | Konzeption / Architektur | Deployment/ DevOps | Softwaretesting / Benchmarking | Projektmanagement | Projektdokumentation | System Architektur Security | Cloud Netzwerk Security | Infrastructure as Code | Scrum | Kanban
IT-KENNTNISSE
Betriebssysteme
- Windows
- Linux/ Unix
- Debian
- CentOS
Cloud
- Azure
- Cloudera
Datenbanken
- PostgreSQL
- Microsoft SQL
- T-SQL
- MySQL
- SQLite
- CosmoDB
- Azure SQL
Programmieren
- C#
- Latex
- Python
- sh/bash-Scripts
- PowerShell-Scripts
- Go
ETL
- Azure Data Factory
- Apache Oozie
API
- ODBC/ JDBC
- SQL-Server
- Text/CSV
- XML
- JSON
- REST
Maschine Learning
- Azure ML
Big Data Stack
- Azure BigData Stack
- Azure Databricks
BI Tools
- Qlik Sense
- Power BI
Netzwerke / Protokolle
- TCP/IP
- http
- FTP
- SSH
- Ethernet
- IPv4/ IPv6
- VPN
- LDAP
- Kerberos
- Azure Virtuales Netzwerk
Entwicklungswerkzeuge
- PyCharm
- IntelliJ IDEA
- MS Visual Studio
- Git
- GitLab CI
- Azure DevOps
- JupyterHub
Package Repositorien
- npm
- apt
- yum
- PyPi
Standard-Software
- Confluence
- Azure DevOps
- Jira
- SharePoint
- MS Visio
- Microsoft Office 356
- Power Query
Provisionierung
- Terraform
- Ansible
AI / LLM
- Azure AI
- OpenAI
- Azure Cognitiv Search
AUSGEWÄHLTE PROJEKTE
Motorenbau | Dokumentation, Entwicklung, Support
| Zeitraum | Jan./2025 - heute |
| Projektaktivitäten | Verantwortlich für die End-to-End-Umsetzung und den Support von Datenmanagement- und Integrationslösungen auf Grundlage moderner Technologien. Schlüsselaufgaben umfassen:
Erfolge:
|
| Methoden/ Technologien | Talend Cloud API Services Platform 7.3.1 | Collibra | Azure Service Bus | Docker | Ansible | Red Hat Enterprise Linux | SQL Server | Jira | IT4U | DevOps |
E-Commerce | Webscraping
| Zeitraum | Dez./2024 |
| Projektaktivitäten | Entwicklung eines effizienten WebScraping-Tools zur Extraktion von Produktdaten von der Website Bogensportwelt. Mit der Go Colly-Bibliothek wurde eine robuste Lösung umgesetzt, die Daten wie Artikelvarianten (Größe, Farbe) gesammelt und im CSV-Format bereitgestellt hat – kompatibel mit dem JTL-Ameise-Importsystem. Herausforderungen
Lösungsansatz
Ergebnisse
Das Projekt führte zu einer schnellen, verlässlichen Lösung, um fehlende Produktvariationen zu ergänzen und JTL effizient mit Daten zu versorgen. |
| Methoden/ Technologien | Go | CI/CD |
Finanzdienstleistungen | Cloudadministration & Cloudkonzeption
| Zeitraum | Feb./2022 - Nov./2024 |
| Projektaktivitäten | Als Cloud-Administrator bei einer großen deutschen Kreditbank lag mein Schwerpunkt auf der Administration und Konzeption von Azure-Cloud-Infrastrukturen. In dieser Zeit konnte ich als Teil eines agilen Teams entscheidend dazu beitragen, innovative Konzepte umzusetzen und zentrale Projekte erfolgreich abzuschließen. Hauptverantwortlichkeiten und Erfolge1. Migration geschäftskritischer Anwendungen
2. Entwicklung eines AI-gestützten Chatsystems
3. Sicherheitsrichtlinien & Incident-Management
4. Agile Koordination und Wissenstransfer
Ergebnisorientierung und WeiterentwicklungDurch moderne, skalierbare Cloud-Lösungen und die Integration von AI-Technologien habe ich Prozesse vereinfacht und zukunftssicher gestaltet. Meine Kenntnisse in Azure-AI-Lösungen, Cloud-Betrieb und DevOps habe ich dabei kontinuierlich vertieft. |
| Methoden/ Technologien | Azure Ressourcen Manager (Azure RM) | Azure Policies | Terraform | IaaC | Azure DevOps | CI/CD | Kubernetes | Incident-Management | SAP | Scrum | DevOps | Azure AI |
Logistik | Systemarchitektur
| Zeitraum | Sept./2021 - Nov./2021 |
| Projektaktivitäten | Um die logistischen Abläufe an einem großen deutschen Flughafen zu optimieren, werden umfangreiche Flughafenauswertungen durchgeführt. Hierbei werden viele Analyse-Daten gesammelt. Um die großen Datenmengen schneller und sicherer zu verarbeiten, soll die aktuelle Big Data-Architektur in Hadoop durch eine Big Data-Architektur in Azure ersetzt werden. Die Tätigkeitsinhalte umfassen:
|
| Methoden/ Technologien | Hadoop | Azure SQL | Azure Data Factory | Azure ML | Azure Dashboard | Azure Virtual Network | Azure Key Vault | Azure Identity | Python | Spark |
Wirtschafsprüfer | Health Check
| Zeitraum | März/2021 |
| Projektaktivitäten | Analyse eines langsamen Qlik Sense Servers und Vorschläge für die Optimierung dieses Servers. Untersucht wurden interne Qlik Sense Monitoring Apps. Diese wurden entsprechend reparieret bzw. neu erzeugt. Des Weiteren wurden die Server Logs auf auffällige Fehler untersucht und entsprechende Maßnahmen eingeleitet. Die von TIQ erstellte Qlik Sense-PrintAPI wurde auf Schwachstellen und Performanceoptimierung untersucht und optimiert. |
| Methoden/ Technologien | Qlik Sense | Windows Server 2012 | Heath Check |
Social Media Analyse | Datawarehouse
| Zeitraum | Jan./2021 - Dez./2023 |
| Projektaktivitäten | Beim Kunden werden mittels Social Listening und Künstlicher Intelligenz diverse Stimmungsbarometer in verschiedenen Ausprägungen sowie sogenannte Siegelstudien für Unternehmen und Marken erstellt. Die dafür notwendigen Schritte müssen automatisiert werden, um der wachsenden Nachfrage und Datenmenge gerecht zu werden. Dafür werden eine komplette neue IT-Infrastruktur in einer Datawarehouse Infrastruktur aufgebaut, die Schritte für die automatisierte Datenanalyse integriert und ein Reporting aufgesetzt. Aufbau und Administration eines Azure Datawarehouses mit ETL-Stecke und Maschine Learning Umgebung, um Auswertungen aus den gesammelten Daten zu treffen und Prognosen für die Zukunft zu treffen. Zudem ist eine parametrisiert Abfragemethode die Daten direkt in eine Excel Tabelle bzw. ein Power BI Dashboard mittels Power Query gewünscht. |
| Methoden/ Technologien | Terraform | Azure SQL | Microsoft SQL | Azure Data Factory | Azure ML | Azure Dashboard | Azure Virtual Network | Azure Key Vault | Azure Identity | Power Query | Power BI |
Social Media Analyse | Administration Big Data
| Zeitraum | Jan./2020 - März/2021 |
| Projektaktivitäten | Beim Kunden werden mittels Social Listening und Künstlicher Intelligenz diverse Stimmungsbarometer in verschiedenen Ausprägungen sowie sogenannte Siegelstudien für Unternehmen und Marken erstellt. Die dafür notwendigen Schritte müssen automatisiert werden, um der wachsenden Nachfrage und Datenmenge gerecht zu werden. Dafür werden eine komplette neue IT-Infrastruktur auf Big Data Architektur aufgebaut, die Schritte für die automatisierte Datenanalyse integriert und ein Reporting aufgesetzt. Aufbau und Administration einer Cloudera Plattform in der Azure Deutschland Cloud: Aufbau der Azure Umgebung mit allen VM bzw. Server, Netzwerken und Zugangspunkten die Cloudera benötigt. Zudem noch den Aufbau des Cloudera Manager und Cloudera Agenten mit den Services die im Cloudera Cluster benötigt werden. |
| Methoden/ Technologien | Ansibe | Azure CLI | Python | Cloudera | DevOps | Linux Hosts in der Azure Cloud | LDAP | Kerberos | Apache Hadoop | Apache Hive | Apache Oozie | Apache Spark | Terraform | T-SQL |
Produktentwicklung | Erweiterung
| Zeitraum | Nov./2019 - Dez./2020 |
| Projektaktivitäten | Automatisierter Aufbau eines Cloudera Clusters in der Azure Cloud Entwicklung einer Automatisierung für den Cloudera Manager mit Ansible Moduls, mit welcher man das Cloudera Cluster über Ansible managen kann und folgende Tasks automatisiert abgebildet werden:
|
| Methoden/ Technologien | Ansibe | Azure CLI | Python | Cloudera Manager API | Linux Hosts in der Azure Cloud | LDAP | OpneVPN | Kerberos |
Produktentwicklung | Administration
| Zeitraum | Okt./2019 - Dez./2020 |
| Projektaktivitäten | Entwicklung und Bereitstellung eines Cloud-basierten Big Data Stack für die Nutzung als Reporting und Advanced Analytics Plattform. Ziel ist die unkomplizierte Bereitstellung einer vollständig vorkonfigurierten Plattform für individuelle Prozesse und Analysen. Unterstützung:Installation und Konfiguration eines Cloudera Clusters in der Azure Cloud für den produktiven Einsatz mit Hilfe von Ansible. |
| Methoden/ Technologien | Ansibe | Azure CLI | Python | Cloudera | Linux Hosts in der Azure Cloud | LDAP | OpneVPN |
Produktentwicklung | Java-Entwickler
| Zeitraum | Okt./2019 - Jan./2020 |
| Projektaktivitäten | Konzeption und Erstellung eines Webservice zur Anbindung der Graphdatenbank Neo4J an Qlik Sense und QlikView. Ziel ist es, die Graphendatenbank Neo4J in den Qlik Produkten zur Verfügung zu stellen und mit den so gewonnenen Daten arbeiten zu können. Unterstützung:Evaluierung des Funktionsumfangs eines Java-Webservers und eines mit AngularJS programmierten Frontend. Erweiterung der Java-Webservers um Endpoints und JUnit-Test. |
| Methoden/ Technologien | Java | JavaScript | AngularJS | Jetty Webserver Framework | JUnit |
Wirtschafsprüfer | C# - Entwickler
| Zeitraum | Sept./2019 - März/2020 |
| Projektaktivitäten | Unterstützung bei der Entwicklung einer „PrintAPI“ zur Konfiguration und Automation eines Druckprozesses im Qlik Sense für die Erstellung von Wirtschaftsberichten im PDF-Format. Supportleistungen zur Optimierung und Weiterentwicklung des definierten Druckprozesses. |
| Methoden/ Technologien | Qlik Sense | C# | .NET | IIS | ASP.NET-Webanwendung | Windows Server | Visual Studio 2017 |
E-Commerce | PHP-Backend-Entwickler
| Zeitraum | Dez./2018 - Mai/2019 |
| Projektaktivitäten | Entwicklung eines leistungsfähigen PHP-Backends zur Aufbereitung und Weiterverarbeitung von Daten. Leistungen:
|
| Methoden/ Technologien | PHP7.2 | PHPUnit | Selenium | Dokumentation | Codestyle-Guide | REST |
Produktentwicklung | Java-Entwickler
| Zeitraum | Jan./2018 - Aug./2018 |
| Projektaktivitäten | Ich habe ein Data-Crawler-Plugin für den Aspire-Webserver entwickelt, einem leistungsstarken Framework für die Inhaltsindizierung und -verarbeitung. Meine Arbeit konzentrierte sich auf die Optimierung von REST-Schnittstellen sowie die Entwicklung und Integration neuer Funktionen, um Inhalte effizient zu erfassen, zu verarbeiten und für Suchmaschinen bereitzustellen. Dabei habe ich Technologien wie Java und Groovy genutzt und durch automatisierte Tests mit JUnit die Zuverlässigkeit und Qualität sichergestellt. In einer agilen Umgebung unterstützte ich die Skalierbarkeit und Erweiterbarkeit des Systems unter Berücksichtigung von Funktionen wie der inkrementellen Verarbeitung sowie der Widerstandsfähigkeit gegen Systemausfälle. |
| Methoden/ Technologien | Java | Groovy | Accenture Aspire | REST | JUnit |
