Wann?

07. - 10. Oktober 2024

Wo?

München

Stadthalle Erding

Die SQLdays Konferenz 2024

Auch in diesem Jahr wieder live in Erding!

Seit vielen Jahren begeistern die SQLdays mittlerweile mehrere tausende Anwender und Entwickler aus der DACH-Region. Vom 7. bis zum 10. Oktober bringen wir die besten und klügsten Köpfe der SQL-Gemeinschaft zusammen, um die neuesten Trends und Technologien in der Datenbankwelt zu erkunden.
Unser viertägiges Programm bietet Workshops, Vorträge und Networking-Möglichkeiten, die Ihnen helfen werden, Ihre Fähigkeiten und Ihr Wissen zu erweitern. Erhalten Sie wertvolle Einblicke in die neuesten Entwicklungen in SQL-Technologien und -Tools, und lernen Sie, wie Sie Ihre Datenbanken optimal nutzen können, um Geschäftsentscheidungen zu treffen.
Egal, ob Sie ein erfahrener SQL-Experte sind oder gerade erst anfangen, die Grundlagen zu lernen - diese Konferenz bietet Ihnen die Möglichkeit, mit anderen SQL-Enthusiasten zu interagieren, Fragen zu stellen und neue Ideen zu entwickeln.
Melden Sie sich jetzt an, um Teil der diesjährigen SQLdays zu werden und sich auf den neuesten Stand in Sachen SQL zu bringen!

Material nach dem Event

Einige Wochen nach der Konferenz werden Ihnen alle Session-Aufnahmen zur Verfügung gestellt. Mit dieser Möglichkeit können Sie auch verpasste Sessions nachholen und das gesamte 100%ige Angebot an Inhalten nutzen.

Einfach nur genießen!

Während der Konferenz sollen sich die Teilnehmer nur auf den Inhalt und den Austausch zwichen den Gleichgesinnten konzentrieren. Wir sorgen daher für ausreichend Verpflegung während der Konferenz und beim tollen Abendprogramm. Hier sind einige Impressionen.

Übung macht den Meister!

Die Workshops und Vorträge richten sich an SQL Anwender und Entwickler aller Fähigkeitsstufen. Egal ob Sie Einsteiger, Fortgeschrittener oder schon Profi sind - hier lernt jeder noch was dazu!

SQL Team - Networking

An keinem anderen Ort finden Sie so schnell Gleichgesinnte! Tauschen Sie sich vor Ort in den Pausen oder auf dem ausgelassenen Abendevent mit den anderen Teilnehmern, Sprechern und Partnern aus.

Die Agenda

Änderungen sind jederzeit möglich.

08:30 - 09:00

Check-In / Begrüßungskaffee

09:00 - 17:00

Power BI und Azure Modern Datawarehouse: Praktische Einblicke und Möglichkeiten im Überblick

Klaus Blessing

Dieser Workshop umfasst die Themen Power BI Desktop, Power BI-Berichtsserver OnPrem, Power BI Embedded, Power BI Service in Office 365 und die Integration von Power Apps in Power BI und SQL Server Analysis Services (SSAS).
Klaus Blessing bietet zudem eine Einführung in Azure-Analysetools wie Azure SQL Data Warehouse (Azure Synapse Analytics), Azure Databricks, Data Factory, Stream Analytics, Data Lake Analytics und Azure Analysis Services. Außerdem werden KI- und Machine Learning-Technologien, einschließlich Cognitive Services, Machine Learning, R und Python, behandelt.

09:00 - 17:00

SQL Server Performance Troubleshooting

Klaus Aschenbrenner

Im Rahmen dieses Ganztages-Workshops wird mit einer Standard-Installation des SQL Servers gearbeitet, und eine Workload mit einigen hundert Benutzern ausgeführt. Wie Sie sehr schnell erkennen werden, wird der SQL Server in enorme Performance-Probleme gestürzt, und die Abfragezeiten aus Endbenutzer-Perspektive werden katastrophal sein.
Was nun? Es wird mit den Bordmitteln des SQL Servers analysiert, in welchen Bereichen der Schuh drückt, und im Laufe des Tages eine optimale SQL Server Konfiguration erstellt, mit der schlussendlich die Endbenutzer ebenfalls zufrieden sein werden.
Aus dem Inhalt:
• Performance Monitoring
• Hardware Konfiguration
• Betriebssystem Konfiguration
• Memory Management
• Parallelism
• Locking & Blocking
• Datenbank-Wartung

08:30 - 09:00

Check-In

09:00 - 10:00

Umgang mit sehr großen Tabellen in SQL Server (großer Saal)

Milos Radivojevic

Ungenauigkeiten, Abweichungen und kleine Fehler in Abfragen mit kleinen und mittleren Tabellen können ernsthafte Herausforderungen und Probleme darstellen, wenn es um große Tabellen geht.
Welche Herausforderungen treten auf, wenn Sie mit Tabellen arbeiten, die über ein Terabyte groß sind? Wie indexieren Sie diese? Wie sehen ihre Statistiken aus? Wie aktualisieren Sie diese und wie bekämpfen Sie die Fragmentierung von Indizes? Wie beeinflusst all dies die Schätzung der Datenmenge und wie optimiert man Abfragen, die sehr große Tabellen betreffen?
Wenn Sie an Antworten auf all diese Fragen interessiert sind, und zwar von jemandem, der Erfahrung im Umgang mit vielen großen Tabellen in einer Produktionsumgebung hat, dann ist diese Session für Sie!

 

SQL Server 2019 & 2022 Neuerungen (kleiner Saal rechts)

Klaus Aschenbrenner

Man glaubt es nicht, aber der SQL Server 2019 & 2022 hat eine Vielzahl unterschiedlicher Neuerungen und Besserungen im Bereich der Performance Optimierung. Daher werden wir in dieser Session einen Streifzug durch die wichtigsten Optimierungen machen, und Sie werden sehen wie schnell der SQL Server 2019 & 2022 sein kann – im Vergleich zu älteren Versionen.
Aus dem Inhalt:
• Scalar Valued Functions
• Adaptive Memory Grants
• Parameter Sensitive Plan Optimizations
• Degree of Parallelism Feedback
• ColumnStore Index Optimizations

 

Migrating on-prem SQL Databases to Azure (kleiner Saal links)

Haiko Hertes

In dieser Session gibt Heiko Hertes einen Überblick über die Möglichkeiten, wie man eine Datenbank von on-premises nach Azure migrieren kann und zeigt dabei auch ein paar Demos.

10:00 - 10:25

Kaffeepause

10:25 - 11:25

SQL Server Troubleshooting mit Extended Events (großer Saal)

Klaus Aschenbrenner

Jeder von Ihnen weiß, dass es eine Todsünde ist, macht es aber trotzdem still und heimlich in seinem Kämmerchen. Ja, Klaus Aschenbrenner spricht hier vom ... SQL Server Profiler!
Der SQL Server Profiler ist aber bereits seit einigen SQL Server Versionen ein Deprecated Feature, und sollte daher im tagtäglichen Einsatz nicht mehr verwendet werden.
Im Rahmen dieser Session werden Sie die Nachfolge-Technologie namens Extended Events kennenlernen, und Sie werden im Rahmen verschiedener Beispiele sehen wie einfach und unkompliziert das SQL Server Troubleshooting mit Extended Events sein kann.

 

Backup und Restore: Basics, New Features und Wiederherstellungstests (kleiner Saal rechts)

Martin Guth

Jeder DBA muss das Thema Backup und Restore beherrschen...also Grund genug, das Wissen darum einmal aufzufrischen. Neben den Basics zum Thema werden sich auch neue Features in SQL Server 2022 aus diesem Bereich angeschaut. Ein wichtiges Werkzeug zur Absicherung von Restores sind Wiederherstellungstests: Hierzu werden Tools vorgestellt, um diese zu automatisieren.

 

Skalierbares Datawarehouse in der Cloud - Einführung Databricks SQL + Unity Catalog (kleiner Saal links)

Christopher Pfister

Mit der Vorstellung von Unity Catalog hat Databricks den letzten Baustein gesetzt, um auf ihrer Plattform einem Datawarehouse inklusive Governance mit Enterpriseansprüchen gerecht zu werden. In dieser Session sollen die Vorteile und Unterschiede von Databricks zu klassischen RDMSs als Data Warehousing Plattform gezeigt werden, anhand der iqdigital, welche über 250 Nutzer:innen mit verschiedenen Berechtigungen sekundenschnelle Abfragen über Terabyte-große Daten ermöglicht.

11:25 - 11:35

Raumwechsel

11:35 - 11:50

Produktvortrag Redgate: CI/CD-Pipelines mit Flyway (großer Saal)

Marko Coha

Dieser Überblick zeigt, wie die Integration automatischer Datenbankmigrations-Tools in CI-Pipelines die Versionskontrolle und Konsistenz verbessert und dadurch den Entwicklungszyklus rationalisiert.

 

Produktvortrag ppedv (kleiner Saal rechts)

Andreas Rauch

Schulungen von #überALL
In dieser Session lernen Sie die Firma hinter den SQLdays kennen und was eigentlich ihr Hauptgeschäft ist: Schulungen!

11:50 - 12:00

Raumwechsel

12:00 - 13:00

Kaufen oder Eigenentwicklung: Monitoring im Vergleich (großer Saal)

Marko Coha

In dieser Präsentation werden die Vorteile und Herausforderungen der Eigenentwicklung und Instandhaltung von Monitoring mit denen des Kaufs verglichen. Die Entwicklung bietet Anpassungsmöglichkeiten, erfordert jedoch viel Zeit und Fachwissen. Der Kauf gewährleistet eine schnellere Einrichtung sowie Unterstützung und Aktualisierung, jedoch zu höheren Anfangskosten. Der Vortrag hilft Unternehmen bei der Entscheidung, welche Option am besten zu ihren Bedürfnissen und Ressourcen passt.

 

Was gibt es neues bei AlwaysOn (kleiner Saal rechts)

Michael Rother

Diese Session beleuchtet die neuesten Verbesserungen bei AlwaysOn in SQL Server, einschließlich erweiterter Verwaltungsfunktionen für Verfügbarkeitsgruppen.

 

Stein auf Stein – Azure SQL Database Features mit Hilfe der Rebrickable LEGO Datenbank gezeigt (kleiner Saal links)

Steffen Krause

PaaS Services werden oft als „wie LEGO-Steine" beschrieben. Mit Hilfe der Rebrickable LEGO-Stein-Daten zeigt Steffen Krause in dieser demoreichen Session eine Vielzahl von Features in Azure SQL Database – Vom Import der Daten mit Hilfe von Managed Identities über KI Features mit GitHub Copilot und SQL Copilot bis zur Selbstoptimierung mit Autotuning und Kosteneinsparung durch Serverless

13:00 - 14:00

Mittagspause

14:00 - 15:00

T-SQL mit Sherlock Holmes (großer Saal)

Torsten Ahlemeyer

Der Beruf des SQL-Spezialisten unter den BI-Consultants erinnert manchmal mehr an die Tätigkeit eines Forensikers… Da werden fremde Systeme analysiert, Fehler eingekreist und Testroutinen geschrieben. Und schnell ist Sherlock Holmes im Spiel, denn die Erstaussage ist stets: „ich habe nichts gemacht – aber plötzlich war der Prozess tot". Wir analysieren gemeinsam die Hintergründe und lernen manche Untiefen der Unternehmens-IT kennen, die aus Unwissenheit oder Bequemlichkeit vermeintliche Abkürzungen nimmt, die so in keinem Schulbuch stehen. Auch das Thema Security wird in vielen Häusern sehr kreativ behandelt und führt zu gefährlichen Situationen. Wenn dann noch Kollegen Datenbankobjekte verstecken oder Quellcode bewusst manipulieren, ums ich selbst unersetzbar zu machen, ist die Bühne für den großen Detektiv bereitet. Gelingt es gemeinsam die Schurken zu überführen? Dabei quälen wir uns nicht stundenlang durch irgendwelche Logs, sondern denken wie ein Berufsverbrecher und kommen so den „Verbrechern" auf die Schliche. Denn „Wenn du das Unmögliche ausgeschlossen hast, dann ist das, was übrigbleibt, die Wahrheit, wie unwahrscheinlich sie auch ist. ..." – was natürlich per Code zu beweisen ist.

 

DevOps for the humble data engineer (kleiner Saal rechts)

Marisol & Sebastian Steinau

Ein Data Engineer speichert ihre Daten in Warehouses, Lakehouses oder auch einfach in einer Datenbank. Man müsste es nicht erwähnt haben, so selbstverständlich ist das. Ein Data Engineer arbeitet aber mit anderen Sachen, die nicht in diese Art von Speicher gehören. Wohin tut man also die Notebooks, SQL Skripte oder das kleine Python Programm?
Wider besseren wissens lässt man es einfach auf seiner lokalen Festplatte. Wagemutige laden es in Microsoft Sharepoint hoch. Oder was für die Daten gut genug ist, ist auch dafür gut genug und ab gehts damit in die Datenbank, schließlich spart das Speicherkosten.
Glücklicherweise gibt es eine bessere Möglichkeit: Git.
Skripte und Notebooks werden in einem Git-Repository abgelegt. Git ist ein verteiltes Versionskontrollsystem, das ursprünglich für den Linux-Kernel entwickelt wurde. Es ermöglicht eine einfache Versionierung von Dateien und die Zusammenarbeit an derselben Notebooks.
Git ist ein Werkzeug mit erstaunlich vielen Funktionen, aber erfordert auch Einarbeitung um damit umgehen zu können. Gehen Sie ihre vielleicht ersten Schritte in Git als Data Engineer und erfahren Sie, was Git für Sie bei der Entwicklung ihrer Lösung tun kann.
Jetzt da ihre SQL Skripte und Databricks/Fabric/Synapse-Notebooks vollständig mit Git versioniert sind, wie bekommt man die aus dem Git-Repository in die SQL-Datenbank oder den Fabric-Arbeitsbereich? Man könnte es natürlich manuell kopieren, aber wäre es nicht schöner wenn die Änderung dann einfach automagisch im Arbeitsbereich auftauchen? Die DevOps-Welt hat hier die Lösung: Pipelines. Erfahren Sie, wie eine Pipeline ein Notebook in Entwicklungs-, Staging- und Prod-Umgebungen bereitstellen kann, wobei der Connection String und andere Parameter automatisch an die jeweilige Umgebung angepasst werden. Pipelines sind auch ein vollständig integrierter Teil von Microsoft Fabric, welches wir für eine praktische Demonstration verwenden werden.

 

VNETing in Azure - Möglichkeiten und Best Practices (kleiner Saal links)

Christopher Pfister

In der Cloud ist es verlockend, virtuellen Maschinen einfach öffentliche IPs zuzuweisen und auch PaaS-Services bequem über das Internet anzusprechen. In dieser Session soll gezeigt werden, wie man mit VNETs in Azure ein sauberes internes Netzwerk aufsetzen und so die Sicherheit der eigenen Ressourcen und deren Kommunikation deutlich verbessern kann. (u.a. Private Link, Service Link, NAT Gateway)

15:00 - 15:10

Raumwechsel

15:10 - 16:10

Power BI und große Tabellen (großer Saal)

Markus Ehrenmüller-Jensen

Die mit Abstand beste Performance bekommen Sie, wenn Sie alle Daten nach Power BI laden. Manchmal gibt es aber Situationen, wo das nicht möglich ist: die Datenmenge sprengt die verfügbaren Resourcen oder das Aktualisieren würde zu lange dauern.
Für diese Fälle ist der DirectQuery Modus geschaffen. Dieser hat aber Nachteile wenn es um die Berichtsperformance geht.
Zum Glück ist die Entscheidung Import vs. DirectQuery kein „entweder – oder", sondern die beiden Techniken können optimal kombiniert werden, um einen vertretbaren Kompromiss zwischen Berichtsperformance und Aktualität der Daten zu erhalten.
In dieser Session werden Sie über den Dual mode, hybride Tabellen, Incremental Refresh, voraggregierte Tabellen und den DirectLake Modus lernen.

 

Frag einfach Deine Daten, mit Fabric AI Skills (kleiner Saal rechts)

Markus Raatz

Künstliche Intelligenz ist überall, aber wirklich noch nicht gleich verteilt. Und gerade, wenn es um Daten in unserer Datenbank geht, ist es bisher noch sehr schwer, wirklich etwas aus den Informationen darin herauszubekommen, um damit in Echtzeit Analysen zu machen. Und das macht Microsoft Fabric jetzt für alle viel, viel einfacher! Die neuen AI Skills, auf Deutsch „KI Fähigkeiten", ermöglichen es jedem in normalem Englisch Fragen an die Daten zu richten, und das System versteht die Datenstruktur, generiert clevere SQL-Abfragen darauf und zeigt uns die Daten an, die diese Fragen beantworten. In dieser Session zeige ich das live, und erkläre auch, wie man dem System auf die Sprünge helfen kann, wenn es die Daten mal nicht sofort versteht! Und auch für den, der noch kein Fabric benutzen möchte, gibt es eine Lösung.

 

Databases on Azure – what's new? (kleiner Saal links)

Haiko Hertes

Alle Jahre wieder... Ein Jahr in Azure sind eine kleine Ewigkeit, in der sich wieder viel rund um das Thema Datenbanken getan hat.
In dieser Session gibt Heiko Hertes einen Überblick über die Entwicklungen und Neuerungen der letzten 12 Monate, verbunden mit einigen kleinen Demos.

16:10 - 16:35

Kaffeepause

16:35 - 17:35

Erkenntnisse aus den aktuellen Data Breaches: Datensicherheitsstrategie für SQL Server und Azure SQL (großer Saal)

Andreas Wolter & Ralf Dietrich

SQL Server und Azure SQL bieten viele verschiedene Funktionalitäten und Dienste, die Ihnen helfen, Ihr wertvollstes Kapital zu schützen: Ihre Daten. Aber Funktionen allein bieten keinen Schutz, wenn sie nicht sorgfältig durchdacht sind oder isoliert bestehen. Ohne eine durchdachte Sicherheitsstrategie ist es allzu leicht, Lücken zwischen den Sicherheitskontrollen zu übersehen und sich im Falle eines Angriffs exponiert wiederzufinden.
Im heutigen Umfeld von „Hacking as a Service", staatlich finanzierten und orchestrierten Hacking-Gruppen, kann die richtige Vorbereitung auf alle Szenarien für das Überleben eines Unternehmens von entscheidender Bedeutung sein.
In dieser Session werden Andreas Wolter, ehemaliger Program Manager für Sicherheit im Data Team von Microsoft und mit über zwei Jahrzehnten Erfahrung in der Arbeit mit Kunden, und Ralf Dietrich die aktuelle Bedrohungslandschaft darstellen. Dazu gehört, was Ransomware Attacken und Data Exfiltration gemeinsam haben, und wie man sich vor diesen und anderen Attacken schützen oder deren Auswirkungen beschränken kann.

 

Data Factory in Fabric - the good, the bad and the ugly (kleiner Saal rechts)

Stefan Kirner

In der Session werden technische und konzeptionelle Unterschiede zwischen Azure Data Factory und der Version in Fabric betrachtet.
Die Data Factory Version in Microsoft Fabric ist die nächste Generation der allseits bekannten Data Factory auf Azure. Dasselbe in grün? Wenn man genauer hinsieht, fallen einige Unterschiede ins Auge sowohl was Features angeht, die on-premises Connectivity aber auch das Applikation Lifecycle Management betreffend.
Auch bei der Nutzung weiterer Azure Services über den Fabric Scope hinaus ergeben sich teilweise neue Fragen und Lösungsansätze. Diese und weitere interessante Aspekte werden in dem Vortrag vorgestellt.

 

Von SQL zu KQL via Azure Data Explorer (kleiner Saal links)

Thomas Hütter

Wir alle kennen (und lieben) unser SQL, die Structured Query Language. Manche von uns schreiben SQL queries schon seit Jahrzehnten. Aber es gibt ein relativ neues kid on the block: KQL, die Kusto Query Language. Ein mächtiges Tool, um Daten zu untersuchen, Muster und Anomalien zu entdecken, ja sogar Streaming-Daten und Zeitreihen zu analysieren. Es ist auch die Sprache, in der die Azure-Log Datenbanken und Deine IoT-Sensor-Daten abgefragt werden können.
In dieser Session lernen Sie die wichtigsten Elemente der KQL kennen: Tabellen, Abfragen und die Pipe, Visuals und Dashboards. Es wird gesehen, was die Gemeinsamkeiten mit SQL sind und was die Unterschiede. Es werden Wege kennengelernt, um von SQL zu KQL zu gelangen.
Ein mögliches Tool der Wahl, um mit KQL zu beginnen ist ADX, der Azure Data Explorer (andere sind die KQL extension für Azure Data Studio oder der Kusto.Explorer). Für die praktischen Teile dieser Session wird ADX mit der free cluster Option als unsere Umgebung genutzt, um Daten zu importieren, analysieren und zu visualisieren.

17:35 - 17:45

Raumwechsel

17:45 - 18:45

10 Tipps für TSQL Worker (großer Saal)

Andreas Rauch

Während der Ausbildung oder des Studiums musste sich vermutlich viele die SQL Sprache aneignen und hörten ebenso Vorträge über DB Design, Normalisierung usw.. aber auf die Praxis wurden wir dann doch weniger gut vorbereit. Dabei gilt die SQL Sprache als nicht besonders schwierig zu erlernen und die Methodik Datenbanken zu designen ist vermutlich schon den Genen verankert.
Dennoch stolpern wir immer wieder über Eigenheiten des SQL Servers und auch einer gewissen Unkenntnis - ohne es zu bemerken.
Interessiert an Themen wie böse Sicht, doofe Prozeduren und der neugierigen Susi? Dann schauen Sie doch mal rein...

 

Don't Panic I'm Power BI Admin (kleiner Saal rechts)

Kathrin Borchert & David Winter

Die Session wird sich auf das Thema Administration in Power BI konzentrieren. Klingt langweilig?
Ist es aber nicht! Denn wenn Sie sich für ein Tool entscheiden, egal welches, ist es wichtig, es richtig einzurichten und zu pflegen.
Neben der Governance-Strategie benötigen Sie ein umfassendes Wissen über die unzähligen Möglichkeiten, die das Power BI-Admin-Portal bietet. Von einem einfachen Excel-Export bis hin zu einem API-Aufruf, der die gesamte Power BI-Umgebung scannen kann, gibt es über 80 Grundeinstellungen in der Power BI-Umgebung.
In dieser Session werden Kathrin Borchert & David Winter einige der wichtigsten Einstellungen betrachten und die Vor- und Nachteile mit Ihnen diskutieren.

 

Hybrid- and Multi- Cloud Server Management mit Azure Arc Catalog (kleiner Saal links)

Gregor Reimling

Die Nutzung der Cloud hat in den letzten Monaten und Jahren zugenommen. Viele Unternehmen evaluieren und nutzen derzeit Cloud-Anbieter, um ihr eigenes Rechenzentrum zu erweitern oder um bestehende Dienste zu neuen Anbietern zu migrieren. Server und virtuelle Maschinen sind ein wichtiger Bestandteil jeder IT-Umgebung. Microsoft hat Azure Arc als Multicloud-Dienst veröffentlicht, der die Azure-Verwaltungsmöglichkeiten auf Servern an jedem beliebigen Ort erweitert.
In dieser Sitzung wird Gregor Reimling viele Aspekte von Azure Arc aufzeigen. Wie man Azure Arc registriert und wie man bestehende Azure-Dienste wie Site Recovery, Backup oder Microsoft Defender for Cloud auf Servern außerhalb von Azure verwalten und aktivieren kann.
Außerdem werden die Möglichkeiten von Azure Arc Datenservices genauer vorgestellt und in welche Möglichkeiten diese bieten.

ab 18:45

Abendprogramm

08:30 - 09:00

Check In

09:00 - 10:00

Eine weitere Session über Parameter Sniffing (großer Saal)

Milos Radivojevic

Wenn Sie SQL Server als relationale Datenbank verwenden, sind Sie bereits mit dem Phänomen des Parameter Sniffing vertraut. Es gibt viele Sitzungen zu diesem Thema, aber es gibt immer noch Neues zu sagen.
In dieser Session wird Milos einen Rückblick auf potenzielle Lösungen für dieses Problem geben und die Vor- und Nachteile jeder dieser Lösungen erläutern. Ein weiterer Grund, an dieser Session teilzunehmen, ist herauszufinden, ob das in SQL Server 2022 hinzugefügte Feature - Parameter Sensitive Plan Optimization Probleme mit dem Parameter Sniffing erheblich verringern oder sogar vollständig lösen kann.

 

My Perfect Date (Table) (kleiner Saal rechts)

Markus Ehrenmüller-Jensen

Kaum ein Datenmodell kommt ohne datums- undzeitbezogene Informationen aus (auch wenn es nicht um ein romantisches Dategeht). Daher ergibt es Sinn die Datumsdimension richtig zu erstellen.
Leider ist die Standardeinstellung von Power BI Desktop nicht sehr hilfreich, weil sie jede Menge Nachteile hat. Selbst Microsoft empfiehlt diese nicht (!) zuverwenden – außer in ganz simplen Semantikmodellen.
Erfahrung nach sind die meisten Datenmodelle weniger simpel, als sie auf den ersten Blick erscheinen. Glücklicherweise haben wir viele Optionen, eine Datumstabelle selber und richtig zu erstellen.
Sie werden diese Session mitnützlichen Skripten in DAX, Power Query und SQL verlassen, mit denen Sie die Datumstabelle up-to-date :-) halten können.
Sie werden auch lernen, in welchen Fällen Sie die Datumstabelle als solche markieren müssen und wie Sie mehr als eine Datumsspalte filtern müssen.

 

IoT, Azure cloud, big data - fangen wir klein an! (kleiner Saal links)

Thomas Hütter

Auf der Suche nach einem Ausgleich für meinen Day-to-day Job, fand Thomas Hütter das Ökosystem der Arduino Micro-Computer, wo sowohl Software als auch Hardware Open Source sind. Also dachte er sich, warum nicht seine Elektronik-Kenntnisse reaktivieren, und gleichzeitig endlich mal mit IoT und Cloud-Zeugs starten.
In dieser Session demonstriert Thomas Hütter Ihnen sein erstes IoT-Projekt, das diese Bezeichnung verdient.
Thomas Hütter stellt Ihnen die Arduino-Welt vor (Hardware und IDE), und zeigt Ihnen, wie man einen Arduino-Kleinst-Computer nebst einigen Sensoren (Temperatur, Luftqualität...) mit einem Netzwerk verbindet, um Daten in die (Arduino- oder Azure-) Cloud zu übertragen, wo diese gespeichert, analysiert und sogar in Ihrem eigenen Umweltdaten-Dashboard visualisiert werden können. All dies wird realisiert mit wirklich günstiger Hardware und freien Cloud-Angeboten.

10:00 - 10:25

Kaffeepause

10:25 - 11:25

SQL Server Konsolidierung zur Kostenoptimierung und besseren Verwaltbarkeit (großer Saal)

Andreas Wolter

Während sich AI noch im Anfangsstadium befindet und sich die Investitionen noch nicht amortisiert haben, ist ein weiterer IT-Trend des Jahres 2024 die Kostenoptimierung. Ob Fusionen, unkontrolliertes Systemwachstum oder Migration in die Cloud ohne Anpassung der Architektur: Die Optimierung der Systemressourcennutzung hat sich im letzten Jahr zu einer der gefragtesten Projekttypen entwickelt. Auch im kommenden Jahr wird es weiterhin höchste Priorität haben.
In dieser Session wird Andreas Wolter, ehemaliger Programmmanager bei Microsoft Azure Data, die Teilnehmer durch die Beurteilung einer bestehenden SQL-Server-Landschaft und die Planung der Konsolidierung zahlreicher SQL-Server-Datenbanken führen, um Lizenz- und Hardwareanforderungen zu reduzieren.
Dazu gehört, Fallstricke zu vermeiden sowie Chancen bei der Migration von Datenbanken auf neue Versionen zu nutzen. Die Berücksichtigung von Verfügbarkeit, Leistung und Sicherheit ist entscheidend für den Erfolg in der Cloud und on-Premises.
Diese Session ist auf SQL Server on-premises und IaaS Implementierungen fokussiert, obwohl viele Schritte auch für PaaS gelten.
Und wie üblich: viele (Code-)Demos

 

Erfolgreiche und konsistente Datenvisualisierung auf Basis einer Best Practice Guideline (kleiner Saal rechts)

Martin Guth

Wir sind umgeben von einer Vielzahl an Informationen. Datenvisualisierung ist ein zentraler Schlüssel zum besseren Verständnis von Zusammenhängen. Wie gelingt es uns jedoch, diese Visualisierung erfolgreich durchzuführen? Muss wirklich jedes neue Dashboard anders sein? In Anlehnung an eine Best Practice Guideline eines großen Konzerns werden die wichtigen Faktoren erfolgreicher Visualisierung vorgestellt und anhand von Beispielen verdeutlicht.

 

Let's talk Fabric! (kleiner Saal links)

Kathrin Borchert & David Winter

Was ist Microsoft Fabric und für was sollte man es nutzen?
Kathrin Borchert & David Winter beantworten diese und viele weitere Fragen in Ihrer Session.

11:25 - 11:35

Raumwechsel

11:35 - 12:35

Parallelism in Azure SQL (großer Saal)

Torsten Strauss

Der SQL Server kann Abfragen parallel ausführen, was manchmal die Leistung Ihrer Abfragen verbessern kann. Allerdings birgt Parallelität ihre eigenen Herausforderungen. Daher wird das Konzept der parallelen Ausführungen betrachtet, um zu verstehen, wann es sinnvoll ist, eine Abfrage auf mehreren Threads auszuführen. Dabei werden Themen behandelt wie CXPacket, Threads, Worker, Ausführungskontext, Abfragezweige, MAXDOP (Maximum Degree of Parallelism), Cost Threshold for Parallelism, NUMA-Knoten und die Iteratoren, die SQL Server im Ausführungsplan implementieren kann, um Parallelität zu ermöglichen.

 

Creating Advanced DAX Measures with Power BI (kleiner Saal rechts)

Tarek Salha

DAX ist einfach... bis Sie anfangen, CALCULATE() zu verwenden.
Das sagen Ihnen die Profis, wenn Sie mit einer Formel zu kämpfen haben.
Deshalb gibt Tarek Salha Ihnen einen detaillierten Überblick über die 4 am häufigsten verwendeten Konstrukte in DAX, die Profis ständig verwenden und die Ihnen den Tag retten werden:
- erweiterte Auswertungskontexte
- Iteratoren
- Tabellenfunktionen
- und natürlich CALCULATE()
Es werden diese Konzepte im Rahmen eines überzeugenden Demoszenarios der Datenanalyse auf hoher See erkundet. Sie werden lernen, wie Sie die oben genannten DAX-Konzepte nutzen können, um die Zielauswahl und die Ressourcenzuweisung zu optimieren, strategische Entscheidungen zu treffen und die Raubzugsergebnisse unseres Piratenkapitäns zu maximieren.
Erforschen Sie die faszinierende Schnittmenge von Piraterie und Datenmodellierung und erfahren Sie, wie der versierte Pirat Power BI-Berichte und die Macht der erweiterten DAX-Anweisungen für seinen Plünderungserfolg nutzt.
In dieser Sitzung werden Sie folgendes lernen:
- die Grundlagen der am häufigsten verwendeten DAX-Konzepte wie Zeilenkontext, Kontextübergang usw.
- wie man diese Konzepte mit spezifischen Funktionen wie SUMX, FILTER, ALL und anderen anwendet
- wie man VAR und RETURN einsetzt
- welche Szenarien sich für die Anwendung dieser Funktionalitäten eignen

 

Locking und Blocking bei dem SQL Server (kleiner Saal links)

Michael Rother

In einer Multiuser – Umgebung muss jedes System die Ressourcen (z.B. Datensätze) locken, um Konflikte durch doppelte Bearbeitung dieser Ressourcen zu verhindern. Leider kommt es dann schnell dazu, dass die Benutzer durch das Locking blockiert werden. Es wird sich angesehen, was der SQL Server hier so macht und was wir eventuell an unseren Applikationen verbessern können, damit es nicht zum Blocking kommt.
Es ist – wie immer – nicht geplant, das Ganze in der Art einer "Schulstunde" (Wenn alles schläft und einer spricht, so nennt man sowas Unterricht) abzuhalten, sondern eher als lockere Diskussionsrunde, bei der jeder seine Erfahrungen mit einbringen sollte.

12:35 - 13:25

Mittagspause

13:25 - 14:25

Viele T-SQL-Wege führen nach Rom… aber manche sind sehr steinig (großer Saal)

Torsten Ahlemeyer

Eine Programmier- und Beschreibungssprache wie T-SQL kennt eine sehr große Menge von Befehlen. Der Normalentwickler nutzt davon vielleicht 30 regelmäßig, hat von weiteren 20 schon mal gehört und weiß notfalls, wo er letztgenannte nachschlagen kann. Einen Großteil des Sprachumfangs wird er allerdings nie zu Gesicht bekommen (und trotzdem „irgendwie" die Abfrage oder Prozedur „hinbekommen"). Der T-SQL-Spezialist hat über 100 Befehle im ständig abrufbaren Repertoire und erarbeitet sich bei Bedarf mit Hilfe von Google und ChatGPT weitere Kommandos. Doch hier beginnt die Qual der Wahl: Warum erlauben die Datenbankhersteller mehrere Wege eine Information zu erlangen oder eine Menge über unterschiedliche Filter auf dieselbe Untermenge einzuschränken?
Torsten Ahlemeyer erklärt mit einem Augenzwinkern an Fachbeispielen, warum DB-Hersteller traditionelle und seit vielen Jahren bewährte Befehle trotzdem nochmal mit einer neuen Variante „aufpeppen". Wir werden gemeinsam mit den Teilnehmern mal sammeln, auf wie viele Arten man das Ergebnis eines SELECT-Statements auf bestimmte Kriterien einzuschränken kann – und gucken uns dann genau an, welche Variante unter welchen Umständen gut oder schlecht für die Laufzeit ist. Gibt es vielleicht sogar spezielle Kontexte, in denen ansonsten zuverlässige Varianten sogar „falsche" Ergebnisse liefern? Und warum sollten auf die Reise nach Rom immer nur Pärchen sowohl aus DB-Admins, Entwicklern und Anwendern gehen? Gibt es wirklich „Superbefehle" mit denen man den Raum so krümmen kann, dass der Weg von Erding nach Rom nur einen Schritt weit ist? Fragen über Fragen… aber über 20 Jahre DB-Erfahrung wirken wie Google Maps mit Echtzeit-Stauwarnung auf den Weg in die italienische Hauptstadt.

 

OneLake Shortcuts in Fabric ersparen das BI-Projekt (kleiner Saal rechts)

Markus Raatz

Das neue Microsoft Fabric macht das Arbeiten mit Daten einfacher, einfacher, einfacher. Und dazu gehören vor allem die Shortcuts oder Verknüpfungen, mit denen man alle möglichen Daten aus den verschiedensten Quellen einfach so mit wenigen Klicks in sein Lakehouse holen kann!
Dabei werden sie nicht kopiert, sondern nur verknüpft, und sind damit jederzeit 100% aktuell und in Echtzeit abfragbar. Das geht sogar über die Systemgrenzen hinweg, also mit Daten in der Google Cloud oder in Amazon Web Services. Wer es nicht glaubt, dem wird es in diesem demo-reichen Vortrag gezeigt! Und wenn noch Zeit ist, wird darüber diskutiert, warum einem solche Tricks natürlich nicht das BI-Projekt komplett ersparen können.

 

Neuerungen in Windows Server 2025 (kleiner Saal links)

Gregor Reimling

Microsoft hat die nächste Version von Windows Server veröffentlicht, die eine Vielzahl neuer Funktionen für On-Prem-, Hybrid- und Cloud-Umgebungen bietet.
In dieser Sitzung wird Gregor Reimling einen genaueren Blick auf die neuen Funktionen werfen, die mit der vNext-Version von Windows Server kommen.
Es wird mit der überraschenden Ankündigung neuer Active Directory-Funktionen begonnen, durch die neuen Storage- und SMB-Funktionen gegangen, die Management-Fortschritte mit Windows Admin Center betrachtet und mit den nächsten Azure Arc-Erweiterungen abgeschlossen. Außerdem wird ein Blick auf die Vorteile von Windows Server 2025 in Verbindung mit SQL Server geworfen.

14:25 - 14:35

Raumwechsel

14:35 - 15:35

Rapid SQL Database Development with SSDT Templates and Code Snippets (großer Saal)

Torsten Strauss

In dieser Session erfahren Sie, wie Sie die Entwicklung von Azure SQL-Datenbanken mit Bicep-Vorlagen, benutzerdefinierten Projektvorlagen und intelligenten Code-Schnipseln in Visual Studio SSDT vereinfachen und standardisieren können. Zudem wird eine CI/CD-Pipeline erstellt, um den Build und die Bereitstellung von Datenbanken in Azure DevOps zu automatisieren, einschließlich der Einbindung von Unit-Tests für gespeicherte Prozeduren.

 

Microsoft Purview - Datengovernance (kleiner Saal rechts)

Klaus Belssing

Microsoft Purview - Datengovernance unterstützt Ihr Unternehmen, Ihre Daten sicher und effizient zu verwalten. Mit Hilfe der Datenklassifizierung, -überwachung und -governance stellen Sie sicher, dass Ihre Daten den gesetzlichen Vorschriften und Unternehmensrichtlinien entsprechen. Microsoft Purview integriert sich nahtlos in andere Microsoft-Dienste und bietet eine zentrale Plattform für das Verwalten von Daten, Identifizieren von Risiken und Schützen sensibler Informationen in hybriden und Cloud-Umgebungen.

 

Executing Data Quality Tests in Microsoft Fabric with Great Expectations (kleiner Saal links)

Tarek Salha

Im Zeitalter datengesteuerter Unternehmen ist es wichtiger denn je, die Genauigkeit und Zuverlässigkeit von Daten zu gewährleisten. Dies ist der Bereich der Datenqualitätsprüfung, die einer der Bausteine des umfassenderen Themas Data Governance ist.
In dieser Sitzung werden Great Expectations, ein führendes Open-Source-Datenqualitäts-Framework, in Kombination mit Microsoft Fabric erkundet, um Datenqualitätstests und Validierungsprozesse zu verbessern.
Zunächst wird Tarek Salha die Grundlagen von Great Expectations demonstrieren und zeigen, wie man Datenqualitätstests innerhalb der Microsoft Fabric-Umgebung definiert, ausführt und pflegt. Wir werden uns dabei sowohl auf Lakehouses, Warehouses als auch auf semantische Modelle als testbare Datenquellen konzentrieren. Außerdem wird demonstriert, wie man Tests für jede dieser Quellen erstellt.
Schließlich wird Tarek Salha zeigen, wie man Tests automatisiert und detaillierte Berichte erstellt, die die Testergebnisse in einer lesbaren Form darstellen.
Durch die Teilnahme an dieser Sitzung werden Sie folgendes lernen:
- Die Bedeutung der Datenqualität in der modernen Analytik und Datenwissenschaft.
- Die wichtigsten Funktionen und Vorteile von Great Expectations für die Datenqualitätssicherung.
- Schritt-für-Schritt-Anleitung zur Konfiguration und Ausführung von Datenqualitätstests in Microsoft Fabric.
- Best Practices für die Automatisierung von Datenqualitätstests.

15:35 - 15:45

Raumwechsel

15:45 - 16:45

backup – or it‘s more like restore? (großer Saal)

Ralf Dietrich

In Unternehmen geht es darum, Datenverlust zu vermeiden und DBAs ruhigen Schlaf zu ermöglichen, doch fast jeder hat von wichtigen Datenverlusten gehört. Neben den grundlegenden Funktionen bietet der aktuelle SQL Server viele, teilweise neue Optionen zur erfolgreichen Bewältigung dieser Aufgabe. In dieser Session werden wir viele neue Aspekte behandeln, die es zu erlernen gilt.
Abhängig von der Größe der Datenbank, sei es 1 GB oder sogar über 100 TB, ist klar, dass es keine einfache Lösung gibt, die allen Anforderungen gerecht wird. Was passiert, wenn ein Unfall eintritt, während jemand versucht, Ihre Daten zu verschlüsseln oder ein Update ohne korrekte WHERE-Klausel durchzuführen?
Bei der Entscheidung für eine Backup-Strategie sollten wir die verschiedenen Optionen und deren Auswirkungen während des Wiederherstellungsprozesses genau kennen. Und nicht zuletzt: Was kann man tun, wenn eine Wiederherstellung über die bestehende Datenbank nicht möglich ist?

 

Microsoft Purview - Datengovernance in der Praxis (kleiner Saal rechts)

Klaus Blessing

In dieser Session werden anhand praxisnahen Möglichkeiten aufgezeigt, wie Sie Ihre Datengovernance Lösung nahtlos auf Ihre Power BI / Microsoft Fabric Umgebung anwenden, betreiben und überwachen können.

Ab 16:45

Ende der Veranstaltung

08:30 - 09:00

Check-In / Begrüßungskaffee

09:00 - 17:00

Fast-Track Analytics: Power BI and Microsoft Fabric in a Day

Kathrin Borchert & David Winter

Agenda
1. Begrüßung und Einführung
- Vorstellung der Agenda und Ziele des Meetings
- Kurze Einführung in die Thematik
2. Überblick über Kernkomponenten und OneLake
- Einführung in die grundlegenden Komponenten von Fabric und deren Funktionen
- Vorstellung von OneLake und seine Rolle in Fabric
3. Use Case Vorstellung
- Präsentation des zu bearbeitenden Use Cases
4. Datamanagement: Data Warehouse & Data Lakehouse
- Vergleich und Unterschiede zwischen Data Warehouse und Data Lakehouse
- Hands-On: Erstellung von Data Warehouse und Lakehouse
- Best Practices und praktische Tipps
5. Erstellen von Reports mit Power BI
- High Level Einführung in Power BI und seine Funktionen
- Erstellung von Berichten mithilfe von AI auf dem erstellten Warehouse/ Lakehouse
- Tipps zur Optimierung und Visualisierung von Daten
6. Offene Diskussion und Q&A
- Zusammenfassung der wichtigsten Punkte
- Beantwortung offener Fragen
- Feedbackrunde und Abschluss

09:00 - 17:00

Practical Performance Monitoring & Troubleshooting SQL Server

Andreas Wolter

Sie sind als DBA, Entwickler oder Berater tätig und unterstützen SQL Server-Datenbanken. Oft werden Sie gebeten, sich eine schlecht funktionierende Datenbankanwendung, bestimmte Abfragen oder sogar "den gesamten Server" anzusehen.
Und immer wieder stehen Sie vor der Frage, wie Sie die Ursache in möglichst kurzer Zeit finden können.
Dieser ganztägige Workshop vermittelt Ihnen Techniken für die allgemeine Fehlersuche und Leistungsanalyse, vom Einstieg bis zu fortgeschrittenen Techniken.
Zu den Themen gehören:
- SQL Server Architektur & Interna - die Grundlage zum Verständnis komplexer Zusammenhänge
- Überwachungsmethodik, Tools und Techniken
- Dynamische Verwaltungsansichten (DMVs)
- Wartestatistiken
- Erweiterte Ereignisse für Workload- und Abfrage-Analysen
- Abfragespeicher
- Untersuchen von Speicherproblemen
- Identifizierung und Behebung von Planregression
- Analyse von Indizes & Statistiken
- Erkennen von I/O-Latenzproblemen
- Untersuchen der Tempdb-Leistung
- Locking & Blocking Analyse, Gleichzeitigkeitsprobleme
Zwar hat sich niemand an einem einzigen Tag zum Performance-Tuning-Master entwickelt, aber Sie können sicher sein, dass Sie wertvolle Techniken und Konzepte lernen, auf denen Sie für Ihre tägliche Arbeit aufbauen können. Und natürlich werden auch mögliche Lösungen diskutiert oder sogar live umgesetzt. Beim nächsten Anruf "Hilfe, der Server ist langsam!" wissen Sie also, wo Sie ansetzen müssen.
Freuen Sie sich auf viele Demos und einen tiefen Einblick in die Kernkonzepte von SQL Server.
Hands-on: Wenn Sie mitmachen möchten, bringen Sie bitte einen Laptop mit, auf dem mindestens SQL Server 2019 läuft und mindestens 5 GB freier Speicherplatz vorhanden ist.
Voraussetzungen: Grundlegendes Verständnis der relationalen Engine von SQL Server und Transact-SQL, grundlegende Vertrautheit mit Dynamic Management Views (DMVs) und Query Plans.

Die Sprecher

Die SQL-Experten 2024

Ihnen fehlt jemand auf dieser Liste? Vorschläge werden gerne entgegengenommen.

Vorträge 2024

Die Vorträge werden in deutscher Sprache gehalten.

Andreas Wolter & Ralf Dietrich

Erkenntnisse aus den aktuellen Data Breaches: Datensicherheitsstrategie für SQL Server und Azure SQL

SQL Server und Azure SQL bieten viele verschiedene Funktionalitäten und Dienste, die Ihnen helfen, Ihr wertvollstes Kapital zu schützen: Ihre Daten. Aber Funktionen allein bieten keinen Schutz, wenn sie nicht sorgfältig durchdacht sind oder isoliert bestehen. Ohne eine durchdachte Sicherheitsstrategie ist es allzu leicht, Lücken zwischen den Sicherheitskontrollen zu übersehen und sich im Falle eines Angriffs exponiert wiederzufinden.
Im heutigen Umfeld von „Hacking as a Service", staatlich finanzierten und orchestrierten Hacking-Gruppen, kann die richtige Vorbereitung auf alle Szenarien für das Überleben eines Unternehmens von entscheidender Bedeutung sein.
In dieser Session werden Andreas Wolter, ehemaliger Program Manager für Sicherheit im Data Team von Microsoft und mit über zwei Jahrzehnten Erfahrung in der Arbeit mit Kunden, und Ralf Dietrich die aktuelle Bedrohungslandschaft darstellen. Dazu gehört, was Ransomware Attacken und Data Exfiltration gemeinsam haben, und wie man sich vor diesen und anderen Attacken schützen oder deren Auswirkungen beschränken kann.

Andreas Wolter

SQL Server Konsolidierung zur Kostenoptimierung und besseren Verwaltbarkeit

Während sich AI noch im Anfangsstadium befindet und sich die Investitionen noch nicht amortisiert haben, ist ein weiterer IT-Trend des Jahres 2024 die Kostenoptimierung. Ob Fusionen, unkontrolliertes Systemwachstum oder Migration in die Cloud ohne Anpassung der Architektur: Die Optimierung der Systemressourcennutzung hat sich im letzten Jahr zu einer der gefragtesten Projekttypen entwickelt. Auch im kommenden Jahr wird es weiterhin höchste Priorität haben.
In dieser Session wird Andreas Wolter, ehemaliger Programmmanager bei Microsoft Azure Data, die Teilnehmer durch die Beurteilung einer bestehenden SQL-Server-Landschaft und die Planung der Konsolidierung zahlreicher SQL-Server-Datenbanken führen, um Lizenz- und Hardwareanforderungen zu reduzieren.
Dazu gehört, Fallstricke zu vermeiden sowie Chancen bei der Migration von Datenbanken auf neue Versionen zu nutzen. Die Berücksichtigung von Verfügbarkeit, Leistung und Sicherheit ist entscheidend für den Erfolg in der Cloud und on-Premises.
Diese Session ist auf SQL Server on-premises und IaaS Implementierungen fokussiert, obwohl viele Schritte auch für PaaS gelten.

Markus Raatz

Frag einfach Deine Daten, mit Fabric AI Skills

Künstliche Intelligenz ist überall, aber wirklich noch nicht gleich verteilt. Und gerade, wenn es um Daten in unserer Datenbank geht, ist es bisher noch sehr schwer, wirklich etwas aus den Informationen darin herauszubekommen, um damit in Echtzeit Analysen zu machen. Und das macht Microsoft Fabric jetzt für alle viel, viel einfacher! Die neuen AI Skills, auf Deutsch „KI Fähigkeiten", ermöglichen es jedem in normalem Englisch Fragen an die Daten zu richten, und das System versteht die Datenstruktur, generiert clevere SQL-Abfragen darauf und zeigt uns die Daten an, die diese Fragen beantworten. In dieser Session zeige ich das live, und erkläre auch, wie man dem System auf die Sprünge helfen kann, wenn es die Daten mal nicht sofort versteht! Und auch für den, der noch kein Fabric benutzen möchte, gibt es eine Lösung.

Markus Raatz

OneLake Shortcuts in Fabric ersparen das BI-Projekt

Das neue Microsoft Fabric macht das Arbeiten mit Daten einfacher, einfacher, einfacher. Und dazu gehören vor allem die Shortcuts oder Verknüpfungen, mit denen man alle möglichen Daten aus den verschiedensten Quellen einfach so mit wenigen Klicks in sein Lakehouse holen kann!
Dabei werden sie nicht kopiert, sondern nur verknüpft, und sind damit jederzeit 100% aktuell und in Echtzeit abfragbar. Das geht sogar über die Systemgrenzen hinweg, also mit Daten in der Google Cloud oder in Amazon Web Services.
Wer es nicht glaubt, dem wird es in diesem demo-reichen Vortrag gezeigt! Und wenn noch Zeit ist, wird darüber diskutiert, warum einem solche Tricks natürlich nicht das BI-Projekt komplett ersparen können.

Marko Coha

Kaufen oder Eigenentwicklung: Monitoring im Vergleich

In dieser Präsentation werden die Vorteile und Herausforderungen der Eigenentwicklung und Instandhaltung von Monitoring mit denen des Kaufs verglichen. Die Entwicklung bietet Anpassungsmöglichkeiten, erfordert jedoch viel Zeit und Fachwissen. Der Kauf gewährleistet eine schnellere Einrichtung sowie Unterstützung und Aktualisierung, jedoch zu höheren Anfangskosten. Der Vortrag hilft Unternehmen bei der Entscheidung, welche Option am besten zu ihren Bedürfnissen und Ressourcen passt.

Milos Radivojevic

Umgang mit sehr großen Tabellen in SQL Server

Ungenauigkeiten, Abweichungen und kleine Fehler in Abfragen mit kleinen und mittleren Tabellen können ernsthafte Herausforderungen und Probleme darstellen, wenn es um große Tabellen geht.
Welche Herausforderungen treten auf, wenn Sie mit Tabellen arbeiten, die über ein Terabyte groß sind? Wie indexieren Sie diese? Wie sehen ihre Statistiken aus? Wie aktualisieren Sie diese und wie bekämpfen Sie die Fragmentierung von Indizes? Wie beeinflusst all dies die Schätzung der Datenmenge und wie optimiert man Abfragen, die sehr große Tabellen betreffen?
Wenn Sie an Antworten auf all diese Fragen interessiert sind, und zwar von jemandem, der Erfahrung im Umgang mit vielen großen Tabellen in einer Produktionsumgebung hat, dann ist diese Session für Sie!

Milos Radivojevic

Eine weitere Session über Parameter Sniffing

Wenn Sie SQL Server als relationale Datenbank verwenden, sind Sie bereits mit dem Phänomen des Parameter Sniffing vertraut. Es gibt viele Sitzungen zu diesem Thema, aber es gibt immer noch Neues zu sagen.
In dieser Session wird Milos einen Rückblick auf potenzielle Lösungen für dieses Problem geben und die Vor- und Nachteile jeder dieser Lösungen erläutern. Ein weiterer Grund, an dieser Session teilzunehmen, ist herauszufinden, ob das in SQL Server 2022 hinzugefügte Feature - Parameter Sensitive Plan Optimization Probleme mit dem Parameter Sniffing erheblich verringern oder sogar vollständig lösen kann.

Gregor Reimling

Hybrid- and Multi- Cloud Server Management mit Azure Arc

Die Nutzung der Cloud hat in den letzten Monaten und Jahren zugenommen. Viele Unternehmen evaluieren und nutzen derzeit Cloud-Anbieter, um ihr eigenes Rechenzentrum zu erweitern oder um bestehende Dienste zu neuen Anbietern zu migrieren. Server und virtuelle Maschinen sind ein wichtiger Bestandteil jeder IT-Umgebung. Microsoft hat Azure Arc als Multicloud-Dienst veröffentlicht, der die Azure-Verwaltungsmöglichkeiten auf Servern an jedem beliebigen Ort erweitert.
In dieser Sitzung wird Gregor Reimling viele Aspekte von Azure Arc aufzeigen. Wie man Azure Arc registriert und wie man bestehende Azure-Dienste wie Site Recovery, Backup oder Microsoft Defender for Cloud auf Servern außerhalb von Azure verwalten und aktivieren kann.
Außerdem werden die Möglichkeiten von Azure Arc Datenservices genauer vorgestellt und in welche Möglichkeiten diese bieten.

Gregor Reimling

Neuerungen in Windows Server 2025

Microsoft hat die nächste Version von Windows Server veröffentlicht, die eine Vielzahl neuer Funktionen für On-Prem-, Hybrid- und Cloud-Umgebungen bietet.
In dieser Sitzung wird Gregor Reimling einen genaueren Blick auf die neuen Funktionen werfen, die mit der vNext-Version von Windows Server kommen.
Es wird mit der überraschenden Ankündigung neuer Active Directory-Funktionen begonnen, durch die neuen Storage- und SMB-Funktionen gegangen, die Management-Fortschritte mit Windows Admin Center betrachtet und mit den nächsten Azure Arc-Erweiterungen abgeschlossen. Außerdem wird ein Blick auf die Vorteile von Windows Server 2025 in Verbindung mit SQL Server geworfen.

Haiko Hertes

Databases on Azure – what's new?

Alle Jahre wieder... Ein Jahr in Azure sind eine kleine Ewigkeit, in der sich wieder viel rund um das Thema Datenbanken getan hat.
In dieser Session gibt Heiko Hertes einen Überblick über die Entwicklungen und Neuerungen der letzten 12 Monate, verbunden mit einigen kleinen Demos.

Haiko Hertes

Migrating on-prem SQL Databases to Azure

In dieser Session gibt Heiko Hertes einen Überblick über die Möglichkeiten, wie man eine Datenbank von on-premises nach Azure migrieren kann und zeigt dabei auch ein paar Demos.

Kathrin Borchert & David Winter

Don't Panic I'm Power BI Admin

Die Session wird sich auf das Thema Administration in Power BI konzentrieren. Klingt langweilig?
Ist es aber nicht! Denn wenn Sie sich für ein Tool entscheiden, egal welches, ist es wichtig, es richtig einzurichten und zu pflegen.
Neben der Governance-Strategie benötigen Sie ein umfassendes Wissen über die unzähligen Möglichkeiten, die das Power BI-Admin-Portal bietet. Von einem einfachen Excel-Export bis hin zu einem API-Aufruf, der die gesamte Power BI-Umgebung scannen kann, gibt es über 80 Grundeinstellungen in der Power BI-Umgebung.
In dieser Session werden Kathrin Borchert & David Winter einige der wichtigsten Einstellungen betrachten und die Vor- und Nachteile mit Ihnen diskutieren.

Kathrin Borchert & David Winter

Let's talk Fabric!

Was ist Microsoft Fabric und für was sollte man es nutzen?
Kathrin Borchert & David Winter beantworten diese und viele weitere Fragen in ihrer Session.

Klaus Aschenbrenner

SQL Server Troubleshooting mit Extended Events

Jeder von Ihnen weiß, dass es eine Todsünde ist, macht es aber trotzdem still und heimlich in seinem Kämmerchen. Ja, Klaus Aschenbrenner spricht hier vom ... SQL Server Profiler!
Der SQL Server Profiler ist aber bereits seit einigen SQL Server Versionen ein Deprecated Feature, und sollte daher im tagtäglichen Einsatz nicht mehr verwendet werden.
Im Rahmen dieser Session werden Sie die Nachfolge-Technologie namens Extended Events kennenlernen, und Sie werden im Rahmen verschiedener Beispiele sehen wie einfach und unkompliziert das SQL Server Troubleshooting mit Extended Events sein kann.

Klaus Aschenbrenner

SQL Server 2019 & 2022 Neuerungen

Man glaubt es nicht, aber der SQL Server 2019 & 2022 hat eine Vielzahl unterschiedlicher Neuerungen und Besserungen im Bereich der Performance Optimierung. Daher werden wir in dieser Session einen Streifzug durch die wichtigsten Optimierungen machen, und Sie werden sehen wie schnell der SQL Server 2019 & 2022 sein kann – im Vergleich zu älteren Versionen.
Aus dem Inhalt:
• Scalar Valued Functions
• Adaptive Memory Grants
• Parameter Sensitive Plan Optimizations
• Degree of Parallelism Feedback
• ColumnStore Index Optimizations

Andreas Rauch

10 Tipps für TSQL Worker

Während der Ausbildung oder des Studiums musste sich vermutlich viele die SQL Sprache aneignen und hörten ebenso Vorträge über DB Design, Normalisierung usw.. aber auf die Praxis wurden wir dann doch weniger gut vorbereit. Dabei gilt die SQL Sprache als nicht besonders schwierig zu erlernen und die Methodik Datenbanken zu designen ist vermutlich schon den Genen verankert.
Dennoch stolpern wir immer wieder über Eigenheiten des SQL Servers und auch einer gewissen Unkenntnis - ohne es zu bemerken.
Interessiert an Themen wie böse Sicht, doofe Prozeduren und der neugierigen Susi? Dann schauen Sie doch mal rein...

Marisol & Sebastian Steinau

DevOps for the humble data engineer

Ein Data Engineer speichert ihre Daten in Warehouses, Lakehouses oder auch einfach in einer Datenbank. Man müsste es nicht erwähnt haben, so selbstverständlich ist das. Ein Data Engineer arbeitet aber mit anderen Sachen, die nicht in diese Art von Speicher gehören. Wohin tut man also die Notebooks, SQL Skripte oder das kleine Python Programm?
Wider besseren wissens lässt man es einfach auf seiner lokalen Festplatte. Wagemutige laden es in Microsoft Sharepoint hoch. Oder was für die Daten gut genug ist, ist auch dafür gut genug und ab gehts damit in die Datenbank, schließlich spart das Speicherkosten.
Glücklicherweise gibt es eine bessere Möglichkeit: Git.
Skripte und Notebooks werden in einem Git-Repository abgelegt. Git ist ein verteiltes Versionskontrollsystem, das ursprünglich für den Linux-Kernel entwickelt wurde. Es ermöglicht eine einfache Versionierung von Dateien und die Zusammenarbeit an derselben Notebooks.
Git ist ein Werkzeug mit erstaunlich vielen Funktionen, aber erfordert auch Einarbeitung um damit umgehen zu können. Gehen Sie ihre vielleicht ersten Schritte in Git als Data Engineer und erfahren Sie, was Git für Sie bei der Entwicklung ihrer Lösung tun kann.
Jetzt da ihre SQL Skripte und Databricks/Fabric/Synapse-Notebooks vollständig mit Git versioniert sind, wie bekommt man die aus dem Git-Repository in die SQL-Datenbank oder den Fabric-Arbeitsbereich? Man könnte es natürlich manuell kopieren, aber wäre es nicht schöner wenn die Änderung dann einfach automagisch im Arbeitsbereich auftauchen? Die DevOps-Welt hat hier die Lösung: Pipelines. Erfahren Sie, wie eine Pipeline ein Notebook in Entwicklungs-, Staging- und Prod-Umgebungen bereitstellen kann, wobei der Connection String und andere Parameter automatisch an die jeweilige Umgebung angepasst werden. Pipelines sind auch ein vollständig integrierter Teil von Microsoft Fabric, welches wir für eine praktische Demonstration verwenden werden.

Markus Ehrenmüller-Jensen

My Perfect Date (Table)

Kaum ein Datenmodell kommt ohne datums- undzeitbezogene Informationen aus (auch wenn es nicht um ein romantisches Dategeht). Daher ergibt es Sinn die Datumsdimension richtig zu erstellen.
Leider ist die Standardeinstellung von Power BI Desktop nicht sehr hilfreich, weil sie jede Menge Nachteile hat. Selbst Microsoft empfiehlt diese nicht (!) zuverwenden – außer in ganz simplen Semantikmodellen.
Erfahrung nach sind die meisten Datenmodelle weniger simpel, als sie auf den ersten Blick erscheinen. Glücklicherweise haben wir viele Optionen, eine Datumstabelle selber und richtig zu erstellen.
Sie werden diese Session mitnützlichen Skripten in DAX, Power Query und SQL verlassen, mit denen Sie die Datumstabelle up-to-date :-) halten können.
Sie werden auch lernen, in welchen Fällen Sie die Datumstabelle als solche markieren müssen und wie Sie mehr als eine Datumsspalte filtern müssen.

Markus Ehrenmüller-Jensen

Power BI und große Tabellen

Die mit Abstand beste Performance bekommen Sie, wenn Sie alle Daten nach Power BI laden. Manchmal gibt es aber Situationen, wo das nicht möglich ist: die Datenmenge sprengt die verfügbaren Resourcen oder das Aktualisieren würde zu lange dauern.
Für diese Fälle ist der DirectQuery Modus geschaffen. Dieser hat aber Nachteile wenn es um die Berichtsperformance geht.
Zum Glück ist die Entscheidung Import vs. DirectQuery kein „entweder – oder", sondern die beiden Techniken können optimal kombiniert werden, um einen vertretbaren Kompromiss zwischen Berichtsperformance und Aktualität der Daten zu erhalten.
In dieser Session werden Sie über den Dual mode, hybride Tabellen, Incremental Refresh, voraggregierte Tabellen und den DirectLake Modus lernen.

Martin Guth

Backup und Restore: Basics, New Features und Wiederherstellungstests

Jeder DBA muss das Thema Backup und Restore beherrschen...also Grund genug, das Wissen darum einmal aufzufrischen. Neben den Basics zum Thema werden sich auch neue Features in SQL Server 2022 aus diesem Bereich angeschaut. Ein wichtiges Werkzeug zur Absicherung von Restores sind Wiederherstellungstests: Hierzu werden Tools vorgestellt, um diese zu automatisieren.

Martin Guth

Erfolgreiche und konsistente Datenvisualisierung auf Basis einer Best Practice Guideline

Wir sind umgeben von einer Vielzahl an Informationen. Datenvisualisierung ist ein zentraler Schlüssel zum besseren Verständnis von Zusammenhängen. Wie gelingt es uns jedoch, diese Visualisierung erfolgreich durchzuführen? Muss wirklich jedes neue Dashboard anders sein? In Anlehnung an eine Best Practice Guideline eines großen Konzerns werden die wichtigen Faktoren erfolgreicher Visualisierung vorgestellt und anhand von Beispielen verdeutlicht.

Michael Rother

Was gibt es neues bei AlwaysOn

Diese Session beleuchtet die neuesten Verbesserungen bei AlwaysOn in SQL Server, einschließlich erweiterter Verwaltungsfunktionen für Verfügbarkeitsgruppen.

Michael Rother

Locking und Blocking bei dem SQL Server

In einer Multiuser – Umgebung muss jedes System die Ressourcen (z.B. Datensätze) locken, um Konflikte durch doppelte Bearbeitung dieser Ressourcen zu verhindern. Leider kommt es dann schnell dazu, dass die Benutzer durch das Locking blockiert werden. Es wird sich angesehen, was der SQL Server hier so macht und was wir eventuell an unseren Applikationen verbessern können, damit es nicht zum Blocking kommt.

Es ist – wie immer – nicht geplant, das Ganze in der Art einer "Schulstunde" (Wenn alles schläft und einer spricht, so nennt man sowas Unterricht) abzuhalten, sondern eher als lockere Diskussionsrunde, bei der jeder seine Erfahrungen mit einbringen sollte.

Ralf Dietrich

backup – or it‘s more like restore?

In Unternehmen geht es darum, Datenverlust zu vermeiden und DBAs ruhigen Schlaf zu ermöglichen, doch fast jeder hat von wichtigen Datenverlusten gehört. Neben den grundlegenden Funktionen bietet der aktuelle SQL Server viele, teilweise neue Optionen zur erfolgreichen Bewältigung dieser Aufgabe. In dieser Session werden wir viele neue Aspekte behandeln, die es zu erlernen gilt.
Abhängig von der Größe der Datenbank, sei es 1 GB oder sogar über 100 TB, ist klar, dass es keine einfache Lösung gibt, die allen Anforderungen gerecht wird. Was passiert, wenn ein Unfall eintritt, während jemand versucht, Ihre Daten zu verschlüsseln oder ein Update ohne korrekte WHERE-Klausel durchzuführen?
Bei der Entscheidung für eine Backup-Strategie sollten wir die verschiedenen Optionen und deren Auswirkungen während des Wiederherstellungsprozesses genau kennen. Und nicht zuletzt: Was kann man tun, wenn eine Wiederherstellung über die bestehende Datenbank nicht möglich ist?

Stefan Kirner

Data Factory in Fabric - the good, the bad and the ugly

In der Session werden technische und konzeptionelle Unterschiede zwischen Azure Data Factory und der Version in Fabric betrachtet.
Die Data Factory Version in Microsoft Fabric ist die nächste Generation der allseits bekannten Data Factory auf Azure. Dasselbe in grün? Wenn man genauer hinsieht, fallen einige Unterschiede ins Auge sowohl was Features angeht, die on-premises Connectivity aber auch das Applikation Lifecycle Management betreffend.
Auch bei der Nutzung weiterer Azure Services über den Fabric Scope hinaus ergeben sich teilweise neue Fragen und Lösungsansätze. Diese und weitere interessante Aspekte werden in dem Vortrag vorgestellt.

Christoper Pfister

Skalierbares Datawarehouse in der Cloud - Einführung Databricks SQL + Unity Catalog

Mit der Vorstellung von Unity Catalog hat Databricks den letzten Baustein gesetzt, um auf ihrer Plattform einem Datawarehouse inklusive Governance mit Enterpriseansprüchen gerecht zu werden. In dieser Session sollen die Vorteile und Unterschiede von Databricks zu klassischen RDMSs als Data Warehousing Plattform gezeigt werden, anhand der iqdigital, welche über 250 Nutzer:innen mit verschiedenen Berechtigungen sekundenschnelle Abfragen über Terabyte-große Daten ermöglicht.

Christoper Pfister

VNETing in Azure - Möglichkeiten und Best Practices

In der Cloud ist es verlockend, virtuellen Maschinen einfach öffentliche IPs zuzuweisen und auch PaaS-Services bequem über das Internet anzusprechen. In dieser Session soll gezeigt werden, wie man mit VNETs in Azure ein sauberes internes Netzwerk aufsetzen und so die Sicherheit der eigenen Ressourcen und deren Kommunikation deutlich verbessern kann. (u.a. Private Link, Service Link, NAT Gateway)

Steffen Krause

Stein auf Stein – Azure SQL Database Features mit Hilfe der Rebrickable LEGO Datenbank gezeigt

PaaS Services werden oft als „wie LEGO-Steine" beschrieben. Mit Hilfe der Rebrickable LEGO-Stein-Daten zeigt Steffen Krause in dieser demoreichen Session eine Vielzahl von Features in Azure SQL Database – Vom Import der Daten mit Hilfe von Managed Identities über KI Features mit GitHub Copilot und SQL Copilot bis zur Selbstoptimierung mit Autotuning und Kosteneinsparung durch Serverless

Tarek Salha

Creating Advanced DAX Measures with Power BI

DAX ist einfach... bis Sie anfangen, CALCULATE() zu verwenden.
Das sagen Ihnen die Profis, wenn Sie mit einer Formel zu kämpfen haben.
Deshalb gibt Tarek Salha Ihnen einen detaillierten Überblick über die 4 am häufigsten verwendeten Konstrukte in DAX, die Profis ständig verwenden und die Ihnen den Tag retten werden:
- erweiterte Auswertungskontexte
- Iteratoren
- Tabellenfunktionen
- und natürlich CALCULATE()

Es werden diese Konzepte im Rahmen eines überzeugenden Demoszenarios der Datenanalyse auf hoher See erkundet. Sie werden lernen, wie Sie die oben genannten DAX-Konzepte nutzen können, um die Zielauswahl und die Ressourcenzuweisung zu optimieren, strategische Entscheidungen zu treffen und die Raubzugsergebnisse unseres Piratenkapitäns zu maximieren.
Erforschen Sie die faszinierende Schnittmenge von Piraterie und Datenmodellierung und erfahren Sie, wie der versierte Pirat Power BI-Berichte und die Macht der erweiterten DAX-Anweisungen für seinen Plünderungserfolg nutzt.

In dieser Sitzung werden Sie folgendes lernen:
- die Grundlagen der am häufigsten verwendeten DAX-Konzepte wie Zeilenkontext, Kontextübergang usw.
- wie man diese Konzepte mit spezifischen Funktionen wie SUMX, FILTER, ALL und anderen anwendet
- wie man VAR und RETURN einsetzt
- welche Szenarien sich für die Anwendung dieser Funktionalitäten eignen

Tarek Salha

Executing Data Quality Tests in Microsoft Fabric with Great Expectations

Im Zeitalter datengesteuerter Unternehmen ist es wichtiger denn je, die Genauigkeit und Zuverlässigkeit von Daten zu gewährleisten. Dies ist der Bereich der Datenqualitätsprüfung, die einer der Bausteine des umfassenderen Themas Data Governance ist.
In dieser Sitzung werden Great Expectations, ein führendes Open-Source-Datenqualitäts-Framework, in Kombination mit Microsoft Fabric erkundet, um Datenqualitätstests und Validierungsprozesse zu verbessern.
Zunächst wird Tarek Salha die Grundlagen von Great Expectations demonstrieren und zeigen, wie man Datenqualitätstests innerhalb der Microsoft Fabric-Umgebung definiert, ausführt und pflegt. Wir werden uns dabei sowohl auf Lakehouses, Warehouses als auch auf semantische Modelle als testbare Datenquellen konzentrieren. Außerdem wird demonstriert, wie man Tests für jede dieser Quellen erstellt.
Schließlich wird Tarek Salha zeigen, wie man Tests automatisiert und detaillierte Berichte erstellt, die die Testergebnisse in einer lesbaren Form darstellen.

Durch die Teilnahme an dieser Sitzung werden Sie folgendes lernen:
- Die Bedeutung der Datenqualität in der modernen Analytik und Datenwissenschaft.
- Die wichtigsten Funktionen und Vorteile von Great Expectations für die Datenqualitätssicherung.
- Schritt-für-Schritt-Anleitung zur Konfiguration und Ausführung von Datenqualitätstests in Microsoft Fabric.
- Best Practices für die Automatisierung von Datenqualitätstests.

Thomas Hütter

Von SQL zu KQL via Azure Data Explorer

Wir alle kennen (und lieben) unser SQL, die Structured Query Language. Manche von uns schreiben SQL queries schon seit Jahrzehnten. Aber es gibt ein relativ neues kid on the block: KQL, die Kusto Query Language. Ein mächtiges Tool, um Daten zu untersuchen, Muster und Anomalien zu entdecken, ja sogar Streaming-Daten und Zeitreihen zu analysieren. Es ist auch die Sprache, in der die Azure-Log Datenbanken und Deine IoT-Sensor-Daten abgefragt werden können.
In dieser Session lernen Sie die wichtigsten Elemente der KQL kennen: Tabellen, Abfragen und die Pipe, Visuals und Dashboards. Es wird gesehen, was die Gemeinsamkeiten mit SQL sind und was die Unterschiede. Es werden Wege kennengelernt, um von SQL zu KQL zu gelangen.
Ein mögliches Tool der Wahl, um mit KQL zu beginnen ist ADX, der Azure Data Explorer (andere sind die KQL extension für Azure Data Studio oder der Kusto.Explorer). Für die praktischen Teile dieser Session wird ADX mit der free cluster Option als unsere Umgebung genutzt, um Daten zu importieren, analysieren und zu visualisieren.

Thomas Hütter

IoT, Azure cloud, big data - fangen wir klein an!

Auf der Suche nach einem Ausgleich für meinen Day-to-day Job, fand Thomas Hütter das Ökosystem der Arduino Micro-Computer, wo sowohl Software als auch Hardware Open Source sind. Also dachte er sich, warum nicht seine Elektronik-Kenntnisse reaktivieren, und gleichzeitig endlich mal mit IoT und Cloud-Zeugs starten.
In dieser Session demonstriert Thomas Hütter Ihnen sein erstes IoT-Projekt, das diese Bezeichnung verdient.
Thomas Hütter stellt Ihnen die Arduino-Welt vor (Hardware und IDE), und zeigt Ihnen, wie man einen Arduino-Kleinst-Computer nebst einigen Sensoren (Temperatur, Luftqualität...) mit einem Netzwerk verbindet, um Daten in die (Arduino- oder Azure-) Cloud zu übertragen, wo diese gespeichert, analysiert und sogar in Ihrem eigenen Umweltdaten-Dashboard visualisiert werden können. All dies wird realisiert mit wirklich günstiger Hardware und freien Cloud-Angeboten.

Torsten Ahlemeyer

T-SQL mit Sherlock Holmes

Der Beruf des SQL-Spezialisten unter den BI-Consultants erinnert manchmal mehr an die Tätigkeit eines Forensikers… Da werden fremde Systeme analysiert, Fehler eingekreist und Testroutinen geschrieben. Und schnell ist Sherlock Holmes im Spiel, denn die Erstaussage ist stets: „ich habe nichts gemacht – aber plötzlich war der Prozess tot". Wir analysieren gemeinsam die Hintergründe und lernen manche Untiefen der Unternehmens-IT kennen, die aus Unwissenheit oder Bequemlichkeit vermeintliche Abkürzungen nimmt, die so in keinem Schulbuch stehen. Auch das Thema Security wird in vielen Häusern sehr kreativ behandelt und führt zu gefährlichen Situationen. Wenn dann noch Kollegen Datenbankobjekte verstecken oder Quellcode bewusst manipulieren, ums ich selbst unersetzbar zu machen, ist die Bühne für den großen Detektiv bereitet. Gelingt es gemeinsam die Schurken zu überführen? Dabei quälen wir uns nicht stundenlang durch irgendwelche Logs, sondern denken wie ein Berufsverbrecher und kommen so den „Verbrechern" auf die Schliche. Denn „Wenn du das Unmögliche ausgeschlossen hast, dann ist das, was übrigbleibt, die Wahrheit, wie unwahrscheinlich sie auch ist. ..." – was natürlich per Code zu beweisen ist.

Torsten Ahlemeyer

Viele T-SQL-Wege führen nach Rom… aber manche sind sehr steinig

Eine Programmier- und Beschreibungssprache wie T-SQL kennt eine sehr große Menge von Befehlen. Der Normalentwickler nutzt davon vielleicht 30 regelmäßig, hat von weiteren 20 schon mal gehört und weiß notfalls, wo er letztgenannte nachschlagen kann. Einen Großteil des Sprachumfangs wird er allerdings nie zu Gesicht bekommen (und trotzdem „irgendwie" die Abfrage oder Prozedur „hinbekommen"). Der T-SQL-Spezialist hat über 100 Befehle im ständig abrufbaren Repertoire und erarbeitet sich bei Bedarf mit Hilfe von Google und ChatGPT weitere Kommandos. Doch hier beginnt die Qual der Wahl: Warum erlauben die Datenbankhersteller mehrere Wege eine Information zu erlangen oder eine Menge über unterschiedliche Filter auf dieselbe Untermenge einzuschränken?
Torsten Ahlemeyer erklärt mit einem Augenzwinkern an Fachbeispielen, warum DB-Hersteller traditionelle und seit vielen Jahren bewährte Befehle trotzdem nochmal mit einer neuen Variante „aufpeppen". Wir werden gemeinsam mit den Teilnehmern mal sammeln, auf wie viele Arten man das Ergebnis eines SELECT-Statements auf bestimmte Kriterien einzuschränken kann – und gucken uns dann genau an, welche Variante unter welchen Umständen gut oder schlecht für die Laufzeit ist. Gibt es vielleicht sogar spezielle Kontexte, in denen ansonsten zuverlässige Varianten sogar „falsche" Ergebnisse liefern? Und warum sollten auf die Reise nach Rom immer nur Pärchen sowohl aus DB-Admins, Entwicklern und Anwendern gehen? Gibt es wirklich „Superbefehle" mit denen man den Raum so krümmen kann, dass der Weg von Erding nach Rom nur einen Schritt weit ist? Fragen über Fragen… aber über 20 Jahre DB-Erfahrung wirken wie Google Maps mit Echtzeit-Stauwarnung auf den Weg in die italienische Hauptstadt.

Torsten Strauss

Parallelism in Azure SQL

Der SQL Server kann Abfragen parallel ausführen, was manchmal die Leistung Ihrer Abfragen verbessern kann. Allerdings birgt Parallelität ihre eigenen Herausforderungen. Daher wird das Konzept der parallelen Ausführungen betrachtet, um zu verstehen, wann es sinnvoll ist, eine Abfrage auf mehreren Threads auszuführen. Dabei werden Themen behandelt wie CXPacket, Threads, Worker, Ausführungskontext, Abfragezweige, MAXDOP (Maximum Degree of Parallelism), Cost Threshold for Parallelism, NUMA-Knoten und die Iteratoren, die SQL Server im Ausführungsplan implementieren kann, um Parallelität zu ermöglichen.

Torsten Strauss

Rapid SQL Database Development with SSDT Templates and Code Snippets

In dieser Session erfahren Sie, wie Sie die Entwicklung von Azure SQL-Datenbanken mit Bicep-Vorlagen, benutzerdefinierten Projektvorlagen und intelligenten Code-Schnipseln in Visual Studio SSDT vereinfachen und standardisieren können. Zudem wird eine CI/CD-Pipeline erstellt, um den Build und die Bereitstellung von Datenbanken in Azure DevOps zu automatisieren, einschließlich der Einbindung von Unit-Tests für gespeicherte Prozeduren.

Klaus Blessing

Microsoft Purview - Datengovernance

Microsoft Purview - Datengovernance unterstützt Ihr Unternehmen, Ihre Daten sicher und effizient zu verwalten. Mit Hilfe der Datenklassifizierung, -überwachung und -governance stellen Sie sicher, dass Ihre Daten den gesetzlichen Vorschriften und Unternehmensrichtlinien entsprechen. Microsoft Purview integriert sich nahtlos in andere Microsoft-Dienste und bietet eine zentrale Plattform für das Verwalten von Daten, Identifizieren von Risiken und Schützen sensibler Informationen in hybriden und Cloud-Umgebungen.

Klaus Blessing

Microsoft Purview - Datengovernance in der Praxis

In dieser Session werden anhand praxisnahen Möglichkeiten aufgezeigt, wie Sie Ihre Datengovernance Lösung nahtlos auf Ihre Power BI / Microsoft Fabric Umgebung anwenden, betreiben und überwachen können.

Weitere Informationen folgen demnächst.
Ergänzungen bzw. Änderungen vorbehalten.

Die neuen Workshops

Ganztägige Workshops von 9 bis 17 Uhr gemeinsam mit Ihrem Experten in Kleingruppen.

Montag, 7. Oktober

Klaus Blessing

Power BI und Azure Modern Datawarehouse: Praktische Einblicke und Möglichkeiten im Überblick

Dieser Workshop umfasst die Themen Power BI Desktop, Power BI-Berichtsserver OnPrem, Power BI Embedded, Power BI Service in Office 365 und die Integration von Power Apps in Power BI und SQL Server Analysis Services (SSAS).
Klaus Blessing bietet zudem eine Einführung in Azure-Analysetools wie Azure SQL Data Warehouse (Azure Synapse Analytics), Azure Databricks, Data Factory, Stream Analytics, Data Lake Analytics und Azure Analysis Services. Außerdem werden KI- und Machine Learning-Technologien, einschließlich Cognitive Services, Machine Learning, R und Python, behandelt.
präsenz virtuell

Klaus Aschenbrenner

SQL Server Performance Troubleshooting


Im Rahmen dieses Ganztages-Workshops wird mit einer Standard-Installation des SQL Servers gearbeitet, und eine Workload mit einigen hundert Benutzern ausgeführt. Wie Sie sehr schnell erkennen werden, wird der SQL Server in enorme Performance-Probleme gestürzt, und die Abfragezeiten aus Endbenutzer-Perspektive werden katastrophal sein.
Was nun? Es wird mit den Bordmitteln des SQL Servers analysiert, in welchen Bereichen der Schuh drückt, und im Laufe des Tages eine optimale SQL Server Konfiguration erstellt, mit der schlussendlich die Endbenutzer ebenfalls zufrieden sein werden.
Aus dem Inhalt:
• Performance Monitoring
• Hardware Konfiguration
• Betriebssystem Konfiguration
• Memory Management
• Parallelism
• Locking & Blocking
• Datenbank-Wartung
präsenz virtuell

Donnerstag, 10. Oktober

Kathrin Borchert & David Winter

Fast-Track Analytics: Power BI and Microsoft Fabric in a Day

Agenda
1. Begrüßung und Einführung
- Vorstellung der Agenda und Ziele des Meetings
- Kurze Einführung in die Thematik

2. Überblick über Kernkomponenten und OneLake
- Einführung in die grundlegenden Komponenten von Fabric und deren Funktionen
- Vorstellung von OneLake und seine Rolle in Fabric

3. Use Case Vorstellung
- Präsentation des zu bearbeitenden Use Cases

4. Datamanagement: Data Warehouse & Data Lakehouse
- Vergleich und Unterschiede zwischen Data Warehouse und Data Lakehouse
- Hands-On: Erstellung von Data Warehouse und Lakehouse
- Best Practices und praktische Tipps

5. Erstellen von Reports mit Power BI
- High Level Einführung in Power BI und seine Funktionen
- Erstellung von Berichten mithilfe von AI auf dem erstellten Warehouse/ Lakehouse
- Tipps zur Optimierung und Visualisierung von Daten

6. Offene Diskussion und Q&A
- Zusammenfassung der wichtigsten Punkte
- Beantwortung offener Fragen
- Feedbackrunde und Abschluss
präsenz virtuell

Andreas Wolter

Practical Performance Monitoring & Troubleshooting SQL Server

Sie sind als DBA, Entwickler oder Berater tätig und unterstützen SQL Server-Datenbanken. Oft werden Sie gebeten, sich eine schlecht funktionierende Datenbankanwendung, bestimmte Abfragen oder sogar "den gesamten Server" anzusehen.
Und immer wieder stehen Sie vor der Frage, wie Sie die Ursache in möglichst kurzer Zeit finden können.
Dieser ganztägige Workshop vermittelt Ihnen Techniken für die allgemeine Fehlersuche und Leistungsanalyse, vom Einstieg bis zu fortgeschrittenen Techniken.

Zu den Themen gehören:
- SQL Server Architektur & Interna - die Grundlage zum Verständnis komplexer Zusammenhänge
- Überwachungsmethodik, Tools und Techniken
- Dynamische Verwaltungsansichten (DMVs)
- Wartestatistiken
- Erweiterte Ereignisse für Workload- und Abfrage-Analysen
- Abfragespeicher
- Untersuchen von Speicherproblemen
- Identifizierung und Behebung von Planregression
- Analyse von Indizes & Statistiken
- Erkennen von I/O-Latenzproblemen
- Untersuchen der Tempdb-Leistung
- Locking & Blocking Analyse, Gleichzeitigkeitsprobleme

Zwar hat sich niemand an einem einzigen Tag zum Performance-Tuning-Master entwickelt, aber Sie können sicher sein, dass Sie wertvolle Techniken und Konzepte lernen, auf denen Sie für Ihre tägliche Arbeit aufbauen können. Und natürlich werden auch mögliche Lösungen diskutiert oder sogar live umgesetzt. Beim nächsten Anruf "Hilfe, der Server ist langsam!" wissen Sie also, wo Sie ansetzen müssen.
Freuen Sie sich auf viele Demos und einen tiefen Einblick in die Kernkonzepte von SQL Server.
Hands-on: Wenn Sie mitmachen möchten, bringen Sie bitte einen Laptop mit, auf dem mindestens SQL Server 2019 läuft und mindestens 5 GB freier Speicherplatz vorhanden ist.
Voraussetzungen: Grundlegendes Verständnis der relationalen Engine von SQL Server und Transact-SQL, grundlegende Vertrautheit mit Dynamic Management Views (DMVs) und Query Plans.
präsenz virtuell

Die Anmeldung zu den Workshops finden sie hier.

Weitere Informationen folgen demnächst.
Ergänzungen bzw. Änderungen vorbehalten.

Die Resonanz

Meinungen von Teilnehmern der letzten Jahre.

Feedback

Spitze! Das Abendprogramm hat nette Gespräche ermöglicht,
die sonst nicht zur Sprache gekommen wären. Sebastian P.
iks GmbH
Informativ und anregend für die weitere Arbeit. Thomas R.
Kühne + Nagel
Ausgesprochen gut! Neue Ideen, interessante Themen - der Besuch hat sich gelohnt. Stefan T.
Buchholz-Computer
Empfehlenswerte Veranstaltung bei der wertvolle Praxistipps gewonnen werden können. Simon A.
Key Work GmbH
Sehr lohnenswert durch viele interessante Kontakte und Infos. Tolle Sache! Michael K.
KAISERCONSULT
Endlich Inhalte statt Konferenzabzocke! Und ich habe viel gelernt. Dr. Stefan E.
Synergetics MIC GmbH

Was erwartet Sie bei den SQLdays

  • 2 Tage, 3 Tracks und freie Auswahl aus über 40 Vorträgen
  • Neueste Themen zu SQL Server 2022 & Business Intelligence
  • Lunch-Buffet und Pausenverpflegung inklusive
  • Spektakuläres Abendevent inklusive Networking-Möglichkeiten
  • Workshops am 7. und 10. Oktober
  • WLAN for free in der Konferenzlocation
  • Verfügbare Präsentationen und Beispielcodes nach der Konferenz zum Download

Haben Sie noch Fragen zur Organisation oder zu Ihrer Anmeldung?
Sehr gerne stehen wir Ihnen jederzeit unter Tel.: +49 (0) 8677 9889-62 oder per E-Mail an events@ppedv.de zur Verfügung.

Allgemeines und Reiseinformationen
Kleidungsempfehlung: Casual Wear. Reiseinformationen finden Sie hier.

Sie wollen Partner werden?
Dann schauen Sie sich doch die Partnermappe an und schreiben Sie uns eine Mail an events@ppedv.de.

Partner & Sponsoren

Interesse an einer Kooperation? Hier finden Sie die aktuelle Partnermappe!

Fragen zur Kooperation? Senden Sie uns gerne eine E-Mail!

Veranstalter

redgate
redgate
ppedv AG
ppedv AG

Der Tagungsort

So erreichen Sie die SQLdays Konferenz

Tagungsort

Erdinger Stadthallen GmbH

Alois-Schießl-Platz 1

85435 Erding, Deutschland


Anfahrt

Via Auto

Autobahn A9: Autobahnkreuz Neufarn,

Richtung Deggendorf (A92), Ausfahrt Erding


Autobahn A99: Autobahnkreuz München Ost,

Richtung Passau (A94), Ausfahrt Markt Schwaben



Route berechnen

Via Öffentliche Verkehrsmittel

S-Bahn S2 im 20/40-Minutentakt zum Zentrum München bzw. zur Neuen Messe München. Die Stadthalle Erding erreichen Sie in 2 Gehminuten vom Stadtzentrum Erding, bzw. in 10 Gehminuten vom S-Bahnhof Erding (S 2). Ihre Verbindungsinformationen können Sie über folgenden Fremdanbieter-Service abrufen.


Fahrplanauskunft MVV Bahnnetz

Via Flugzeug

Der nächste Flughafen ist der Münchener Flughafen und ist in 20 Minuten mit dem Auto zu erreichen.

Parken

Parken in der städtischen Tiefgarage (P1) mit direktem Zugang zur Stadthalle (Einfahrt Gießereistrasse), zum Veranstaltungstarif von € 6,00.
Am benachtbarten Landratsamt befindet sich eine Ladestation für Elektrofahrzeuge.


Route berechnen zum Parkplatz von Erdinger Stadthalle

Galerie

Impressionen der letzten Jahre

Gallerie 14
Gallerie 15
Gallerie 16
Gallerie 17
Gallerie 1
Gallerie 2
Gallerie 3
Gallerie 4
Gallerie 13
Gallerie5
Gallerie 7
Gallerie 8
Gallerie 9
Gallerie 6
Gallerie 11
Gallerie 12

Klaus Blessing

Klaus Blessing ist seit über 20 Jahren im Microsoft Umfeld und bei der ppedv als Trainer, Berater und Entwickler tätig. Seine Schwerpunkte liegen in den Bereichen Azure, Office 365, SharePoint, SQL Server BI und Power BI. Folgende Zertifizierungen unterstreichen sein Fachwissen: MCT (Microsoft Certified Trainer), MCSD (Microsoft Certified Solutions Developer), MCSE (Microsoft Certified Solutions Expert), MCSA (Microsoft Certified Solutions Associate), MCITP (Microsoft Certified IT Professional) und MCTS (Microsoft Certified Technology Specialist).

Kirill Panov

Kirill Panov hat mehr als 10 Jahre Erfahrung in der Verwaltung und Optimierung der Leistung und in der Entwicklung von Datenbanken wie MS SQL und Oracle. Er hat Berufserfahrung in Unternehmen wie Microsoft Russland und Sberbank sowie mit Kunden mit sehr großen SQL Server (mehr als 50TB) Datenbanken. Kirill ist mehrfacher Sprecher bei 24 Hours of PASS Russian Edition- Events. Sein Wissen bestätigen auch seine zahlreichen Microsoft Zertifizierungen zum MCSE (Microsoft Certified Solution Expert Data Management and Analytics), MCSA (Microsoft Certified Solution Associate Database Development und SQL Server 2012/2014 ), MCITP: Database Administrator (Microsoft Certified IT Professional: Database Administrator)

Alexander Klein

Er ist ein Senior Business Intelligence Consultant mit mehr als 15 Jahren Erfahrung. Sein Fokus liegt auf Business Intelligence und Data Warehouse Projekten mit Microsoft Technologien wie dem SQL Server, Power BI, Azure ML oder Cortana Intelligence. Seit 2008 ist er als Selbständiger Consultant in großen und mittleren Projekten in allen Branchen in Europa unterwegs. SQL Saturdays besucht er seit 2013 in ganz Europa.

Andre Essing

Er berät, in seiner Rolle als Technology Solutions Professional, Kunden rund um die Microsoft Data Platform. Bereits seit Version 7.0 sammelt Andre Erfahrungen mit der SQL Server Produktfamilie, wobei er seinen Schwerpunkt auf die Infrastruktur gelegt hat. Spezialisiert hat er sich hierbei auf Mission Critical Systems, High-Availability, Security, Operating und natürlich die Cloud. Neben seiner Tätigkeit bei Microsoft engagiert sich Andre in der Community als Chapter Leader der PASS Regionalgruppe in Bayern und ist als Sprecher auf internationalen Konferenzen anzutreffen.

Tarek Salha

Tarek arbeitet als Digital Solutions Consultant bei T-Systems. Hier entwirft und implementiert er derzeit hauptsächlich Cloud Analytics Solutions im Big Data Bereich. Er entwickelt seit mehr als 8 Jahren mit dem Microsoft Analytics Stack und ist MCSA für die Microsoft Data Platform. Seit 2017 spricht er regelmäßig auch auf Konferenzen, um seine Erfahrungen an andere weiterzugeben.

William Durkin

Er ist Data Platform Architect bei CloudDBA und auf SQL Server Performance Tuning, Hochverfügbarkeit und Systemmigrationen / -upgrades spezialisiert. Geboren in England und seit 2001 im niedersächsichen Emsland Zuhause, arbeitet er seit über 10 Jahren mit SQL Server und hat Erfahrungen als Datenbankentwickler, Datenbankadministrator und Systemarchitekt gesammelt. William wurde 2017 als Data Platform MVP ausgezeichnet.

Benjamin Weissman

Er ist Inhaber und Senior Consultant bei Solisyon und ist Microsoft Data Platform MVP, BimlHero, MCSE, MPP Member für Data Science und Big Data sowie Certified DataVault Data Modeller. Er arbeitet seit Version 6.5 mit dem SQL Server, sein Fokus liegt auf den Themen Business Intelligence, Corporate Performance Management sowie Datawarehousing.

Torsten Strauß

Torsten (MVP, MCSE, MCT) beschäftigt sich seit der Jahrtausendwende mit dem Microsoft SQL Server und ist auf die Leistungsoptimierung für große SQL Server Umgebungen spezialisiert. Er ist seit über zwei Jahrzehnten bei bp als Database Engineer tätig und arbeitet eng mit Sarpedon Quality Lab als Principal Consultant für Microsoft SQL Server zusammen. Torsten ist der Gründer von inside-sqlserver.com und hat mehr als 170 Vorträge zum Thema Microsoft SQL Server Performanceoptimierung auf nationalen und internationalen Konferenzen und User Groups gehalten. Seit 2018 ist Torsten als Microsoft Most Valuable Professional für Data Platform ausgezeichnet.

Georg Urban

Er arbeitet bei der Microsoft GmbH als Technologieberater für die Application Platform in Berlin und überall, wo er gebraucht wird. Seine Lieblingsthemen sind Aufzucht und Pflege von Datenbank- und Business Intelligence-Applikationen mit dem SQL Server. Er ist Leitautor des Standardwerks "Microsoft SQL Server 2008 R2 - Das Entwicklerbuch" und leitet zusammen mit Markus Raatz die PASS Regionalgruppe in Berlin.

Thomas Hütter

Thomas hat einen Abschluss als Diplom-Betriebswirt, ist aber seit den Tagen von Turbo-Pascal Entwickler mit Leib und Seele. Er kam mit dem SQL Server zum ersten Mal mit V6.5 in Berührung und hat Covering Indizes eingesetzt schon bevor sie zum Feature wurden. Thomas kam 2001 zur Entwicklung in Navision-Umgebungen (ein Jahr bevor Microsoft Navision übernahm), ist PASS Mitglied seit 2006 und beschäftigt sich mit R seit 2014 (dem Jahr bevor Microsoft Revolution Analytics kaufte), seit 2020 auch mit der Power Platform. Nebenbei ist er gerne als Sprecher auf SQL-Events in Europa unterwegs.

Andreas Wolter

Andreas Wolter ist ehemaliger Program Manager für Access Control in Azure SQL und SQL Server bei Microsoft USA. In dieser Rolle leitete er den Entwurf des externen Autorisierungssystems, das von Purview-Policies und Azure database unter Fabric verwendet wird und ist außerdem verantwortlich für die rund 50 neue Permissions und neuen Server- und Datenbankrollen in SQL Server 2022. Als einer von nur 7 Microsoft Certified Solutions Master für Data Platform (MCSM) weltweit ist er regelmäßiger Sprecher auf internationalen Konferenzen und war bis zu seinem Wechsel zu Microsoft Jahrelang aktiver MVP in der deutschen Data Platform Community. Er ist der Gründer der auf SQL Server HA, Performance und Sicherheit spezialisierten Firma Sarpedon Quality Lab Deutschland und seit seinem Rücktritt bei Microsoft leitet er die US-amerikanische Partnerfirma Sarpedon Quality Lab LLC von seiner neuen Heimat in den USA aus. Sein Blog befindet sich unter: https://andreas-wolter.com/blog/

Sandra Geisler

Sie arbeitet als promovierte Wissenschaftlerin am Fraunhofer Institut für Angewandte Informationstechnik FIT in der Abteilung Life Science Informatik in Sankt Augustin. In den Bereichen Life Science und Gesunheitsheitswesen befasst sie sich mit dem Entwurf und der Implementierung von Informationssystemen allgemein und Big Data-Lösungen im Speziellen. Ihre Interessengebiete umfassen insbesondere das Data Stream Management und das Data Quality Management. Des Weiteren ist sie Dozentin in Kursen des Instituts im Bereich Data Science und Data Management. Ihr Doktortitel im Bereich Informatik wurde ihr 2016 von der RWTH Aachen University verliehen.

Wolfgang Strasser

Er erstellt in seiner täglichen Arbeit als Business-Intelligence-Berater Lösungen auf Basis der Microsoft Data Platform. Ob mit der SQL Server Database Engine, SSIS, Reporting mit SSAS und SSRS, Implementierung von Power-BI-Lösungen oder Cloud-Tools zur Datenanalyse - die Data-Tools-Landschaft erweitert sich jeden Tag! Wolfgang teilt sein Wissen auf zahlreichen nationalen und internationalen Veranstaltungen mit der Community. Für seine Community-Arbeit wurde Wolfgang im Oktober 2015 mit dem Microsoft MVP Award für Data Platform ausgezeichnet.

Uwe Ricken

Seit 1991 bin ich in der IT tätig. Mit dem Microsoft SQL Server beschäftige ich mich seit der Version 6.0. Die Entwicklung von Datenbanksystemen begann 1998 mit einem CRM-System basierend auf Microsoft SQL Server und Microsoft Office. Seit dem Jahre 2008 beschäftige ich mich ausschließlich mit den Technologien des Microsoft SQL Servers und arbeite schwerpunktmäßig für Banken, Versicherungen und globale Konzerne. Wenn es mal nicht um Microsoft SQL Server geht, schreibe ich über meine alltäglichen Erfahrungen mit Microsoft SQL Server :). Mein Blog ist ausschließlich in Deutsch, da ich die "Deep Dive" Blogs bisher alle nur in englischer Sprache vorgefunden habe. Durch meinen Blog möchte ich gerne all denjenigen Lesern einen tieferen Einblick in die Technologien des Microsoft SQL Servers geben, die kein Englisch sprechen / lesen. Seit Mai 2013 bin ich einer von - aktuell - 7 Microsoft Certified Master: SQL Server 2008 in Deutschland

Markus Ehrenmüller-Jensen

Markus Ehrenmüller-Jensen ist Gründer von Savory Data und selbständiger Berater für Kunden unterschiedlichster Branchen im Bereich Data Engineering, Datawarehouse, Data Science und Business Intelligence als Projektleiter und Trainer. Er ist ausgebildeter Software-Ingenieur, studierter Wirtschaftspädagoge und Professor für Projektentwicklung und Datenbanken an der HTL Leonding und ist als MCSE Data Platform und Business Intelligence und als MCT zertifiziert. Markus hält regelmäßig Vorträge auf internationalen Konferenzen (z. B. PASS Summit, SQLBits, SQL Days, SQL Saturdays, Power BI World Tour, ...) und schreibt Artikel für renommierte Fachzeitschriften. Sein aktuellstes Buch „Self-Service AI with Power BI Desktop" ist bei 2020 Apress erschienen. 2013 hat er die Data Community Austria mitgegründet und organisiert monatliche Treffen und den jährlichen Data Saturday in Österreich. Seit 2017 wurde er für sein aktives Engagement in der Community als Microsoft Data Platform MVP ausgezeichnet.

Klaus Aschenbrenner

Er arbeitet als selbständiger SQL Server Consultant. Er beschäftigt sich bereits seit mehreren Jahren mit der Windows-Programmierung und seit dem Sommer 2000 mit dem .NET Framework. Im Januar 2004 wurde er für sein Engagement als Microsoft MVP ausgezeichnet. Seine Spezialgebiete umfassen die Datenbankentwicklung, das Troubleshooting und das Monitoring des SQL Servers. Klaus ist weiters Autor des Buches Pro SQL Server 2008 Service Broker, das im Sommer 2008 im Apress Verlag erschienen ist.

Markus Raatz

Markus Raatz spricht regelmäßig auf deutschen und internationalen Konferenzen zu Business Intelligence-Themen und ist zusammen mit Ruprecht Dröge (†) und Jörg Knuth Autor der Bücher zum SQL Server bei Microsoft Press seit der Version 2005. Er hat bei video2brain verschiedene Trainingsvideos zum SQL Server veröffentlicht und leitet die Regionalgruppe Berlin der SQLPASS. Er ist Vorstandsvorsitzender der Ceteris AG, die sich auf Datenverarbeitung mit Microsoft-Tools spezialisiert hat, und zurzeit halten ihn hauptsächlich tabellarische Modelle mit den Analysis Services des SQL Server 2017 in Atem.

Christoph Seck

Er arbeitet als BI Architekt für die KI Performance und setzt dort BI Projekte im Microsoft Umfeld um. Mit dem MS BI Stack beschäftigt er sich schon seit über 15 Jahren.
Außerdem ist er Gastdozent an der Uni Hildesheim, Mitgründer und RGV der PASS Gruppe Hannover/Göttingen und regelmäßiger Sprecher in PASS Gruppen und auf Konferenzen zu Themen aus den Bereichen Datenbanken, BI und agile Vorgehensmodelle.

Benjamin Weisman

Er ist Microsoft Data Platform MVP, BimlHero, MCSE, MPP Member für Data Science und Big Data sowie Certified DataVault Data Modeller. Erarbeitet seit Version 6.5 mit dem SQL Server, sein Fokus liegt auf den Themen Business Intelligence, Corporate Performance Management sowie Datawarehousing.

Björn Peters

Björn Peters arbeitet als Microsoft Data Platform Senior Consultant für Kramer&Crew deutschlandweit, hier unterstützt er seine Kunden bei Fragen, Themen und Problemen rund die Microsoft Data Platform insbesondere SQL Server und deren Datenbanken, erstellt und beurteilt Data-Platform-Solutions nach Kundenvorgaben und setzt diese entsprechend in Projekten gemeinsam mit dem Kunden um. Seit einigen Jahren (2012) ist er Mitglied in der PASS Deutschland und engagiert sich dort als Volunteer und Sprecher, im Oktober 2016 startete er das Hamburger Azure Meetup wo er monatlich zu Vorträgen einlädt. Aufgrund seiner Community-Aktivitäten wurde Björn im April 2017 von Microsoft mit dem MVP-Award ausgezeichnet und konnte diese Auszeichnung auch in 2018 und 2019 wieder erlangen.

Gregor Reimling

Gregor ist bei der adesso SE als Managing Consultant und Cloud Solutions Architect für Azure tätig. Seine Schwerpunkte sind Azure-Architekturen und Themen wie Governance, Hybride Infrastrukturen, Migration und Sicherheit. Gregor nimmt regelmäßig an Community-Konferenzen teil, betreibt einen eigenen Azure-Blog (www.reimling.eu), den Cloud Inspires-Podcast und ist Gründer des Azure Bonn Meetups, einer lokalen Azure-Community in der Nähe von Köln, die u.a. jährlich den Cloud Identity Summit organisiert.. Seit 2018 ist er mit dem MVP Award für Microsoft Azure ausgezeichnet und ist Microsoft Certified Trainer.

Torsten Ahlemeyer

Als IT-Consultant hilft Torsten Ahlemeyer den Kunden der arelium GmbH hauptsächlich in der Rolle des Projektleiters, SCRUM-Masters oder als Architekt, DB-Berater und T-SQL-Spezialist bei der Umsetzung komplexer Datenbankprojekte. Mit dem SQL Server beschäftigt er sich beruflich seit dem Jahr 2003. Sein Steckenpferd sind aber DB-Optimierungsaufgaben sowie ungewöhnliche und komplizierte Abfragen mit T-SQL. Auch Bereiche wie SSAS, SSIS oder das Reporting per SSRS und jetzt natürlich auch PowerBI sind in seinem Fokus. Daneben gibt der Wirtschaftsinformatiker sein Wissen als Referent in Schulungen, Workshops und auf IT-Konferenzen weiter oder schreibt als Autor Fachbeiträge für IT-Magazine.

Milos Radivojevic

Milos Radivojevic ist Datenbankexperte aus Wien, Österreich. Seit mehr als 20 Jahren beschäftigt er sich mit der Microsoft Data Platform und spricht regelmäßig auf nationalen und internationalen Datenbankkonferenzen. Er ist Head of MSSQL Database Engineering bei Entain. Außerdem ist er Koautor von drei SQL Server-Büchern: "Mastering SQL Server 2017", "SQL Server 2017 Developer’s Guide" und "SQL Server 2016 Developer’s Guide".

Stefan Kirner

Stefan Kirner ist Director Business Intelligence bei der scieneers GmbH und beschäftigt sich seit dem SQL Server 2000 mit der Microsoft Data Platform. Er ist mittlerweile Azure Data Engineer Associate sowie MCSE für Cloud Platform and Infrastructure und Data Management and Analytics.

Stefan Grigat

Stefan Grigat ist Solution Architect bei der Volkswagen AG. Als MSCE BI arbeitet er bereits mehr als 13 Jahre mit dem SQL-Server. Seit Version 2005 liegt der Schwerpunkt seiner Tätigkeit auf der Entwicklung mit SSIS, SSRS und SSAS. Er verfügt über langjährige Erfahrung beim Aufbau von Hochverfügbarkeitslösungen für Trading- und Kraftwerksysteme. Zudem berät er Kunden unterschiedlicher Branchen in den Bereichen Datenanalyse und Auswertung sowie ETL-Workflow und Reporting. Sein vielfältiges Theorie- und Praxiswissen vermittelt Stefan in Schulungen.

Imke Feldmann

Imke Feldmann arbeitet als freiberufliche Beraterin für die Microsoft Power Platform (Power BI, Power Apps, Flow und Modern Excel). Sie gibt Schulungen und entwickelt Lösungen vor Ort oder auch remote für Kunden in der ganzen Welt. Zuvor hat sie als Finance Director und Controllerin langjährige Erfahrungen im Finanz- und Rechnungswesen sammeln können. Sie ist zertifiziert als Expertin für Power BI und Excel (MCSA-BI) und Microsoft Trainer (MCT) für Power BI. Sie ist sehr aktiv in der Community und bloggt über die Power Platform auf Ihrem Blog.

Patrick Wahlmüller

Automatisierung ist der Fokus von Patrick. Dazu verwendet er vorrangig PowerShell unterstützt durch System Center Orchestrator und System Center Service Manager. Patrick ist PowerShell MVP und Mitgründer von ExpertsLive Austria und der PowerShell Usergroup Austria.

Haiko Hertes

Haiko Hertes hat nach seinem Informatik-Studium zunächst einige Jahre als Microsoft-Trainer im Infrastruktur-Umfeld gearbeitet, ehe er als IT-Leiter in die Automobilbranche wechselte. Seit 2019 ist er als Azure Architect & Principal Consultant bei SoftwareONE tätig. Er ist dieses Jahr bereits zum siebten Mal in Folge von Microsoft als MVP ausgezeichnet worden. Er organisiert diverse Meetups in Leipzig, beschäftigt sich viel mit Fotografie und Holzbearbeitung und ist Hauptmann der Reserve in der Bundeswehr sowie Familienvater.

Peter Kessler

Peter Kessler ist seit über 15 Jahren freiberuflicher Consultant und Trainer zu Themen im Backend von ERP-Systemen. Er ist Diplom-Kaufmann und hält zahlreiche Zertifikate von Microsoft (u.a. MCT, MCSE Data Management and Analytics, MCSA Machine Learning) und Scala Business Solutions.

Robert Lochner

Robert Lochner ist Gründer der Linearis GmbH, Entwickler der SaaS Lösung data1.io und Mitbegründer des Power BI Camps. Seit seinem Betriebswirtschaftsstudium an der WU Wien ist er als Unternehmer in der BI Branche tätig, ist Trainer für Power BI und unterstützt Unternehmen bei der digitalen Transformation ihrer Business Intelligence Prozesse mit Microsoft BI Produkten. Er ist Autor des Linearis Blogs und mehrerer fachlicher Publikationen.

Jörg Knuth

Jörg Knuth ist Berater mit mehr als 18 Jahren Erfahrung bei der Ceteris AG. Datenvisualisierung ist dabei ein zentrales Thema mit dem er als IBCS® zertifizierter Berater immer wieder als Trainer und Sprecher tätig ist. Er verantwortet als Projektleiter im Umfeld von DWH, Analyse-Datenbanken und Berichtsportalen. Auch mobile Fragestellung sind in diesem Zusammenhängen nicht mehr wegzudenken.

Oliver Lux

Dr. Oliver Lux, Data Engineer & Anwendungsentwickler, arbeitet seit seinem Doktortitel der Astrophysik im Team der arelium GmbH mit dem Fokus auf SQL Server und Business Intelligence. In verschiedenen Kundenprojekten hat er Erfahrung zu Themen rund um Business Intelligence, Reporting und Data Analytics erlangt. Er ist Spezialist für die Analyse großer Datenmengen und erfahren in der Programmiersprache Python. Dazu kennt er sich sehr gut mit Power BI aus.

Markus Schröder

Markus Schröder ist seit 18 Jahren als Principal Presales Consultant bei Quest angestellt. Er hat Top Expertise in Virtualisierung, SaaS und Integration.

Christopher Münch

Christopher Münch hat einen Bachelor in Informatik. Er verfügt über langjährige Erfahrung im Umgang mit C#.NET, der Business Intelligence Umgebungen rund um den Microsoft SQL Server (SSIS, SSRS, SSAS, Abfragen mit Cubes, MDX, …) und ist Spezialist für die Azure Plattform. Die arelium GmbH unterstützt er als Entwickler in spannenden Kundenprojekten bei Fragen rund um die Bewältigung und die effiziente Auswertung großer Datenmengen mit dem SQL Server sowie den Aufbau von ETL-Umgebungen in der Cloud.

Ralf Richter

Ralf Richter | Lead Developer und Solution Architect | Trainer | Community Leader – Azure Dev Meetup Munich
Seine Expertise umfasst beinahe 20 Jahre Software Entwicklung mit umfangreichen Cutting Edge Projekten aus dem Automotive und Industry 4.0 Bereich mit einem Schwerpunkt auf IoT und MS Azure.

Thorsten Kansy

Thorsten ist seit über 25 Jahren als unabhängiger Softwarearchitekt, Entwickler und Trainer international tätig. Zudem schreibt er Bücher und Artikel rund um seine Spezialthemen: die Entwicklung komplexer Anwendungen mit .NET im Microsoft-Serverumfeld, insbesondere SQL Server (Data Platform und Business Intelligence). Er ist MCITP, MCTS, MCDBA, MCSD, MCAD, MCPD, MCSE+I und MCT-zertifiziert und sowohl in den Sprachen C# als auch VB.NET zu Hause.

Daniel Caesar

Daniel ist seit 1992 selbständig und hatte bis 2014 ein Einzelunternehmen geführt. Auf Grund der Aufteilung Projektgeschäft und Seminare wurde 2014 die sqlXpert GmbH gegründet. Seine Kunden unterstützt er bereits seit mehr als 20 Jahren bei der Einführung, Optimierung und Entwicklung von Microsoft SQL Server-Lösungen. Später folgte dann SharePoint. Sein Wissen vermittelt er als Autor, bzw. freiberuflich als IT-Berater und –Trainer im deutschsprachigen Raum.

Martin Guth

Martin Guth (39) ist seit mehr als 13 Jahren begeisterter BI-Entwickler. Seit mehr als 7 Jahren ist er auch als Datenbankadministrator unterwegs. Martin arbeitet bei der 3C Deutschland GmbH (Experian DACH) in Heilbronn. Aus seiner Arbeit als BI-Entwickler ist er besonders stolz darauf, ein DWH von Grund auf aufgebaut und darauf basierende Analyseprodukte ausgeliefert zu haben. Als Datenbankadministrator begeistert er sich vor allem für Performance Tuning. Martin teilt seine Erfahrungen (absichtlich unregelmäßig) auf seine Blog unter martinguth.de.

Alexander Karl

Alexander Karl ist Datenbank-Entwickler und zertifizierter Microsoft Trainer für Windows, SQL Server und die Azure-Cloud bei der .net-CDE GmbH Seit über 20 Jahren beschäftigt er sich mit Datenbank-, Datawarehouse- und Reportinglösungen vom Mittelstand bis zur Konzernebene. Dabei reicht das Spektrum von Serversizing über performanceoptimierter Programmierung bis hin zum Report- und Chartdesign. Schulungs- und Seminarteilnehmern vermittelt er theoretisch fundiertes Wissen ergänzt mit seinen Praxiserfahrungen und zeigt die praktische Umsetzung.

Martin Kopp

Martin Kopp hat mit Markus Delhofen zusammen die arelium GmbH vor über 15 Jahren gegründet. Er ist in Projekten als Berater, Projektleiter, Architekt und Entwickler im Data Engineering-Umfeld tätig. Seine Projekterfahrung umfasst den kompletten Lebenszyklus, von der Anforderungsanalyse, dem Moderieren von Workshops, der Entwicklung und der Schulung von Anwendern. Seine Lieblingsthemen sind zur Zeit Power BI, der SQL Server mit seinen BI-Tools und Azure Synapse.

Christopher Pfister

Christopher Pfister arbeitet als Senior Data Engineer & Cloud Architect bei der Handelsblatt Media Group in Düsseldorf. In seine Aufgabenbereiche fallen die Entwicklung von Umsatzreportings & Datenmodellen, Einrichtung & Wartung von Systemen auf der Azure-Plattform und die Implementation von Anwendungen & ETL-Prozessen. Sein Schwerpunkt liegt hierbei auf den Technologien rund um Azure, PowerBI und Databricks. Er verfügt über Erfahrung mit verschiedensten Sprachen u.a. SQL, Python, C#, C/C++, Swift, JavaScript & PHP, Cloud-Technologien und DWH-Systemen.

Michael Rother

Seit seinem Studium arbeitet Michael in der Netzwerkadministration und dem Datenbankbereich. Er durfte im In-und Ausland an einigen Datenbankprojekten mitwirken, die noch immer führend in ihrem Bereich sind. Seit 1998 liegt sein Schwerpunkt auf dem SQL Server. Auch hier konnte er einige interessante Projekte realisieren. Er arbeitet heute als freier Berater hauptsächlich im Datenbankumfeld. Als MCSE (Data Plattform) und MCT ist er in der Lage für seine Kunden auch über den Tellerrand des Datenbankadministrators hinaus zu blicken. Seine Kunden schätzen besonders an ihm, dass er die eher theoretische Arbeit als Trainer und seine praktischen Erfahrungen als Berater und Administrator für sie gewinnbringend verbinden kann.

Alexander Arndt

Alexander Arndt ist Solution Consultant bei der ITGAIN Consulting Gesellschaft für IT-Beratung GmbH und seit knapp 6 Jahren in Projekten und im Managed Service als IT-Consultant tätig.
Dabei konnte er Erfahrungen in der Administration, Projektführung und Organisation von Serverumgebungen verschiedener Größenordnungen und Betriebssysteme sammeln. Der Schwerpunkt seiner Tätigkeit liegt im Datenbankumfeld auf SQL Server und Db2. Er ist zertifizierter Azure Database Administrator Associate sowie MCSA für SQL 2016 Database Administration.

BI Spektrum

Alle Teilnehmer der SQLdays 2022 erhalten exklusiv ein kostenfreies Probeabo von BI-SEPKTRUM!

Mit Fachartikeln über Trends in den Bereichen Business Itelligence und Data Warehousing richtet sich das Magazin an Entwickler, Berater und Wissenschaftler. Es liefert Anwendungsfälle aus der Praxis (Case Studies) und präsentiert Meinungen zu aktuellen Themen, sowie Neuigkeiten für die BI-Community.

Mehr erfahren
redgate

Redgate ist der führende Anbieter von Softwarelösungen für Compliant Database DevOps. Wir sind seit über 20 Jahren auf Datenbanksoftware spezialisiert.

Heute helfen unsere Produkte 800.000 Menschen in jeder Art von Unternehmen auf der ganzen Welt, von kleinen Unternehmen bis hin zu 91 % der Fortune 100.

Unsere Lösungen erleichtern das Leben von Entwicklungsteams, Betriebsteams und IT-Leitern, indem sie die Datenbankherausforderungen bei der schnellen Bereitstellung von Software lösen.

Unabhängig davon, ob sie branchenführende Produkte wie Redgate Deploy und SQL Monitor oder unser Open-Source-Framework Flyway verwenden, profitieren Teams von einer schnelleren Entwicklung, Datenbank-DevOps und einem sicheren, konformen Ansatz für die Bereitstellung.

Mehr erfahren
redgate

Sharepoint360.de – Ihre Quelle für Top-News und Fachartikel rund um Microsoft Sharepoint, Office und Enterprise Social Networking.

Entscheider, IT-Manager und Enterprise-Content-Spezialisten erfahren hier die neuesten Trends und Technologien rund um die Microsoft-Plattform.

Mehr erfahren
ITGAIN

Mit uns wird IT einfach.

Wir sind Konzeptdenker, Projektlenker und Umsetzer.

Wir glauben daran, dass wir den Status-Quo ändern können.

Wir sind Anwendungs-Modernisierer, IT-Architekten, Mainframe-Migrierer. Service-Manager, Software-Ingenieure, Datenbank-Versteher, Daten-Modellierer und Analytics-Könner. Mit modernsten Technologien. Mit Wissen und Methode. Mit Kompetenz, Konstanz und Kreativität – und immer mit Herz und Verstand. Unser 134-köpfiges Team sind Möglichmacher, Tüftler und Weiterdenker.

Mehr erfahren
DBSchema

DbSchema ist ein universelles Datenbank-Design-Tool für sofort einsatzbereites Schema-Management, Schema-Dokumentation, Design im Team und Einsatz auf mehreren Datenbanken.

DbSchema ist mit allen SQL- ( SqlServer, Postgres, MySql... ) und einigen NoSQL-Datenbanken (MongoDb, Cassandra...) kompatibel.
DbSchema verwendet ein eigenes Abbild des Schemas, das so genannte Entwurfsmodell, das auf mehreren Datenbanken eingesetzt, in einer Datei gespeichert und in einem Team mit GIT gemeinsam genutzt werden kann.

Auf diese Weise können Teams ein Schema entwerfen, es von den Testern testen lassen und die Administratoren es in der Produktionsdatenbank einsetzen.
DbSchema vergleicht das Modell mit der Datenbank und fasst die Unterschiede in der Datenbank oder im Entwurfsmodell zusammen.

Das Tool kann eine HTML5-Schemadokumentation mit interaktiven Diagrammbildern erstellen, bei der die Kommentare als Tooltips beim Hovern mit der Maus gelesen werden können.

Mehr erfahren
ppedv AG

Die ppedv AG ist Ihr Microsoft-Experte und steht seit 25 Jahren für qualifizierte Weiterbildung rund um das Thema IT. Als Microsoft Partner bieten wir IT-Trainings sowohl im Virtual Classroom als auch in Präsenz an - für Anwender, Entwickler und Administratoren. Mit praxisnahen Schulungen unterstützen wir unsere Kunden dabei, Wissenslücken zu schließen und Gelerntes in der Praxis umzusetzen. Außerdem sind wir Veranstalter einiger namhafter IT-Events in Deutschland und Österreich.

Weiterbildung liegt uns am Herzen. Investition in Weiterbildung lohnt sich in jedem Unternehmen. Durch Top ausgebildete Trainer helfen wir, Ihre Mitarbeiterkompetenzen zu steigern. Das wirkt sich langfristig positiv auf den gesamten Unternehmenserfolg aus.

IT-Trainings finden in Voll-/Teilzeit im erprobtem Virtual Classroom statt, wodurch Sie völlig flexibel bleiben und sich nicht nur Zeit sondern auch Geld einsparen. Nutzen Sie Ihre Vorteile indem Sie uns als Ihren professionellen IT-Bildungspartner vertrauen und überzeugen Sie sich selbst. Sagen Sie Ja zu mehr IT-Know-how! Ihr nächstes IT-Training steht schon für Sie bereit.

Mehr erfahren

Charles Jeackisch

Charles Mike Jäckisch ist seit 2019 Account-Director bei Redgate. Mit seiner jahrzentelangen Erfahung unterstützt Charles IT Fachleute aller Branchen und Größe dabei, Herausforderungen im Zusammenhang mit Datenbanken erfolgreich und effizient zu meistern.

Marko Coha

Marko Coha ist ein Solution Engineer, der den Schwerpunkt auf die Zusammenarbeit mit Unternehmen legt, um eine kontinuierliche Verbesserung innerhalb ihrer IT-Funktion durch die Einführung von Best Practices für die Softwarebereitstellung zu erreichen. Er verfügt über mehr als ein Jahrzehnt Erfahrung in der Zusammenarbeit mit IT-Fachleuten aus einer Vielzahl von Unternehmen aller Größen und Branchen, wo er sich auf die Lösung von Produktivitätsproblemen konzentriert hat.

Thomas Kronawitter

Thomas ist der festen Überzeugung, dass DevOps eine gemeinsame Kultur und keine Managemententscheidung ist. Als Leiter von drei Teams aus Datenbankadministratoren und Systemingenieuren besteht seine Hauptaufgabe darin, dafür zu sorgen, dass sie ihn nicht brauchen, um sich selbst zu managen.
Da er sein ganzes Berufsleben lang Datenbankadministrator und Systemingenieur und die andere Hälfte seines Lebens Rettungssanitäter war, teilt er seine Zeit damit, Gemeinsamkeiten zwischen scheinbar unterschiedlichen Berufen zu finden und seinen Erzfeind zu bekämpfen: Den NOLOCK-Hinweis.
Er arbeitet für die GRENKE Gruppe, die Finanzlösungen für Unternehmen und Unternehmer in 32 Ländern auf der ganzen Welt anbietet.

Dragos Pruteanu

Dragos Pruteanu ist der Gründer von Wise Coders GmbH, der Firma, die den DbSchema Database Designer geschrieben hat. Dragos ist lizensierter Computer-Ingenieur, Java und Oracle Certified Professional, und arbeitete bei eCircle und Mapp München.

Magdalena Zielinksa

Magdalena Zielinska ist Data Analystin bei der Deutschen Rentenversicherung Bund. Außer statistischen Auswertungen beschäftigt sie sich auch mit Implementation von Anwendungen sowie ETL-Prozessen. Zudem arbeitet sie als Mentorin für Business Intelligence bei FrauenLoop, einem Programm für Frauen die einen Quer-Einstieg in den Arbeitsbereich IT erreichen möchten.

Markus Fraune

Herr Fraune ist seit über 15 Jahren in IT-Projekten, überwiegend in den Bereichen Bankwesen und Versicherungen sowie Handel, tätig. Sein technischer Schwerpunkt sind Datenbanksysteme, insbesondere IBM Db2, und deren Performance. Er ist ausgewiesener Experte in diesem Umfeld (IBM Champion 2020, 2021) und drüber hinaus Produkt-Owner der Datenbank Performance Monitoring Lösung „Speedgain for Db2". DevOps-Themen und die in dem Bereich verwendeten Tools wie u.a. Docker, Ansible, Terraform, AWX/Tower gehören zu seinem festen Projektalltag.
Als Speaker auf nationaler und internationaler Ebene trägt Herr Fraune regelmäßig relevante Themen vor und tauscht sich aktiv mit der Community dazu aus. Durch diverse Projekte im Bereich Kreditkartenverarbeitung, Geldtransaktionen und E-Business erreichte Herr Fraune eine Expertise im Bereich Security, sodass er diverse Audits im Bereich PCI-DSS und Prüfungen des TÜV zur Zertifizierung transaktionaler Services begleitete.

Steffen Krause

Steffen Krause arbeitet bei Microsoft als Cloud Solution Architect und Global Black Belt and Hybrid.

Joel Galla

Joël Galla, Data Engineer & Data Analytics, ist ausgebildeter Volkswirt. Er ist spezialisiert auf Statistik und quantitative Methoden. Im Rahmen seiner Ausbildung hat er Erfahrungen in R und Python gesammelt. Als Data Engineer befasst er sich mit den Technologien SQL Server und Azure Synapse. Seine besondere Qualifikation liegt im Bereich Data Analytics mit Microsoft Power BI.

David Schäfer

David Schäfer arbeitet bei HMS Analytical Software seit über 13 Jahren. Ambitionierte IT Projekte im internationalen Umfeld sind seine persönliche Leidenschaft. Seine Kunden unterstützt er mit Empathie dabei, innovative Lösungen für ihre Geschäftsprozesse zu finden. Gerne unterstützt er auch Sie bei Ihren IT Projekten!

Ralf Dietrich

Als Database Architect und ehemaliger Kollege von Andreas Wolter ist mir der SQL Server seit der Version 6.5 bestens vertraut. Meine Schwerpunkte: Architekturen und Design für hoch verfügbare und hoch sichere zielorientierte Umgebungen. Praktikabel und wirtschaftlich. Dank meiner langjährigen Erfahrung in den Branchen Logistik, Handel, Industrie und Finanzen sind mir dabei nicht nur die Tücken von IT-Prozessen gut bekannt. Neben meiner Tätigkeit als Geschäftsführer bin ich auch in Themen wie Prototyping, Code-Reviews und forensische Analysen zuhause. Mein Wissen und meine Erfahrung gebe ich in „Coachings on the Job" und auf Konferenzen sowie im Rahmen PASS gern an Sie weiter.

Lars Lawrenz

Seit der SQL Server in 2007 mein Interesse geweckt hat, hat sich dieser zu einem meiner Werkzeuge entwickelt, mit dem ich arbeite. Dabei sind meine Schwerpunkte die Architektur von hochverfügbaren Datenbanksystemen und -strukturen. Ich verfolge einen umfassenden Ansatz bei der Performanceanalyse und -optimierung, welchen ich durch langjährige Erfahrung im Bereich der Infrastruktur und Anwendungsentwicklung verfeinern konnte. Ich konnte außerdem einen weitreichenden Erfahrungsschatz in unterschiedlichen Projekten sammeln, welche sich mit Datawarehouse, deren Ladeprozessen und ebenso der Auswertung mit Power BI und den SQL Server Reporting Services beschäftigten. Weiterhin ist mir die Sichtweise von Fachseiten, durch meine langjährige Tätigkeit als Leiter der Softwareentwicklung, bekannt, so dass ich auch dort unterstützend zur Seite stehen kann.

Miklas Horstmann

Miklas Horstmann arbeitet seit 2019 als Data Analytics Architekt bei der Informationsfabrik. Sein Tätigkeitsschwerpunkt liegt in der Konzeption und Implementierung von modernen Self-Service-Plattformen. Er ist für die inhaltliche und personelle Weiterentwicklung des Clusters Analytics Solutions bei der Informationsfabrik verantwortlich.

Rainer Klomps

Rainer Klomps blickt auf inzwischen bereits über 25 Jahren Erfahrung im IT-Bereich zurück. Seine Karriere begann er als Software-Entwickler, seit über 20 Jahren berät er als Senior Consultant im Oracle- und Microsoft-Umfeld. Rainer betreut Kunden aus den unterschiedlichsten Branchen bezüglich Datenbanken und Infrastrukturen. Zu seinen Expertisen zählen Performance-Tuning, Health-Checks, Hochverfügbarkeitslösungen, Datenbankmigrationen und Beratung rund um den reibungslosen Betrieb von Microsoft Infrastrukturen. Microsoft SQL Server und MS Azure zählen seit 2019 zu Rainers umfassendem Repertoire.

Mainzer Datenfabrik

Was wir tun, tun wir gerne
Die Mainzer Datenfabrik GmbH ist ein wachsendes IT-Beratungsunternehmen, das sich auf die Spezialisierung und Beratung rund um Microsoft SQL Server und Azure-Technologien fokussiert hat. Seit 2019 betreut unser Team bundesweit Unternehmen im Bereich der IT Enterprise Infrastrukturen und unterstützt diese bei der Installation, Konfiguration, Leistungsoptimierung und Fehlerbehebung von komplexen SQL-Server-Landschaften.

Unser Team macht den Unterschied
Unser Team besteht aus erfahrenen und zertifizierten Expert:innen, die über umfangreiches Know-how im Bereich Microsoft SQL Server und Azure verfügen. Wir sind spezialisiert auf die Planung, Implementierung und Optimierung von SQL Server-Datenbanken sowie die Migration in die Azure-Cloud. Unser Ziel ist es, sicherzustellen, dass Datenbanken und Analyse-Plattformen reibungslos und effizient funktionieren, um individuellen Geschäftsanforderungen gerecht zu werden. Perfektion, Zuverlässigkeit und Nachhaltigkeit sind das Zentrum unserer Firmenphilosophie – sowohl in unserem Arbeiten als auch in den von uns ausgewählten und veröffentlichten Produkten.

Mehr erfahren

Kathrin Borchert

Kathrin Borchert ist Lead Consultant für BI & Analytics bei drjve

David Winter

David Winter ist Power BI & Data Excellence Enthusiast bei drjve

Data & Security Architect

Andreas Wolter

Andreas Wolter ist ehemaliger Program Manager für Access Control in Azure SQL und SQL Server bei Microsoft USA. In dieser Rolle leitete er den Entwurf des externen Autorisierungssystems, das von Purview-Policies und Azure database unter Fabric verwendet wird und ist außerdem verantwortlich für die rund 50 neue Permissions und neuen Server- und Datenbankrollen in SQL Server 2022. Als einer von nur 7 Microsoft Certified Solutions Master für Data Platform (MCSM) weltweit ist er regelmäßiger Sprecher auf internationalen Konferenzen und war bis zu seinem Wechsel zu Microsoft Jahrelang aktiver MVP in der deutschen Data Platform Community. Er ist der Gründer der auf SQL Server HA, Performance und Sicherheit spezialisierten Firma Sarpedon Quality Lab Deutschland und seit seinem Rücktritt bei Microsoft leitet er die US-amerikanische Partnerfirma Sarpedon Quality Lab LLC von seiner neuen Heimat in den USA aus. Sein Blog befindet sich unter: https://andreas-wolter.com/blog/

Marisol Steinau

Marisol hat ein Studium im Bereich der Wirtschaftswissenschaften und Informatik abgeschlossen. Sie hat mehr als 8 Jahre Erfahrung mit Microsoft-Technologien. Zunächst begann sie mit On-Premises-Technologien wie SSAS, SSIS und SSRS. Seit 5 Jahren arbeitet sie hauptsächlich mit der Azure Cloud. Sie ist Data Solution Architect, leidenschaftlich an Datenarchitekturen interessiert und getrieben, immer am Technology Edge zu arbeiten. Unter anderem beschäftigt sie sich auch mit Azure Admin-Themen, DevOps und Infrastructure as Code. Seit einem Jahr beschäftigt sie sich intensiv mit Microsoft Fabric. In ihrer Freizeit kann man sie öfters im Legoland treffen.

Sebastian Steinau

Sebastian ist Lead Consultant bei Devoteam M Cloud. Er arbeitet dort als Software Architect und Engineer mit Fokus auf verteilter Software und APIs in der Azure Cloud. Er beschäftigt sich außerdem mit DevOps, Git, und Infrastructure as Code. In seiner vorherigen Karriere als Wissenschaftler entwickelte er ein hochskalierbares, datengetriebenes Prozessmanagementsystem. Offen für Neues zu sein und die Neugier haben ihn jetzt auch dazu getrieben, sich mehr mit der Welt von Data zu beschäftigen, insbesondere mit Microsoft Fabric.