Was Hollywood kann, können wir schon lange - und besser. Wir nehmen die größten SQLdays Stars und bieten 2 Tage lang beste Unterhaltung. Statt einen 150 Minuten Monumentalfilm liefern wir über 30 Stunden Material, das sich sehen lassen kann. Spannend, informativ und unterhaltend. Im Gegensatz zum Kino, erleben Sie die Stars ohne Bodyguards hautnah und können Ihnen Ihre Fragen stellen.
Im Laufe von 2 Tagen können Sie so viel Wissen mitnehmen, wie Sie tragen können. Es gibt keine Mengenbeschränkung.
An keinem anderen Ort finden Sie so schnell Gleichgesinnte! We like you!
Daten hier, aber wie analysieren. Ihr SQL Server kränkelt. Die Symptome geben Ihnen keinen Aufschluss. Dann sollten Sie sich doch mal von unseren SQL Therapeuten und Analytikern, wie Klaus Aschenbrenner, Uwe Ricken oder Markus Ehrenmüller beraten lassen.
Die SQLdays stehen dieses Jahr ganz im Zeichen der Praxis. Erfahrungswerte, Einsatzszenarien und Best Practice Tipps und Tricks begleiten Sie 2 Tage lang. Natürlich werden Ihnen auch Einsteigersessions geboten, um Ihnen notwendige Infos für verschiedene Themen vorab zu liefern.
Den ersten Aufruf, die SQLDays mitgestalten zu können, haben bereits einige in Anspruch genommen. Schreiben Sie uns Ihre Wunschsession und wir bieten Ihnen ein Thema an: E-Mail an AndreasR@ppedv.de.
Die EMC Deutschland GmbH ermöglicht Unternehmen und Service Providern, ihre Geschäftsprozesse zu verändern und IT as a Service bereitzustellen. EMC erleichtert IT-Abteilungen mit innovativen Produkten und Dienstleistungen den Weg in die Cloud. Die Informationen als wichtigstes Gut lassen sich mit Lösungen von EMC flexibel, sicher und kosteneffizient speichern, verwalten, schützen und analysieren.
Dell Software unterstützt Kunden bei der optimalen Nutzung ihrer Ressourcen durch skalierbare, kosteneffektive und intuitive Lösungen zur Vereinfachung der IT und zur Vermeidung von Risiken. Das Softwareangebot von Dell bedient die fünf Kernthemen der IT eines jeden Unternehmens: • Data Center and Cloud Management • Mobile Workforce Management • Security • Data Protection • Information Management Im Bereich Information Management bieten wir marktführende Werkzeuge für Administratoren, Entwickler und Business-Anwender zum Arbeiten mit Objekten und Daten. Sowie Lösungen zur Diagnose bei Performanceschwächen, Optimierung von Datenbanken und Datenbankreplikation. Dell bietet durch die Kombination aus Hardware, Services und Software ein Lösungsportfolie für höchste Effizienz und Produktivität Ihrer IT und damit des gesamten Unternehmens.
Hochkarätiges Line-up der SQLdays Konferenz 2015
Andreas Rauch ist Trainer und Leiter des Bereiches Server Solutions der ppedv AG. Er beschäftigt sich seit über 10 Jahren mit Microsoft Server-Systemen und ist Experte für SharePoint-Produkte und -Technologien.
Sein fundiertes Wissen bestätigen auch seine zahlreichen Microsoft Zertifizierungen zum MCSA (Microsoft Certified Systems Administrator), MCITP: Database Administrator (Microsoft Certified IT Professional: Database Administrator) sowie zum MCTS (Microsoft Certified Technology Specialist) für SharePoint.
Berater bei Ceteris AG
Christoph Seck arbeitet als Berater für die Ceteris AG und setzt dort BI Projekte im Microsoft Umfeld um, bereits seit Ende 2010 auch mit den Master Data Services ...
Vorstandsvorsitzender bei Ceteris AG
Markus Raatz spricht regelmäßig auf deutschen und internationalen Konferenzen zu Business Intelligence-Themen und ist zusammen mit ...
Selbständiger SQL Server Consultant
Er beschäftigt sich bereits seit mehreren Jahren mit der Windows-Programmierung. ...
Projektleiter & Trainer
Markus Ehrenmüller-Jensen ist seit 2014 bei runtastic verantwortlich für den Auf- und Ausbau des zentralen Datawarehouse. Daneben betreut er Kunden ...
Microsoft SQL Server
Mit dem Microsoft SQL Server beschäftige ich mich seit der Version 6.0. Die Entwicklung von Datenbanksystemen begann 1998 mit einem CRM-System basierend ...
Sales und Business Manager, EMC Deutschland GmbH
Marc-Philipp Kost, 52 Jahre, ist seit 2014 als Sales und Business Manager bei EMC für den Vertrieb des All Flash Array XtremIO in der Region Deutschland verantwortlich ...
Database Architect
Andreas Wolter (MCM, MCSM und MVP) hat sich mit seiner Firma SARPEDON Quality Lab (www.Sarpedon.de) auf die Entwicklung und Optimierung von Datenbank- und ...
Freiberuflicher IT-Berater & Trainer
Holger Schmeling (Jahrgang 1961) befasst sich mit dem Microsoft SQL Server seit der Version 6.5. Nach seinem Studium der Informationstechnik hat er zunächst als ...
Consultant bei Trivadis GmbH
Andre ist Senior Consultant und Trainer im Bereich SQL Server bei der Trivadis. Er sammelt seit Version 7.0 Erfahrungen mit dem SQL Server und ...
Projektleiter/Senior Software-Ingenieur
David Schäfer beschäftigt sich seit über 10 Jahren mit dem MS SQL Datenbankserver. Er war lange Zeit ...
Sessions der SQLdays Konferenz 2015
Haben Sie auch "Big Data"? Oder sind Ihre Daten einfach nur mittlerweile so groß geworden, dass ihr Datenbank-Server damit seine liebe Mühe hat? Aus dem Big Data-Umfeld kommt die Idee, wie man beliebig große Datenmengen einfach und leicht auswerten kann: indem man automatisch mehrere Server gleichzeitig daran arbeiten lässt! Von Microsoft heißt die Lösung dazu Parallel Data Warehouse (PDW) und ist Teil des Analytics Platform System (APS). Dieser "große Bruder" des bekannten SQL Servers wird hier vom Buchautor Markus Raatz in einem Praxis-Projekt vorgestellt, mit Live-Demo!
Predictive Analysis, Machine Learning, Data Mining: diese Begriffe sind ja gerade in aller Munde. Dieser Vortrag zeigt an einem einfach nachvollziehbaren, praktischen Beispiel, wie es möglich ist, die Zukunft vorherzusagen, anhand einiger bekannter Merkmale! Wir werfen mit den Buchautor Markus Raatz einen Blick auf die aktuelle Microsoft-Lösung „Azure ML“ und hören, was seine Kunden mit dieser Technologie schon mit einfachen Mitteln und ohne Hardware-Investitionen aus Ihren Daten alles herausholen konnten.
Sie haben eine datenbankbasierte Anwendung welche bei steigender Datenmenge immer langsamer und langsamer wird? Dann sind Sie in dieser Session genau richtig! In dieser Session lernen Sie nämlich, wie Sie Abfragen im SQL Server durch ein gezielten Einsatz von Execution Plans tunen können. Hier werden Sie lernen, auf welche Arten der SQL Server Daten abfrägt, in welchen verschiedenen Varianten er Daten zusammengejoined, und wie Sie hier bei Performance-Problemen entsprechend reagieren können.
Wollten Sie immer schon wissen wie der Query Optimizer für ein T-SQL Statement einen physischen Ausführungsplan kompiliert? Wenn ja, dann sind Sie in dieser Doppel-Session genau richtig! Anhand einer einfachen T-SQL Abfrage werden wir mit Hilfe von verschiedenen Trace Flags in die Tiefen des Query Optimizers eintauchen, um besser verstehen zu können, wie anhand von mathematischen Regeln ein physischer Ausführungsplan generiert wird. Im ersten Teil der Session werden wir uns der Optimization Pipeline des Query Optimizers widmen, die Schritt für Schritt einen Ausführungsplan generiert. Darauf aufbauend werden wir uns dann im 2. Teil der Cost-Based Optimization widmen, die mit Hilfe des Memos – einer internen Datenstruktur – schlussendlich den finalen physischen Ausführungsplan in einer Art “Lego-Baukastensystem” zusammenbaut
Die Cloud und Azure sind aktuell in aller Munde. Auch in Deutschland sieht es so aus als würden wir den Berg aus Skepsis und Misstrauen bald überwinden können. Immer mehr Unternehmen fangen an Ihre Systeme in Cloud zu verlagern, sei es auf Grund einer Modernisierung, oder beim Aufbau neuer Architekturen.
Ein Flugzeug, nehmen wir mal den A380, ohne Instrumententafel, Warnleuchten und Statusanzeigen, wer möchte da schon freiwillig einsteigen. Schließlich wäre dies ein Blindflug ohne Statusinformation, undenkbar. Leider werden heute noch sehr viele SQL Server Umgebungen genauso betrieben, ohne jegliche Überwachung. Meist werden Fehler in einer solchen Umgebung erst erkannt, wenn die Anwender sich melden und es bereits zu spät ist. Auch die Analyse der Fehler wird erschwert, wenn nicht sogar unmöglich. Warum ist das kritisch? Wie kann man hier besser vorgehen? Ein Monitoring durch Anwender sollte keine Lösung sein.
Endlich (aka „Ja, sie leben noch“), es tut sich wieder etwas bei den MDS.
• Modellübergreifende Referenzen
• Hochsetzten des Kompatibilitäts-Levels
• Entrümpeln des Hierarchieunwesens
Es gibt natürlich noch einiges mehr. Das schauen wir uns alles genau an und riskieren dann auch den einen oder anderen Blick unter die DB Haube.
Komplizierte Hierarchien mit nervtötenden Berechtigungskonzepten?
Ihr Data Warehouse leistet sich den Luxus mehrerer Quellsysteme?
Der Controller will im Report unbedingt noch eine weitere Gruppierung, die sich nun wirklich nicht aus den Quellen ableiten lässt?
Es gibt da ein paar Konfigurationsdaten die der Betrieb immer noch im Management Studio pflegt?
Historisierung per Hand macht keinen Spaß mehr?
Schaun Sie mal vorbei …
Mit SQL Server 2012 ist die von PowerPivot bekannte Technologie “VertiPaq” als „ColumnStore-Index” in die relationale Datenbank eingezogen, wurde mit Version 2014 nochmals verbessert und für Version 2016 gibt es weitere nette Ankündigungen. Microsoft verspricht damit eine Beschleunigung Ihrer Abfragen um das bis zu 100fache – ohne die Abfragen angreifen zu müssen. Können wir uns also damit vom Query-Tuning verabschieden? Hält das Versprechen in der Praxis überhaupt stand? Wo ist der Pferdefuß dieser Technologie? Die Antworten darauf und mehr gibt’s in dieser Session.
Microsoft Azure SQL Datenbanken bietet Ihnen die Möglichkeit, Ihre relationalen Daten „in die Wolken“ zu schicken. Wie verwalte ich eine Datenbank in der Cloud? Wie migriere ich meine bestehenden Daten in die Cloud? Welche Bedenken bzgl. Sicherheit muss ich dabei haben? Wie funktioniert scale-up und scale-out mit der SQL Datenbank? Die Antworten auf diese Fragen und mehr liefert Ihnen Markus in seinem Vortrag anhand von konkreten Demos.
Beständig steigende Anforderungen an die Komplexität von Anwendungen führen dazu, dass Systemtests für die Qualitätssicherung eine immer wichtigere Rolle im Entwicklungsprozess einnehmen. Kein Anwender ist gewillt, zu akzeptieren, dass in komplexen Systemen auch komplizierte Fehler enthalten sein dürfen. Wir müssen also Möglichkeiten finden, unsere Systeme auf Herz und Nieren zu prüfen, bevor diese ausgeliefert werden. Hierzu gibt es mittlerweile erprobte Methoden – und doch werden Datenbanken beim Test, insbesondere automatisierten Tests, oftmals eher vernachlässigt. In dieser Session sprechen wir darüber, mit welchen Besonderheiten bzw. speziellen Problemen man rechnen muss, wenn Datenbanken in den Testablauf eingebunden werden. Es werden Möglichkeiten und Werkzeuge präsentiert, wie man mit diesen besonderen Problemen umgehen kann, so dass auch Datenbanken Bestandteil des Testprozesses werden. Der Fokus liegt dabei auf der Automatisierung solcher Tests.
Wohl jeder Datenbankentwickler kennt das Problem: Wie aktualisiere ich bestehende Datenbanken, so dass sie den aktuellen Versionsstand haben? Der erste Ansatz ist oftmals die Entwicklung spezieller Aktualisierungsskripte, die dann dafür sorgen müssen, dass existierende Datenbanken unterschiedlicher Versionsstände auf die aktuelle Version angehoben werden – ein sehr mühsames und fehleranfälliges Verfahren. Es geht auch anders! Mit den SQL Server Data Tools (SSDT) stellt Microsoft eine Visual Studio Erweiterung bereit, die eine deklarative Datenbankentwicklung ermöglicht. Die manuelle Entwicklung von Aktualisierungsskripten gehört damit der Vergangenheit an – fast. In der Session wird gezeigt, wie man mit den SSDT umgeht, was das Produkt leistet, und auch, was es nicht bietet. Darüber hinaus wird auch eine Methode zum Testen der Datenbank-Aktualisierung präsentiert.
Einfügen von Daten, Aktualisieren von Daten und das Löschen von Daten sind in der Regel „große Unbekannte“, wenn es darum geht, was „hinter den Kulissen“ passiert. In dieser Session zeigt Ihnen Uwe Ricken, welchen Aufwand Microsoft SQL Server betreiben muss, wenn DML-Operationen ausgeführt werden und welche Nachteile sich aus verschiedenen Verfahren ergeben:
• Warum passen – trotz ausreichendem Platz – nicht weitere Datensätze in einen HEAP
• Welche Unterschiede bestehen zwischen dem Einfügen von Daten in HEAP und Clustered Index
• Wie entstehen „Forwarded Records“
• Was sind „Page Splits“ und welche Kosten verursachen sie
• Obwohl Datensätze gelöscht werden, wird der reservierte Speicher für die Tabelle nicht mehr frei gegeben
Wer Antworten zu den Fragen haben möchte, der ist bei dieser Session gut genau richtig.
Der Zugang zum Microsoft SQL Server geschieht über vielerlei Schichten.
Von der physikalischen Verbindung bis zur Anforderung von Daten können die einzelnen Schritte
überwacht werden. Wer genau wissen möchte, was aktuell auf dem SQL Server ausgeführt wird und
worauf der SQL Server wartet, verwendet in der Regel teure Monitoring-Werkzeuge. In dieser Session
zeigt Uwe Ricken, wie mit Hilfe von Boardmitteln (Dynamic Management Views) die gleichen Aufgaben
vom DBA ohne weitere Werkzeuge gemeistert werden können.
• Wie viele physikalische Verbindungen sind derzeit aktiv?
• Wer führt gerade welche Aktionen auf dem SQL Server aus?
• Worauf muss ein Prozess warten?
• Warum muss ein Prozess warten?
• Wer blockiert andere Prozesse und wie kann man die Prozesskette verfolgen
Antworten zu den obigen Fragen geben die DMO, die Microsoft SQL Server zur Verfügung stellt.
Die Verwendung von Ad Hoc Abfragen ist ein weit verbreiteter Weg, um Daten von Microsoft SQL Server abzufragen. Die Performance einer solchen Abfragemethode hängt von der richtigen Ausführungsmethode ab, um sicherzustellen, dass der Prozedurcache/Abfragecache wiederverwendet werden kann. In dieser Session zeigt Uwe Ricken nach einer Einführung in „Ad Hoc Abfragen“ und deren Auswirkungen die Möglichkeiten, solche Abfragen optimaler zu schreiben.
SQL Server erhielt mit der Version 2014 eine komplett neu entwickelte In-Memory Engine unter dem Kürzel XTP („EXtreme Transactional Processing“). XTP, vielen auch noch unter dem Codenamen „Hekaton“ bekannt, ist speziell für OLTP Workloads hoher Parallelität und Performance-Anforderungen entwickelt worden. Für DSS/OLAP-Systeme sind die Clustered ColumnStore Indexe prädestiniert, welche für das PDW entwickelt, 2014 ebenfalls in SQL Server übernommen wurden. Im SQL Server 2016 werden diese beiden Performance Killer-Technologien unter dem Begriff In-Memory OLTP & Operational Analytics vereint. Microsoft Certified Solutions Master Andreas Wolter, seit Anbeginn mit beiden Technologien eng vertraut, führt Sie hier in die Stärken und Schwächen von In-Memory OLTP, sowie die zukünftig möglichen Kombinationsmöglichkeiten der beiden Storage- und Query-Engines ein. Die Session hat einleitenden Charakter und spricht damit Entwickler, Administratoren und auch Entscheider an, die sich über die Möglichkeiten der neuen Speichertechnologien auf dem aktuellsten Stand informieren möchten.
Der nächste SQL Server steht vor der Tür. Und die Liste der neuen und verbesserten Features ist enorm. Fast jeder Bereich der Engine wird erweitert, nicht zuletzt auch Richtung Cloud, deren Integration auf eine neue Stufe gehoben wird. Query Store, Always Encrypted, Temporal Tables, Polybase, Dynamic Data Masking, Stretch Database sind die Top-Schlagworte dieses nächsten Release. Nicht zu vergessen die nächste Version der In-Memory OLTP-Engine, die eine deutlich bessere Code-Unterstützung bietet und sich sogar mit der Clustered ColumnStore Technologie verbinden lässt. In dieser Session erhalten Sie von Microsoft Certified Solutions Master Andreas Wolter einen Überblick über alles, was im Bereich der Datenbankengine neues kommen wird. Ausgesuchte Demos zu einzelnen Features geben einen praktischen Einblick in die Technik der nächsten Version.
Der SQL Server hat mehr als eine Lösung um die Verfügbarkeit seiner Daten zu erhöhen. Wie viele Möglichkeiten gibt es eigentlich? Kaum Jemand kennt alle Möglichkeiten. Diese Session gibt einen Überblick über die Hochverfügbarkeitsmöglichkeiten des SQL Servers. Die Session klärt die Vor- und Nachteile dieser Möglichkeiten. Und sie hilft bei der Auswahl der besten Hochverfügbarkeitsmöglichkeit für Ihr Problem.
Cluster vs AVG. Übersichtlicher Vergleich zwischen den beiden Lösungen und deren Einsatzgebiete
Hier geht es um Einschätzungen Big Data, Microsoft und andere Dinge, die Sie zumindest vom Namen kennen sollten. Ich möchte Ihnen ein Einblick in die ganz nahe Zukunft geben. Ich bin der Meinung, dass diese Entwicklungen uns alle mehr oder weniger Betreffen werden. Hier gibt es Chancen aber auch die Notwendigkeiten, sich von bestehenden zu verabschieden. Interessanterweise ändern sich die Dinge in dieser Welt so schnell, dass mache Aussage maximal 6 Monate Gültigkeit haben.
In diesen Vortrag geht es nur um SQL. Möglicherweise wissen Sie alles über SQL. Möglicherweise glauben Sie nur, dass Ihr SQL Wissen auf der Höhe der Zeit ist. Nicht jeder hat die sinnvollen Erweiterungen im Bereich von SQL mitbekommen. Lassen uns gemeinsam auf eine interessant Reise zu den Fenstern - Windows functions- in SQL durchführen. Ich hoffe, Sie können etwas mitnehmen, dass ihr Leben - zumindest in diesem Bereich - einfacher und oft auch schneller machen kann.
Wollen Sie sofort in ihren Berichten sehen, wenn Sie einen neuen Auftrag bekommen haben? Wollen Sie umgehend auf Events reagieren können und so noch besser mit Anforderungen umgehen? In dieser Session zeigen wir Ihnen mit Hilfe praktischer Beispiele, wie Sie mit Hilfe von Azure Diensten, wie Stream Analytics, Event Hubs und Azure Websites ein Realtime Reporting aufbauen können. Aber nicht immer muss es die große programmatische Lösung sein: auch mit Power BI 2.0 ist einiges zum Thema Realtime Reporting möglich. Ein Überblick über die Funktionen, die Microsoft hierzu in Power BI 2.0 bietet runden die Session ab.
- Get an Insight on EMC XtremIO´s unique Architechture
- See how EMC XtremIO Redefines Snapshots
- Optimize Your Test and Dev Cycles with near realtime DB Copies
- Take you SQL Databases to a new Performance Baseline
- Learn how to get 300.000 with under 1ms response time
- Leverage Application Integrated Snapshot Functionalities
Sicherlich haben Sie reichlich Erfahrung mit dem SQL Server. Aber nutzen Sie wirklich alles? Kennen Sie zum Beispiel den Ressource Governor oder die Datensammlung oder auch Richtlinien des SQL Server, ähnlihch denen in Active Direcory? Nein? Dann schauen Sie hier mal vorbei..
Weitere Informationen folgen demnächst. Ergänzungen bzw. Änderungen vorbehalten.
Workshops der SQLdays Konferenz 2015
An diesem Workshop-Tag nehmen wir eine Default-Installation vom SQL Server, und lassen darauf eine OLTP-Workload mit einigen parallelen Datenbank-Usern laufen, um unsere initiale Baseline für das Performance Tuning zu generieren. Während des ganzen Tages arbeiten wir uns durch die verschiedenen “Problemzonen” des SQL Servers, um die Performance der Workload zu verbessern. Das Ziel für das Ende des Tages ist es, einen gut funktionierenden SQL Server zu haben, der unsere Workload mit hunderten parallelen Datenbank-Usern laufen lassen kann.
Aus dem Inhalt:
• Windows OS Einstellungen
• Storage Konfiguration
• SQL Server Instanz Einstellungen
• Datenbank Einstellungen
• Locking & Blocking
• Index & Statistics Wartung
• Memory Management
Aus dem Inhalt:
• Query Processing Basics
• Physical Query Processing (Execution Plans)
• Temporary Data & Aggregations
• Windowing Functions
Historisierung im DWH, für die eine heißt das einfach „Archivierung“. Daten die in den Quellsystemen längst gelöscht sind bleiben im DWH zugänglich. Der andere verbindet damit Schlagwörter wie SCD2 oder Data Vault. "Historisierung" kann sich sowohl auf die Staging Schicht beziehen, ein mögliches Core Data Warehouse oder Strukturen im Star Schema. Problem können die Datenmassen oder die Datenbankarchitektur sein. Aspekte genug um dem Thema einen Tag zu gönnen.
Welcome to the Jungle of Indices and Statistics. Clustered oder Non Clustered, Columnstore Indizes oder doch indizierte Sicht. Nein lieber ein eindeutiger gefilterter mit eingeschlossenen Spalten. Aber doch nicht bei uniqueidentifier, oder doch? Mythen und Wahrheiten unter der Lupe. In diesem Workshop lernen Sie alles, was Sie zu einer ausgewogenen Indexstrategie benötigen: Entscheidungshilfen für die Auswahl des richtigen Index über die Beurteilung vorhandener Indizes bis hin zur Wartung. Sie lernen, wie Indizes aufgebaut sind und was Statistiken damit zu tun haben. Ein Muss für alle Administratoren und Developer. .
Dieser Workshop zeigt nicht nur die Installation und den Betrieb eines SQL Clusters, er zeigt auch AlwaysOn in Aktion. Zunächst legen wir einmal die theoretisch Grundlagen eines Clusters und besprechen auch die Probleme, die der Betrieb eines Clusters haben kann. Hiernach wird die Installation eines 3 Node Clusters gezeigt (1 Node mit Windows Core). Hiernach wird die Installation von SQL Server im Cluster durchgeführt unter Verwendung eines Clustered Shared Volumes. Natürlich wird auch der Einsatz von SAN angesprochen.Was passiert, wenn ein Node ausfällt? Wir werden es sehen… Der Workshop richtet sich an alle. die Hochverfügbarkeit für SQL Server haben möchten und nun endlich mal auch Deatilfragen geklärt haben wollen wie „was ist best practice?, Troubleshooting, Ausfall eines CSV, Konfiguration der Netzwerke usw.
Weitere Informationen folgen demnächst. Ergänzungen bzw. Änderungen vorbehalten.
Klaus Aschenbrenner
Aus dem Inhalt: • Query Processing Basics • Physical Query Processing (Execution Plans) • Temporary Data & Aggregations • Windowing Functions
Michael Rother
Dieser Workshop zeigt nicht nur die Installation und den Betrieb eines SQL Clusters, er zeigt auch AlwaysOn in Aktion.
Klaus Aschenbrenner
Sie haben eine datenbankbasierte Anwendung welche bei steigender Datenmenge immer langsamer und langsamer wird? Dann sind Sie in dieser Session genau richtig! In dieser Session lernen Sie nämlich, wie Sie Abfragen im SQL Server durch ein gezielten Einsatz von Execution Plans tunen können. Hier werden Sie lernen, auf welche Arten der SQL Server Daten abfrägt, in welchen verschiedenen Varianten er Daten zusammengejoined, und wie Sie hier bei Performance-Problemen entsprechend reagieren können.
Uwe Ricken
Der Zugang zum Microsoft SQL Server geschieht über vielerlei Schichten. Von der physikalischen Verbindung bis zur Anforderung von Daten können die einzelnen Schritte überwacht werden. Wer genau wissen möchte, was aktuell auf dem SQL Server ausgeführt wird und worauf der SQL Server wartet, verwendet in der Regel teure Monitoring-Werkzeuge. In dieser Session zeigt Uwe Ricken, wie mit Hilfe von Boardmitteln (Dynamic Management Views) die gleichen Aufgaben vom DBA ohne weitere Werkzeuge gemeistert werden können. • Wie viele physikalische Verbindungen sind derzeit aktiv? • Wer führt gerade welche Aktionen auf dem SQL Server aus? • Worauf muss ein Prozess warten? • Warum muss ein Prozess warten? • Wer blockiert andere Prozesse und wie kann man die Prozesskette verfolgen Antworten zu den obigen Fragen geben die DMO, die Microsoft SQL Server zur Verfügung stellt.
Markus Ehrenmüller
Mit SQL Server 2012 ist die von PowerPivot bekannte Technologie “VertiPaq” als „ColumnStore-Index” in die relationale Datenbank eingezogen, wurde mit Version 2014 nochmals verbessert und für Version 2016 gibt es weitere nette Ankündigungen. Microsoft verspricht damit eine Beschleunigung Ihrer Abfragen um das bis zu 100fache – ohne die Abfragen angreifen zu müssen. Können wir uns also damit vom Query-Tuning verabschieden? Hält das Versprechen in der Praxis überhaupt stand? Wo ist der Pferdefuß dieser Technologie? Die Antworten darauf und mehr gibt’s in dieser Session.
David Schäfer
Wollen Sie sofort in ihren Berichten sehen, wenn Sie einen neuen Auftrag bekommen haben? Wollen Sie umgehend auf Events reagieren können und so noch besser mit Anforderungen umgehen? In dieser Session zeigen wir Ihnen mit Hilfe praktischer Beispiele, wie Sie mit Hilfe von Azure Diensten, wie Stream Analytics, Event Hubs und Azure Websites ein Realtime Reporting aufbauen können. Aber nicht immer muss es die große programmatische Lösung sein: auch mit Power BI 2.0 ist einiges zum Thema Realtime Reporting möglich. Ein Überblick über die Funktionen, die Microsoft hierzu in Power BI 2.0 bietet runden die Session ab.
Markus Raatz
Predictive Analysis, Machine Learning, Data Mining: diese Begriffe sind ja gerade in aller Munde. Dieser Vortrag zeigt an einem einfach nachvollziehbaren, praktischen Beispiel, wie es möglich ist, die Zukunft vorherzusagen, anhand einiger bekannter Merkmale! Wir werfen mit den Buchautor Markus Raatz einen Blick auf die aktuelle Microsoft-Lösung „Azure ML“ und hören, was seine Kunden mit dieser Technologie schon mit einfachen Mitteln und ohne Hardware-Investitionen aus Ihren Daten alles herausholen konnten.
Andre Essing
Ein Flugzeug, nehmen wir mal den A380, ohne Instrumententafel, Warnleuchten und Statusanzeigen, wer möchte da schon freiwillig einsteigen. Schließlich wäre dies ein Blindflug ohne Statusinformation, undenkbar. Leider werden heute noch sehr viele SQL Server Umgebungen genauso betrieben, ohne jegliche Überwachung. Meist werden Fehler in einer solchen Umgebung erst erkannt, wenn die Anwender sich melden und es bereits zu spät ist. Auch die Analyse der Fehler wird erschwert, wenn nicht sogar unmöglich. Warum ist das kritisch? Wie kann man hier besser vorgehen? Ein Monitoring durch Anwender sollte keine Lösung sein.
Willfried Färber
Hier geht es um Einschätzungen Big Data, Microsoft und andere Dinge, die Sie zumindest vom Namen kennen sollten. Ich möchte Ihnen ein Einblick in die ganz nahe Zukunft geben. Ich bin der Meinung, dass diese Entwicklungen uns alle mehr oder weniger Betreffen werden. Hier gibt es Chancen aber auch die Notwendigkeiten, sich von bestehenden zu verabschieden. Interessanterweise ändern sich die Dinge in dieser Welt so schnell, dass mache Aussage maximal 6 Monate Gültigkeit haben.
Uwe Ricken
Einfügen von Daten, Aktualisieren von Daten und das Löschen von Daten sind in der Regel „große Unbekannte“, wenn es darum geht, was „hinter den Kulissen“ passiert. In dieser Session zeigt Ihnen Uwe Ricken, welchen Aufwand Microsoft SQL Server betreiben muss, wenn DML-Operationen ausgeführt werden und welche Nachteile sich aus verschiedenen Verfahren ergeben.
Christoph Seck
Komplizierte Hierarchien mit nervtötenden Berechtigunskonzepten? Ihr Data Warehouse leistet sich den Luxus mehrerer Quellsysteme? Der Controller will im Report unbedingt noch eine weitere Gruppierung, die sich nun wirklich nicht aus den Quellen ableiten lässt? Es gibt da ein paar Konfigurationsdaten die der Betrieb immer noch im Management Studio pflegt? Historisierung per Hand macht keinen Spaß mehr? Schaun Sie mal vorbei …
Willfried Färber
In diesen Vortrag geht es nur um SQL. Möglicherweise wissen Sie alles über SQL. Möglicherweise glauben Sie nur, dass Ihr SQL Wissen auf der Höhe der Zeit ist. Nicht jeder hat die sinnvollen Erweiterungen im Bereich von SQL mitbekommen. Lassen uns gemeinsam auf eine interessant Reise zu den Fenstern - Windows functions- in SQL durchführen. Ich hoffe, Sie können etwas mitnehmen, dass ihr Leben - zumindest in diesem Bereich - einfacher und oft auch schneller machen kann.
Michael Rother
Der SQL Server hat mehr als eine Lösung um die Verfügbarkeit seiner Daten zu erhöhen. Wie viele Möglichkeiten gibt es eigentlich? Kaum Jemand kennt alle Möglichkeiten. Diese Session gibt einen Überblick über die Hochverfügbarkeitsmöglichkeiten des SQL Servers. Die Session klärt die Vor- und Nachteile dieser Möglichkeiten. Und sie hilft bei der Auswahl der besten Hochverfügbarkeitsmöglichkeit für Ihr Problem.
Andreas Rauch
Informationen folgen demnächst.
Christoph Seck
Endlich (aka „Ja, sie leben noch“), es tut sich wieder etwas bei den MDS. • Modellübergreifende Referenzen • Hochsetzten des Kompatibilitäts-Levels • Entrümpeln des Hierarchieunwesens Es gibt natürlich noch einiges mehr. Das schauen wir uns alles genau an und riskieren dann auch den einen oder anderen Blick unter die DB Haube.
Daniel Cäsar
Kann man Daten so sicher machen, dass der Admin sie nicht lesen kann? Welche Rolle spielt die Richtlinienverwaltung von SQL Server und was ist damit möglich? kennen Sie die Möglichkeiten zur Verschlüsselung in SQL Server? In dieser Session erfahren Sie welche Möglichkeiten es gibt den Microsoft SQL Server sicher zu machen, was sich hinter begriffen wie Transparent Data Encryption verbirgt, welche Möglichkeiten es zur Verschlüsselung von Daten gibt und was an Neuerungen durch SQL Server 2016 Always Encrypted Einzug hält. .
Andre Essing
Die Cloud und Azure sind aktuell in aller Munde. Auch in Deutschland sieht es so aus als würden wir den Berg aus Skepsis und Misstrauen bald überwinden können. Immer mehr Unternehmen fangen an Ihre Systeme in Cloud zu verlagern, sei es auf Grund einer Modernisierung, oder beim Aufbau neuer Architekturen.
Georg Urban
Informationen folgen demnächst.
Andreas Wolter
Der nächste SQL Server steht vor der Tür. Und die Liste der neuen und verbesserten Features ist enorm. Fast jeder Bereich der Engine wird erweitert, nicht zuletzt auch Richtung Cloud, deren Integration auf eine neue Stufe gehoben wird. Query Store, Always Encrypted, Temporal Tables, Polybase, Dynamic Data Masking, Stretch Database sind die Top-Schlagworte dieses nächsten Release. Nicht zu vergessen die nächste Version der In-Memory OLTP-Engine, die eine deutlich bessere Code-Unterstützung bietet und sich sogar mit der Clustered ColumnStore Technologie verbinden lässt. In dieser Session erhalten Sie von Microsoft Certified Solutions Master Andreas Wolter einen Überblick über alles, was im Bereich der Datenbankengine neues kommen wird. Ausgesuchte Demos zu einzelnen Features geben einen praktischen Einblick in die Technik der nächsten Version.
Holger Schmeling
Wohl jeder Datenbankentwickler kennt das Problem: Wie aktualisiere ich bestehende Datenbanken, so dass sie den aktuellen Versionsstand haben? Der erste Ansatz ist oftmals die Entwicklung spezieller Aktualisierungsskripte, die dann dafür sorgen müssen, dass existierende Datenbanken unterschiedlicher Versionsstände auf die aktuelle Version angehoben werden – ein sehr mühsames und fehleranfälliges Verfahren. Es geht auch anders! Mit den SQL Server Data Tools (SSDT) stellt Microsoft eine Visual Studio Erweiterung bereit, die eine deklarative Datenbankentwicklung ermöglicht. Die manuelle Entwicklung von Aktualisierungsskripten gehört damit der Vergangenheit an – fast. In der Session wird gezeigt, wie man mit den SSDT umgeht, was das Produkt leistet, und auch, was es nicht bietet. Darüber hinaus wird auch eine Methode zum Testen der Datenbank-Aktualisierung präsentiert.
Markus Ehrenmüller
Microsoft Azure SQL Datenbanken bietet Ihnen die Möglichkeit, Ihre relationalen Daten „in die Wolken“ zu schicken. Wie verwalte ich eine Datenbank in der Cloud? Wie migriere ich meine bestehenden Daten in die Cloud? Welche Bedenken bzgl. Sicherheit muss ich dabei haben? Wie funktioniert scale-up und scale-out mit der SQL Datenbank? Die Antworten auf diese Fragen und mehr liefert Ihnen Markus in seinem Vortrag anhand von konkreten Demos.
Andreas Wolter
SQL Server erhielt mit der Version 2014 eine komplett neu entwickelte In-Memory Engine unter dem Kürzel XTP („EXtreme Transactional Processing“). XTP, vielen auch noch unter dem Codenamen „Hekaton“ bekannt, ist speziell für OLTP Workloads hoher Parallelität und Performance-Anforderungen entwickelt worden. Für DSS/OLAP-Systeme sind die Clustered ColumnStore Indexe prädestiniert, welche für das PDW entwickelt, 2014 ebenfalls in SQL Server übernommen wurden. Im SQL Server 2016 werden diese beiden Performance Killer-Technologien unter dem Begriff In-Memory OLTP & Operational Analytics vereint. Microsoft Certified Solutions Master Andreas Wolter, seit Anbeginn mit beiden Technologien eng vertraut, führt Sie hier in die Stärken und Schwächen von In-Memory OLTP, sowie die zukünftig möglichen Kombinationsmöglichkeiten der beiden Storage- und Query-Engines ein. Die Session hat einleitenden Charakter und spricht damit Entwickler, Administratoren und auch Entscheider an, die sich über die Möglichkeiten der neuen Speichertechnologien auf dem aktuellsten Stand informieren möchten.
Markus Raatz
Haben Sie auch "Big Data"? Oder sind Ihre Daten einfach nur mittlerweile so groß geworden, dass ihr Datenbank-Server damit seine liebe Mühe hat? Aus dem Big Data-Umfeld kommt die Idee, wie man beliebig große Datenmengen einfach und leicht auswerten kann: indem man automatisch mehrere Server gleichzeitig daran arbeiten lässt! Von Microsoft heißt die Lösung dazu Parallel Data Warehouse (PDW) und ist Teil des Analytics Platform System (APS). Dieser "große Bruder" des bekannten SQL Servers wird hier vom Buchautor Markus Raatz in einem Praxis-Projekt vorgestellt, mit Live-Demo!
Holger Schmelling
Beständig steigende Anforderungen an die Komplexität von Anwendungen führen dazu, dass Systemtests für die Qualitätssicherung eine immer wichtigere Rolle im Entwicklungsprozess einnehmen. Kein Anwender ist gewillt, zu akzeptieren, dass in komplexen Systemen auch komplizierte Fehler enthalten sein dürfen. Wir müssen also Möglichkeiten finden, unsere Systeme auf Herz und Nieren zu prüfen, bevor diese ausgeliefert werden. Hierzu gibt es mittlerweile erprobte Methoden – und doch werden Datenbanken beim Test, insbesondere automatisierten Tests, oftmals eher vernachlässigt. In dieser Session sprechen wir darüber, mit welchen Besonderheiten bzw. speziellen Problemen man rechnen muss, wenn Datenbanken in den Testablauf eingebunden werden. Es werden Möglichkeiten und Werkzeuge präsentiert, wie man mit diesen besonderen Problemen umgehen kann, so dass auch Datenbanken Bestandteil des Testprozesses werden. Der Fokus liegt dabei auf der Automatisierung solcher Tests.
Klaus Aschenbrenner
Wollten Sie immer schon wissen wie der Query Optimizer für ein T-SQL Statement einen physischen Ausführungsplan kompiliert? Wenn ja, dann sind Sie in dieser Doppel-Session genau richtig! Anhand einer einfachen T-SQL Abfrage werden wir mit Hilfe von verschiedenen Trace Flags in die Tiefen des Query Optimizers eintauchen, um besser verstehen zu können, wie anhand von mathematischen Regeln ein physischer Ausführungsplan generiert wird. Im ersten Teil der Session werden wir uns der Optimization Pipeline des Query Optimizers widmen, die Schritt für Schritt einen Ausführungsplan generiert. Darauf aufbauend werden wir uns dann im 2. Teil der Cost-Based Optimization widmen, die mit Hilfe des Memos – einer internen Datenstruktur – schlussendlich den finalen physischen Ausführungsplan in einer Art “Lego-Baukastensystem” zusammenbaut.
Andreas Rauch
Sicherlich haben Sie reichlich Erfahrung mit dem SQL Server. Aber nutzen Sie wirklich alles? Kennen Sie zum Beispiel den Ressource Governor oder die Datensammlung oder auch Richtlinien des SQL Server, ähnlihch denen in Active Direcory? Nein? Dann schauen Sie hier mal vorbei..
Marc-Philipp Kost & Karsten Bott
- Get an Insight on EMC XtremIO´s unique Architechture
- See how EMC XtremIO Redefines Snapshots
- Optimize Your Test and Dev Cycles with near realtime DB Copies
- Take you SQL Databases to a new Performance Baseline
- Learn how to get 300.000 with under 1ms response time
- Leverage Application Integrated Snapshot Functionalities
Klaus Aschenbrenner
Wollten Sie immer schon wissen wie der Query Optimizer für ein T-SQL Statement einen physischen Ausführungsplan kompiliert? Wenn ja, dann sind Sie in dieser Doppel-Session genau richtig! Anhand einer einfachen T-SQL Abfrage werden wir mit Hilfe von verschiedenen Trace Flags in die Tiefen des Query Optimizers eintauchen, um besser verstehen zu können, wie anhand von mathematischen Regeln ein physischer Ausführungsplan generiert wird. Im ersten Teil der Session werden wir uns der Optimization Pipeline des Query Optimizers widmen, die Schritt für Schritt einen Ausführungsplan generiert. Darauf aufbauend werden wir uns dann im 2. Teil der Cost-Based Optimization widmen, die mit Hilfe des Memos – einer internen Datenstruktur – schlussendlich den finalen physischen Ausführungsplan in einer Art “Lego-Baukastensystem” zusammenbaut.
Michael Rother
Cluster vs AVG. Übersichtlicher Vergleich zwischen den beiden Lösungen und deren Einsatzgebiete
Uwe Ricken
Die Verwendung von Ad Hoc Abfragen ist ein weit verbreiteter Weg, um Daten von Microsoft SQL Server abzufragen. Die Performance einer solchen Abfragemethode hängt von der richtigen Ausführungsmethode ab, um sicherzustellen, dass der Prozedurcache/Abfragecache wiederverwendet werden kann. In dieser Session zeigt Uwe Ricken nach einer Einführung in „Ad Hoc Abfragen“ und deren Auswirkungen die Möglichkeiten, solche Abfragen optimaler zu schreiben.
Klaus Aschenbrenner
An diesem Workshop-Tag nehmen wir eine Default-Installation vom SQL Server, und lassen darauf eine OLTP-Workload mit einigen parallelen Datenbank-Usern laufen, um unsere initiale Baseline für das Performance Tuning zu generieren. Während des ganzen Tages arbeiten wir uns durch die verschiedenen “Problemzonen” des SQL Servers, um die Performance der Workload zu verbessern. Das Ziel für das Ende des Tages ist es, einen gut funktionierenden SQL Server zu haben, der unsere Workload mit hunderten parallelen Datenbank-Usern laufen lassen kann. Aus dem Inhalt: • Windows OS Einstellungen • Storage Konfiguration • SQL Server Instanz Einstellungen • Datenbank Einstellungen • Locking & Blocking • Index & Statistics Wartung • Memory Management
Andreas Rauch
Welcome to the Jungle of Indices and Statistics. Clustered oder Non Clustered, Columnstore Indizes oder doch indizierte Sicht. Nein lieber ein eindeutiger gefilterter mit eingeschlossenen Spalten. Aber doch nicht bei uniqueidentifier, oder doch? Mythen und Wahrheiten unter der Lupe. In diesem Workshop lernen Sie alles, was Sie zu einer ausgewogenen Indexstrategie benötigen: Entscheidungshilfen für die Auswahl des richtigen Index über die Beurteilung vorhandener Indizes bis hin zur Wartung. Sie lernen, wie Indizes aufgebaut sind und was Statistiken damit zu tun haben. Ein Muss für alle Administratoren und Developer.
Christoph Seck
Historisierung im DWH, für die eine heißt das einfach „Archivierung“. Daten die in den Quellsystemen längst gelöscht sind bleiben im DWH zugänglich. Der andere verbindet damit Schlagwörter wie SCD2 oder Data Vault. "Historisierung" kann sich sowohl auf die Staging Schicht beziehen, ein mögliches Core Data Warehouse oder Strukturen im Star Schema. Problem können die Datenmassen oder die Datenbankarchitektur sein. Aspekte genug um dem Thema einen Tag zu gönnen.
Agenda: • Staging o Archiv DB o Streched Tables o Raw Data Vault o Alles in einen Hadoop Lake • Core o Einzelne History Tabellen nach Bedarf o Temporal Tables o MDS o Business Data Vault • Star/Cube o SCDs (klar ..) o Snapshot Sequences o Transaktions Modelle • Theoretischer Back Ground o Temporal Data nach C.J. Date o Bitemporalität o Temporal Tables (die dreckigen Details)
Meinungen von Teilnehmern der letzten Jahre.
Melden Sie sich hier für die Teilnahme an.
Je früher Sie buchen, desto günstiger. Beachten Sie auch die limitierten Zimmerkontingente im Veranstaltungshotel bzw. in den umliegenden Hotels.
Ja, Ich melde mich verbindlich für die Teilnahme an:
Veranstaltung: SQLdays Konferenz 2015
Ort: Erdinger Stadthalle
Termin: 13. bis 14. Oktober 2015
899€
Es gilt der Normalpreis von 899 € (Brutto: 1069,81) pro Ticket für den Besuch der Konferenz.
499€
Die Konferenz-Tickets müssen zusätzlich erworben werden. Es gilt der Normalpreis von 499 € (Brutto: 593,81) pro Teilnehmer.
Haben Sie noch Fragen zur Organisation oder zu Ihrer Anmeldung?
Sehr gerne stehe wir Ihnen jederzeit unter Tel.: +49 (0) 8677 9889-61 oder per E-Mail an events@ppedv.de zur Verfügung.
TIPP: 10% Rabatt mit 2 weiteren Kollegen!
Melden Sie sich gleichzeitig mit 2 weiteren Kollegen Ihres Unternehmens zur Konferenz/Workshop an und jeder von Ihnen erhält 10% Kollegen-Rabatt.
Allgemeines und Reiseinformationen
Die Kleidung ist Casual Wear. Reiseinformationen finden Sie hier.
So erreichen Sie die SQLdays Konferenz 2015
Erdinger Stadthallen GmbH
Alois-Schießl-Platz 1
85435 Erding, Deutschland
Via Auto
Autobahn A9: Autobahnkreuz Neufarn,
Richtung Deggendorf (A92), Ausfahrt Erding
Autobahn A99: Autobahnkreuz München Ost,
Richtung Passau (A94), Ausfahrt Markt Schwaben
Via Öffentliche Verkehrsmittel
S-Bahn S2 im 20/40-Minutentakt zum Zentrum München bzw. zur Neuen Messe München. Die Stadthalle Erding erreichen Sie in 2 Gehminuten vom Stadtzentrum Erding, bzw. in 10 Gehminuten vom S-Bahnhof Erding (S 2). Ihre Verbindungsinformationen können Sie über folgenden Fremdanbieter-Service abrufen.
Via Flugzeug
Der nächste Flughafen ist der Münchener Flughafen und ist in 20 Minuten mit dem Auto zu erreichen.
Parken
Parken in der städtischen Tiefgarage (P1) mit direktem Zugang zur Stadthalle (Einfahrt Gießereistrasse), zum Veranstaltungstarif von € 3,00.