SQL 2014 et la gestion de la sécurité

  • Mercredi 12 février : 16h30-17h15
  • Salle : 242B
  • Audiences : Professionnels de l’IT
  •  Thèmes : Infrastructure des systèmes d’information
  • Intervenant : Franck Mercier (Microsoft France), Pascale DOZ (Pascale Doz Consulting)
  • Niveau : Intermédiaire (200)

Durant cette session nous passerons en revue les fondamentaux de la sécurité dans une base de données. Puis nous vous présenterons des méthodes de protection des données, ainsi que les outils pour superviser les bases. Et bien entendu, nous parlerons aussi des nouveautés apportés par la version 2014 de SQL Server !

1.     Sécurisation des comptes

–        Sécuriser le compte SA

  • Pas de mot de passe sous le clavier
  • Pas de mot de passe sur l’écran
  • Pas de mot de passe avec une sécurité faible ou qui ne change jamais

–        Donner les bons droits aux bonnes personnes

–        Essayer d’utiliser les comptes AD avec les droits correspondant à l’usage des utilisateurs

–        Utiliser une politique de changement de MDP régulière

2.     Accès aux données

–        Contrôle sur les droits 

–        SQL 2014 offre la possibilité de bloqué la visibilité  des données aux administrateurs pour l’ensemble des versions :

  • Ce système est actuellement buggé pour le moment car l’administrateur peut récupérer l’accès aux données par l’intermédiaire d’un GRANT le point a été remonté à Microsoft …

–        L’accès aux données peut être filtré pour les autres utilisateurs par l’intermédiaire des servers ROLE dispo depuis SQL SERVER 2012.

Certificat

–        L’accès aux données peut être attribué par l’intermédiaire de certificat :

  • Ex : Les données du marketing ne peuvent être visibles par les vendeurs.

–        Pour donner l’accès on met en place un système de certificat permettant de contrôler qui accède aux données.

Utilisation de l’impersonation

–        Empêcher l’emploi de l’impersonation sur le serveur

3.     Mise en place d’audit

L’objectif des audits est de contrôler qui accède aux données et de voir leurs utilisations

(Création d’audit d’utilisation)

4.     Utiliser contained DB

Cette base de données contient les logins de l’instance, l’intérêt est de faciliter la migration des bases de données

5.     D’autres outils peuvent servir à sécuriser la base :

  • Chiffrement des backups
  • SQL injection
  • Gestion de l’environnement de Chiffrement
  • DLL trigger
  • Gestion de la stratégie des instances
  • Truthworthy

Point fort de la session : Sensibilisation aux problèmes de sécurisation des de données SQL Server avec une vue panoramique des outils et des best practice de sécurité

Liens utile : http://blogs.technet.com/b/sql/archive/2013/10/01/sql-server-chez-les-clients-confidentialite-des-donnees.aspx

Vidéo : https://www.youtube.com/watch?feature=player_embedded&v=E9cGpjkxBik

Slides : http://fr.slideshare.net/TechnetFrance/sql-2014-et-la-gestion-de-la-scurit-31662361

Migration vers SQL 2014

  • Mercredi 12 février : 17h45-18h30
  • Salle : 251
  • Audiences : Professionnels de l’IT
  • Thèmes : Infrastructure des systèmes d’information
  • Intervenant Hoda EL HADDAD (Microsoft France), Pascale Doz (Pascal Doz Consulting)
  • Niveau : Intermédiaire (200)

Migration de bases hétérogènes vers SQL Server 2014 : – Comment maîtriser la migration de vos bases vers SQL server 2014 – Quels sont les outils Microsoft ? – Quels bénéfices en tirer d’une telle migration à court et moyen terme ? – Quelle démarche adopter pour minimiser les risques liés à la migration des applications ?

1.     Origine de la migration :

  • Nouvelles fonctionnalités
  • Evolution de l’architecture
  • Support
  • Baisse des couts des éditeurs
  • Amélioration des performances avec l’arrivée de L’IN Memory
  • Haute disponibilités
  • Gestion de la BI amélioré et Gestion de la partie BIG DATA
  • Déploiement dans le cloud

2.     L’apport de SQL 2014 :

  • Amélioration des performances avec l’arrivée de L’IN Memory
  • Haute disponibilités
  • Gestion de la BI amélioré et Gestion de la partie BIG DATA
  • Déploiement dans le cloud

3.     Les étapes nécessaires à une migration

1. Inventaire (Microsoft Assetement and planning MAP)

  • Appli
  • Infrastructure des données

2. Disponibilité / indisponibilité pendant la phase d’upgrade (Distributed / replay Réplication / intégration Services)

  • Retour en arrière
  • Gestion de la performance
  • Liste des composants à migrer

3. Choix des méthodes

  • In place
  • Side by Side

4. Exécution de la migration

4.     Démo : Migration SQL SERVER 2000 => 2014 les étapes clés

Pour réaliser une migration de SQL server 2000 vers 2012 ou 2014 il est nécessaire de passer par une étape intermédiaire : SQL 2005 / 2008 / 2008 R2

migration

Les principales origines de cette étape palier sont :

  • la compatibilité des package DTS sont possible jusqu’en 2008 R2
  • les nouvelles normes SQL qui ont changé certaines requetés ce qui les rends incompatible avec les dernières versions.

Dans notre démo nous avons pu suivre les étapes nécessaires pour une migration SQL Server 2000 vers 2014 :

Nous avons utilisé l’outil SQL server 2008 upgrades advisor qui permet de vérifier la compatibilité des bases présente sur l’instance SQL 2000 vers la base SQL 2008.

Ainsi nous obtenons le résultat suivant :

 upgrade advisor

Source : msdn

Une fois les anomalies levé et corrigé la migration vers la base 2008 peut avoir lieu par l’intermédiaire d’un simple backup restore.

Cette étape passé, nous avons augmenté les compatibility level des bases afin d’être sûr que le code utilisé soit compatible, puis nous avons mis en place des traces sur l’ancienne instance et sur la nouvelle instance afin de comparer les différences de performance.

Pour le passage de SQL server 2008 R2 vers 2014 nous avons utilisé l’outil MAP Microsoft Assessment and planning toolkit  pour vérifier la compatibilité des données et connaitre l’impact de la migration sur SQL Server 2014.

Pour ce faire, nous avons mis en place  des traces de simulation sur SQL 2014  avec de la génération de charge (Distributed Replay Utility) pour vérifier que les requêtes fonctionne et que les performances serait bonne sur la nouvelle instance.

Après vérification, nous avons constaté qu’il n’y avait aucune contre-indication concernant la migration, nous avons donc effectué un backup restore permettant d’effectuer la migration.

5.     Démos Migration Oracle => SQL Server 2014

Pour réaliser cette démo, Pascale Doz a utilisé Microsoft Migration Assistant afin vérifier la compatibilité entre les bases à migrer. Après cette assurer de la compatibilité et avoir corrigé les quelques anomalies rencontré, l’outil permet de réalisé la migration quasi automatiquement sous réserve d’avoir créé une base au préalable dans la nouvelle instance SQL Server 2014.

6.     Conclusion :

Cette session permet d’effectuer rapidement un tour sur les étapes importantes d’une migration, mais ne reflète pas complètement les problèmes rencontrés lors d’une migration :

–        Problématique de sécurité

–        Problématique de temps de correction des anomalies pour répondre aux nouvelles normes SQL ou aux problèmes de collation

–        …

Lien utile : http://technet.microsoft.com/fr-fr/magazine/gg454217.aspx

Vidéo

[JSS 2013] Session : SSAS ROLAP sur Column Store Index (CSI)

Avec les possibilités offertes par SQL Server 2012, il est peut-être temps de repenser la place des bases SSAS dans les systèmes d’informations. Nous vous proposons de détailler les modes de conception et les performances de deux architectures : le ROLAP sur du XVelocity SQL Server d’un côté et du Tabular de l’autre.

 Level : 400
Speaker(s) : Patrice Harel, Charles-Henri Sauget

Le principal problème du ROLAP est un problème de performance car ce mode attaque directement la base relationnelle.

L’idée est d’utilise ici le CSI permettant d’améliorer grandement les performances des requêtes sur une base relationnelle.

– Pour le test : a été récupérée la base Wikipedia. La plus grosse table de faits contient 250 millions de lignes. La base fait 120 Go.

– Le CSI : la donnée est stockée en colonne et pas en ligne. Elle est compressée. Chaque requête ramène moins de données : on ne sélectionne qu’une partie de la table (le reste des colonnes n’est pas ramené).

Les tables sont séparées en partitions, les partitions en segments. Chaque segment étant rempli par un thread, les partitions peuvent être remplies en multithreading : gain de performance.

3 ajouts sur la version 2014 de SQL Server :dictionnaire secondaire et le delta store. Le plus important pour nous : insertion, suppression et mise à jour sur les tables avec le CSI !

Best practice : si plusieurs champs sont présents dans le CSI, il faut toujours partir du champ qui a le moins de données vers celui qui en a le plus.

Les avantages du CSI :

  • Cluster CSI en lecture/écriture dorénavant
  • BLOB
  • Segment Elimination
  • Batch Mode
  • Compression Archive.

Le CSI permet un gain de place énorme sur le disque : facteur 17 sur la base de démo des speakers.

Les intérêts du ROLAP :

  • Pas ou peu de temps de process
  • Temps réel
  • Partitionnement côté SQL

Les optimisations principales à apporter sur le ROLAP :

  • Eviter le Spill (quand il n’y a pas assez de mémoire sur le poste, la requête s’exécute en tempDB.
  • Création de statistiques
  • Dans le plan d’exécution, on doit être en batch et pas en row sur le CSI. L’option OPTION HASH JOIN sur une requête permet de supprimer les Nested Loop.
  • Optimiser les many to many

Les speakers ont ensuite présenté un tableau comparatif entre ROLAP, MOLAP et Tabular.

Dans 2 tests sur 3, le ROLAP s’est montré le plus rapide. Le tabular étant dernier, ce qui peut s’expliquer par la quantité de données chargées en mémoire provoquant des accès disque.

Pour être honnêtes, les 2 speakers ont aussi annoncé que le MOLAP  n’était pas optimisé.

Les limites du CSI :

  • Des types non supportés (varchar(max), XML,…)
  • 2 types de CSI : Clustered et non clustered. Le clustered doit être unique dans la table.

Conclusion :

2 super speakers qui maitrisent leur sujet sur le bout des doigts.

Le ROLAP reprend ici toutes ses lettres de noblesse grâce au CSI.

Il était tout simplement quasi inutilisable en l’état à cause de ses lenteurs. D’ailleurs la dernière fois que je l’avais vu « en vrai », c’était en 2009.

Couplé à la rapidité du CSI, la solution redevient viable en termes de performance.

Frédéric – Consultant décisionnel MCNEXT

[JSS 2013] Session : SQL Server 2014 : what’s new ?

Panorama des nouveautés de SQL Server 2014.
Les nouveautés abordées sur la plate forme de données : Database Engine, In Memory, Cloud, Big Data, BI, outils

I. BI

Présentation par Franck Mercier

Pour Microsoft, le devenir de la BI passera par la mobilité et le Cloud.

La vision de Microsoft est la suivante :

  1. Trouver, combiner, gérer (accès simple à tous les types de données)
    Pour la récupération de données, l’utilisateur utilisera Power Query de l’outil Power BI (Add in dans Excel)
  2. Modéliser, analyser et affiner (donner l’accès à ses analyses aux autres)
    Restitution visuelle : cartographie notamment à l’aide des outils de Power BI : Power View, Power Map.
    Les graphiques peuvent être dynamiques suivant un axe temps (ou autre).
  3. Agir et opérationnaliser (déployer)
    Partage par l’interface Web.
    Q&A est un outil permettant d’effectuer des requêtes en posant des questions en langage naturel.
    Il suffit d’aller sur le site web créé lors de l’installation de Power BI et de poser une question telle que : « Show stock growth, dividend, close ». Cette recherche marche avec l’IntelliSense.

Power BI est la grosse nouveauté de 2014.

II. Big Data

Les volumétries de données n’arrêtent pas d’augmenter.

L’apache Hadoop est le framework Big Data le plus utilisé aujourd’hui.

HD insight est le service Microsoft permettant d’utiliser une solution Apache Hadoop dans le Cloud.

Une démo est ensuite réalisée sous Windows Azure avec la création d’un cluster.

Microsoft Hive ODBC driver est le driver de connexion à une base de données sous Azure.

Le Hive language est un langage d’interrogation de données sur le Cloud qui est proche du SQL.

Les requêtes s’effectuent dans management studio comme une requête SQL.

III. In Memory

Le moteur In Memory BI est appelé Vertipaq. La première fois qu’on a parlé du Vertipaq, c’était sous Power Pivot.

Le moteur In Memory pour l’OLTP est appelé Hekaton.

La grosse nouveauté pour le Column Store Index sous SQL Server 2014 : on peut mettre à jour les données sans avoir à supprimer puis recréer l’index. Il est dorénavant géré comme n’importe quel index.

Pourquoi utiliser le In Memory ? Parce que la mémoire est rapide, l’écriture sur un disque est lente.

Le In Memory  peut être facilement mise en place : une instruction SQL suffit pour passer en In Memory .

L’exemple est montré avec un create table, avec l’option Memory optimized on.

Puis sur une PS avec l’option With Native Compilation.

L’avantage est qu’il n’y a pas à réécrire l’existant.

Il est annoncé une progression d’un facteur 30 en termes de performance, et même 100 sur certaines requêtes ainsi que 90% d’espace disque en moins. Et nous sommes encore en preview, ce qui laisse encore espérer des améliorations.

IV. Database engine

  • Amélioration du service de haute disponibilité always on (rapprochement entre le cluster pour les solutions de haute disponibilité et le miroir de bases pour la réplication de données)
  • Performances améliorées grâce aux SSD (notamment le BPE Buffer pool extension  permettant de mettre un buffer sur un disque SSD beaucoup plus rapide qu’un disque classique)
  • Amélioration apportées sur l’optimiseur de requête.
  • Gouverneur de ressources : permet de spécifier les limites sur l’utilisation des mémoire/cpu/disque
  • Sauvegarde managée (smart backup). Très simple d’utilisation. Il n’y a que 2 paramètres à entrer : la durée de rétention et l’emplacement sur Windows Azure.

V. Cloud et Hybride

3 types de stockage sur le Cloud :

  • IaaS : infrastructure as a service. Il consiste à offrir un accès à un parc informatique virtualisé. Des machines virtuelles sur lesquelles le consommateur peut installer un système d’exploitation et des applications.
  • PaaS platform as a service. le système d’exploitation et les outils d’infrastructure sont sous la responsabilité du fournisseur.
  • L’hybride est une structure mixte qui permet de combiner les ressources internes du Cloud privé à celles externes du Cloud public. Une entreprise qui utilise un Cloud hybride peut par exemple avoir recours au Cloud public ponctuellement, lors de pics d’activité et le reste du temps se contenter des ressources à disposition en interne

On pourra par exemple prendre une base en local et la déployer vers un VM sur Windows Azure.

Les backup sont facilités (voir le chapitre précédent).

Nouvelle offre premium : La fonctionnalité distinctive de Premium est la réservation de capacité. Une réservation garantit une quantité de capacité fixe qui n’est pas partagée avec une autre base de données et qui, ainsi, permet de meilleures performances. L’offre Premium est actuellement en mode préliminaire.

VI. Outils

Pas de démo spécifique par manque de temps, mais une liste d’outils :

  • SSMS
  • SSDT (data tools)
  • SSDT-BI (sur visual studio 2013)
  • TFS
  • Nombreux outils présents sur CodePlex comme BIDS Helper par exemple.
  • ALM pour Azure

Pour conclure :

Une session intéressante permettant de faire le tour des nouveautés de SQL 2014.

Le bémol : un non-initié comme moi aura eu du mal à suivre les nouveautés sur le Cloud et le Big Data. En effet, pas de rappel des bases, beaucoup de termes techniques et un débit rapide.

Pour le reste, à retenir : Microsoft pousse à fond sur PowerBI et le Cloud.

Les Column Store Index sont enfin utilisables sur des tables pouvant avoir des données modifiées (insert, update, delete).

Le In Memory, c’est bien : la RAM a bien baissé en prix, et les temps de réponses sont vraiment meilleurs que sur disque.

Les sauvegardes des BDD sous le Cloud me paraissent être une alternative très intéressantes par rapport aux bandes (entre les temps de récupération des bandes, des étapes à mettre en place pour réaliser ces sauvegardes, etc,etc…).

Frédéric – Consultant décisionnel MCNEXT

[PASS Summit 2013] SQL Server 2012 & 2014 : Columnstore Indexes

Speaker : Jimmy May – MCM, Principal architect Microsoft

Niveau de la session : 300

 

Introduction :

1. Démo : Columnstore index vs index classique

SQL Server 2012 SP1 –>

SELECT count(*) FROM FactTable (100 millions de lignes) :

Sans Columnstore index –> 104 secondes

Avec Columnstore index –> 1 seconde

 

SELECT avec jointures –> 30 lignes retournées :

Sans Columnstore index –> 1 minute 56 secondes

Avec Columnstore index –> 3 secondes

SQL Server 2012 & 2014 : New ! Improved ! Features

 

2. SQL Columnstore index codename APOLLO utilisé dans PowerPivot, PowerView et SSAS,

3. Stockage traditionnel : data stockée physiquement ligne par ligne,

4. Stockage (columnstore) : data stockée en colonne,

5. Caractéristiques du columnstore :

  • Highly compressed,
  • Agressive readahead,
  • Structure hybride (in-memory, disque),
  • Processe les data en unités appelées « batches »,
  • Exécution des requêtes en mode vectoriel,
  • Plusieurs modifications côté moteur (I/O, Mémoire, Cache),

6. Why columnstore ?

  • Optimise l’accès aux DWH volumineux,
  • Est transparent pour l’utilisateur,
  • Réduit l’effort de design physique des DB,

 

Columnstore Index :

1. Version 2012 :

  • Disponible sous SQL Server 2012 Enterprise Edition mais indisponible sur Azure (à l’exception de IaaS),
  • N’est pas compatible avec les vues indexées, filtered indexes et sparses columns,

2. Version 2014 :

  • Full read / write (Insert, Update, Delete, Merge),
  • Supporte tous les types de données à l’exception des CLR, (n)varchar (max), varbinary(max) et spatial,
  • Nouveauté : Clustered Columnstore Index (le Non-Clustered Columnstore Index est en Read uniquement),
  • Compression qui offre un gain d’espace de l’ordre de 25 à 30 %,
  • Optimisation du Hash Join et du Bitmap.

Conclusion :

Session plutôt décevante. Le speaker est vite passé sur les sujets importants et n’a pas fait de démos (la session a commencé sur une démo ratée). Les chiffres, plutôt flatteurs, communiqués sur les performances du columnstore index ne représentent rien sans une vraie preuve, une véritable démonstration. Dommage…

[PASS SUMMIT 2013] Best Practices of Optimizing SQL Server with Solid State Disk

Speaker : Patrick O’keeffe – Software Architect, Dell Software & Richard Douglas – Sytems Consultant, Dell Software

Niveau de la session : 300

Agenda :

  • Brief History of Magnetic Disk
  • Solid State Disk Technology
  • SSD Internals
  • SQL server buffer pool  flash cache architecture
  • Performance comparisons
  • Recommendations & Suggestions

Historique :

  • Evolution du matériel et des performances (avec du recul l’évolution est impressionnante)
  • Loi de Moore (encore lui !) mais pas dans les composants mécaniques (limites physiques)
  • Evolution des tendances en I/O des disques de 2001 à 2009 (graphique)
  • SSD to the rescue (seek time comparison graphique)
  • Consommation électrique en watt (graphique)
  • Coût SSD (graphique coût par IOP et GB) et historique des coûts (graphique de 2000 à aujourd’hui : le coût décroit par GB)

Recommendation : Consider a tiered storage approach

SSD technlology et SSD internals :

  • Présentation des différents types de SSD (en terme de hiérarchie de stockage, écriture, endurance du support et performance)
  • Flash SSD : le moins cher
  • Comparaison PCIe vs SATA
  • Il y a une dégradation des performances d’écriture qui est fonction du taux de remplissage du support : recommandation = être au plus à 25% du taux de remplissage sur les supports SSD pour conserver les performances correctes : pas économique L
  • La session poursuit en décrivant le processus d’un data update sur SSD et du garbage collector

Présentation de l’architecture des buffer de cache spécifique à SQL 2014 :

  • Extension de buffer : c’est na nouveauté propre aux support SSD
  • On la configure dans SQL server 2014 via la clause ALTER SERVER CONFIGURATION (SET BUFFER POOL EXTENSION ONFILE NAME = …) : retour d’expérience : warm up lent (penser en heures !) sur la CTP1 de SQL 2014
  • Pour le monitoring il existe une DMV et des compteurs de performance spécifiques (select * from sys.dm_os_buffer_pool_extension_configuration et select * from sys.dm_os_performance_counters where object_name like ‘%Buffer Manager%’ and counter_name like ‘%extension%’

(pour d’autres DMV c.f. le site de Microsoft et http://www.brentozar.com/archive/2013/06/new-dmvs-in-sql-server-2014-ctp1/)

Performance :

  • Présentation des scénarios de test sur du SQL 2012… et des graphiques de résultats
  • On reparle de la dégradation de la performance en écriture liée au garbage collector : moins le cas pour sql server et sur les disques SSD récents
  • La session aborde aussi la présence de tri dans la temp_db sur du support ssd puis des logs (red/write) sur du flash SSD (attention : tester avec des workload différents)
  • Présentation des scénarios de test sur du SQL 2014… et des graphiques de résultats
  • Conclusion des tests sur 2014 : un peu tôt notamment pas vu d’amélioration sur l’écriture = ils testeront sur la CTP2 (par contre mettrez au moins les données les plus utilisées dans cette extension de buffer flash de  2014), risque de plomber le system disque d’I/O si on desactive l’extension de buffer ( ?!)

Recommandations :

  • N’attendez pas (speaker de DELL ?) que les prix des supports SSD baissent : les disques ssd sont moins cher si on raisonne en IO et plus si on raisonne en GB
  • Considérer une stratégie matérielle mixte (HD classique et SSD) : SSD là où il y a la plus forte contention sur les données
  • Les SSD Flash fonctionnent bien : les utiliser en cas de lecture instance pour les données et pour la tempdb
  • Les drive SAS sont 66 fois plus lents que les SSD pour du seek
  • LES SSD (en PCIe) font 280 fois plus de IOPs
  • Si vous voulez avoir les mêmes IOP sur du SAS que sur 1 SSD en PCIe

Conclusion :

Session abordable (pour les DBA et les préconisations de matériel) , c’est toujours bien d’apprendre qu’il faudra utiliser des clauses supplémentaire liées au support physique de stockage (c’est pas automatique).

Pour les best practices SQL sur du SSD (à priori) : peu d’infos en fin de compte.

Pascal Rouzé

[PASS SUMMIT 2013] SSIS Roadmap

Speaker : Matt Masson et Wee Hyong Tok (travaillent tous les 2 dans la team SSIS)

Niveau de la session : 300

SQL Server 2014 : Pas de nouveautés SSIS (pour le moment mais éventuellement à venir…) car dans la version « twenty fourteen » c’est plus l’amélioration du moteur qui a été privilégiée.

1. New and Upcoming :

* SSIS Reporting Pack (par Jamie Thomson) : ensemble de rapports sur les logs SSIS 2012 Catalog (Dashboards, overviews, detailed execution reports). Ces rapports permettent également de voir ce qui bloque / ralentit les packages SSIS,

* DQS extensions (OH22 Data) :

  • DQS Matching (basée sur la Policy définie au niveau de DQS KB),
  • Domain Import values & Publish (pour automatiser et simplifier la création des valeurs dans la Knowledge Base).

* Démo :

  • Dédoublonnage réalisé via le Fuzzy Grouping (existant dans SSIS) et le DQS Matching (à tester pour voir les perfs),
  • Domain Import : Source MDS (Excel) –> SSIS –> DQS,

* SQLCAT va sortir des composants Azure (Azure Sharding Destination, Azure BLOB Source and Destination),

2. SQL Server 2014 :

* Focus on the engine and hybrid SQL Server :

  • In-Memory OLTP,
  • Enhanced In-Memory ColumnStore,
  • Nouveaux scénarios hybrides pour Windows Azure,

* OData source : nouvelle source de données qui sera rajouté dans SSIS 2014 et probablement SSIS 2012,

* L’installation de SQL Server 2014 CTP2 n’inclut pas l’installation de SSDT. Il faut le télécharger séparément sur le Microsoft Download Center. Microsoft cherche à séparer le serveur (SQL) des outils…

* SQL Server 2012 intègre nativement SSDT qui repose sur Visual Studio 2010 mais est compatible avec Visual Studio 2012 en téléchargement séparé,

* SQL Server 2014 CTP2 propose SSDT (Visual Studio 2012) en téléchargement séparé,

* SQL Server 2014 proposera SSDT (Visual Studio 2013) en téléchargement séparé,

* Complex Data Feeds : pour exposer les packages SSIS en tant que vues SQL et permettre ainsi, notamment, de lancer l’exécution d’un lot à la demande (SSIS Data Streaming Destination) –> A approfondir…

3. Conclusion :

Session légère et intéressante (notamment les démos) où nous avons plus vu SSIS via ses extensions (point d’intérêt pour DQS Matching qui manquait jusqu’à présent et l’extension relative à la création automatique des valeurs de la knowledge base via un import Excel notamment) et sa relation avec le cloud Azure que le vrai futur de SSIS (en terme de nouveautés) comme annoncé dans le titre de la session…

Ismail Ben Lamine