Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
ter [2012/11/27 11:35]
ecoquery
ter [2015/11/06 08:21] (Version actuelle)
ecoquery
Ligne 1: Ligne 1:
-====== Sujets de TER ====== +====== Sujets de TER 2015-2016 ======
-  +
-===== Prototype de moteur de fouille de données basé sur SAT Modulo Theory =====+
  
-La fouille de données consiste à extraire des informations pertinentes à partir d'un gros volume de données. Un exemple consiste à extraire de données sur les prescriptions des patients les combinaisons de médicaments ayant eu des effets indésirables. Un autre exemple consiste à extraire les combinaisons d'articles achetés souvent ensemble, afin de découvrir les habitudes des clients. De telles combinaisons intéressantes sont appelées motifs.+===== Bibilothèque d'algorithmes d'équivalence et de réécriture de requêtes =====
  
-Depuis quelques années, l'utilisation de la programmation par contraintes afin de découvrir des motifs intéressants à suscité un intérêt dans la communauté scientifique (voir par exemple http://dtai.cs.kuleuven.be/CP4IM/). +Dans le cadre de l'intégration différentes sources de données, une approche classique consiste à exprimer des requête sur un schéma global et à réécrire ces requêtes pour récupérer (une partiedes information sur chaque source
  
-L'objectif de ce TER est de mesurer l'apport que peut apporter l'utilisation de solveurs SAT Modulo Theory (SMT) par rapport aux solveurs de contraintes utilisés aujourd'hui dans ce cadreOn débutera par une mise à niveau sur la fouille de données et sur les solveurs SAT et SMT, puis on adaptera à la fouille le solveur [[http://verify.inf.usi.ch/opensmt|OpenSMT]]+Bien qu'il existe plusieurs algorithmes, notamment pour Datalog (e.g. [1], [2], [3]), permettant de réaliser cette réécriture, il n'existe pas à notre connaissance de bibliothèque implémentant tous ces algorithmes. L'objectif de ce TER est donc de réaliser cette bibliothèque, qui constituera une brique de base pour des développements à venir dans l'équipe BD du LIRIS autour du raisonnement sur les requêtesDe ce point de vue, une attention particulière devra être apportée sur la qualité du code produit par opposition à la quantité d'algorithmes implémentés.
  
 +[1] A.Y. Halevy: "Answering queries using views: A survey", The VLDB Journal, Vol. 10, Iss. 4, 2001
  
-===== Amélioration d'un langage de recherche de motifs =====+[2] J. Wang, M. Maher, R. Topor: "Rewriting Unions of General Conjunctive Queries Using Views", Advances in Database Technology (EDBT), 2002
  
-RLT [1est un langage permettant d'exprimer des requêtes pour chercher des motifs intéressants dans des bases de données relationnellesUne implémentation en Java existe et a permis de faire quelques expérimentationsL'objectif de ce TER est de: +[3DCalvanese, GDe Giacomo, M. Lenzerini, and M. Y. Vardi: "Query processing under glav mappings for relational and graph databases", Proc. VLDB Endow., 6(2):61–72Dec2012.
-  * Mener une campagne d'expérimentation plus largeavec des requêtes plus réalistes. +
-  * Étendre le langage avec des construction additionnelles telles que le comptage.+
  
-[1] http://liris.cnrs.fr/Documents/Liris-5712.pdf 
  
-Ces TER se dérouleront dans le cadre du projet [[http://liris.cnrs.fr/dag/|DAG]].+**mots-clés**: Intégration de données, Datalog 
 + 
 +=====  Mises à jour et contrôle d'accès sur des bases de données RDF ===== 
 + 
 +Le web sémantique [5] est défini comme une extension du Web courant dans lequel l'information a un sens bien défini permettant à la machine de capturer la sémantique des données. Il fournit un cadre commun qui permet aux données d'être partagées et réutilisées entre les applications Web.  
 + 
 +Le Web sémantique est basé sur le modèle de données RDF (Resource Description Framework) [6] pour représenter les données et les relations entre elles. RDF permet de décomposer l'information en portions appelées "triplets" qui sont stockées dans des entrepôts de données (triple store). 
 + 
 +L'équipe BD du LIRIS à proposé dans [7] un modèle de contrôle d'accès évolué pour les bases de données RDF. Une première implémentation de ce modèle a été réalisée sur TDB, la base de donnée RDF native de Jena. Afin de limiter le surcoût du contrôle d'accès lors de l'exécution des requêtes, un ensemble d'informations sont précalculées et stockées dans la base. Ce mode de fonctionnement limite actuellement cette implémentation à un fonctionnement en lecture seule (les mise à jour nécessite un recalcul complet de ces informations). L'objectif de ce TER est dans un premier temps d'implémenter une mise à jour incrémentale de ces informations, puis dans un deuxième temps de mener une réflexion sur l'extension des politiques de contrôle d'accès aux opérations de mise à jour. 
 + 
 +[5] Berners-Lee, Tim, James Hendler, and Ora Lassila. "The semantic web." Scientific american 284.5 (2001)28-37. 
 + 
 +[6] Manola, Frank, Eric Miller, and Brian McBride"RDF primer." W3C recommendation 10.1-107 (2004). 
 + 
 +[7Tarek Sayah, Emmanuel Coquery, Romuald Thion, Mohand-Saïd Hacid: 
 +"Inference Leakage Detection for Authorization Policies over RDF Data." DBSec 2015: 346-361