Data and Security Workshop

Colloque « Données et Sécurité »
Vendredi 25 mars 2016
Lieu : Télécom ParisTech. Amphithéâtre Emeraude. 46 rue Barrault – 75634 Paris cedex 13
Horaires : 9h00 à 17h30

Organisateurs / Responsables Scientifiques :

  • Daniel Ventre (CNRS, Laboratoire CESDIP (UMR 8183 à CNRS/Univ. Versailles/ Ministère de la Justice), GERN à Groupe Européen de Recherches sur les Normativités)
  • Daniel Kofman, Professeur, Telecom ParisTech, Directeur du LINCS (Laboratory for Information, Networking and Communication Sciences)

Le colloque « Données et Sécurité » est un projet conjoint GERN (CESDIP à UMR 8183) / Institut Mines-Telecom. Il bénéficie du soutien financier du CNRS dans le cadre du programme PEPS (CNRS à Idex Saclay). Il s’inscrit d’autre part dans le cadre du programme du GERN (Groupe Européen de Recherches sur les Normativités) « Usages des nouvelles technologies dans les domaines de la sécurité et de la justice pénale» .
Objet

Ce colloque traitera de la relation qu’entretiennent « données » et « sécurité ». D’une part, la capacité   capturer et traiter massivement des données représente un vecteur majeur d’innovation et de création de valeur, sociale et économique. D’autre part, le contrôle des données est devenu un sujet critique en ce qui concerne la protection de la vie privée et la protection de la valeur des entreprises, ainsi qu’un enjeu de sécurité nationale. Que disent les sciences humaines et sociales (sociologues, politistes, philosophes), les sciences de l’information (informatique, télécoms) ou encore les mathématiques, de cette relation « données-sécurité » ? Le colloque a pour principal objet d’identifier des opportunités de recherche interdisciplinaires dans le recherche de solutions permettant de bénéficier des opportunités offertes par les évolutions technologiques liées aux données tout en contrôlant les risques associés.

PROGRAMME

Matinée
– 9h00- 9h30: Introduction : Daniel Ventre (CNRS à CESDIP), Daniel Kofman (Telecom ParisTech, laboratoire LINCS)
DK Colloque securite donnees introduction

– 9h30 à 10h00 : « Du virtuel au vulnérable », Jérôme Lèbre, directeur de programme au Collège international de philosophie

– 10h00 – 10h30 – « Au coeur du Bertillonnage : collecte des données et nouvelles logiques policières», Pierre Piazza, Maître de conférences en science politique, université de Cergy-Pontoise (CESDIP/LEJEP)

– 10h30 à 10h45 : Discussions, questions/réponses

– 10h45 à 11h00 : pause

– 11h00 à 11h30 : « Protection des données personnelles : Analyse technique et travaux de recherche», Maryline Laurent, Professeur de Télécom SudParis et chercheur du laboratoire CNRS SAMOVAR UMR5157, Cofondatrice de la chaire Valeurs et politiques des informations personnelles

– 11h30-12h00 : « Protéger les données sera l’élément clé de la transformation numérique», Bernard Barbier, Group Cyber Security Officer de CAPGEMINI.

– 12h00 à 12h15 : Discussions, questions/réponses

Après-midi
– 13h30- 14h00 : « Self Data : et si les individus (re)trouvaient l’usage de leurs données personnelles », Daniel Kaplan, Cofondateur et délégué général de la Fing

– 14h00 à 14h30 : « Solutions de protection pour la sécurité des données externalisées », Frédéric Cuppens, professeur   Télécom Bretagne, responsable de l’équipe SFIIS de l’UMR CNRS LabSTICC, responsable de la chaire sur la cybersécurité des infrastructures critiques.

– 14h30 à 15h00 : « Technologies de Big Data pour la défense des infrastructures critiques », Nora Cuppens-Boulahia, directrice de recherche   Télécom Bretagne, responsable du programme Cyber securité, CyruS, du laboratoire CNRS LabSTICC.

– 15h00 à 15h15 : Discussions, questions/réponses

– 15h15 à 15h30 : pause

– 15h30 à 16h00 : « Ce que disent les métadonnées », par Thierry Berthier, MC Université de Limoges, membre de la Chaire Cybersécurité & Cyberdéfense (Ecoles Militaires de Saint-Cyr Co«tquidan)

– 16h00 à 16h30 : « Le predictive policing: entre science, administration et droit », par Bilel Benbouzid, Maître de conférences en sociologie, Université Paris Est, Marne-la-Vallée, Laboratoire Interdisciplinaire, Science, Innovation et Société (LISIS)

– 16h30 à 17h00 : « Cartographie prédictive : Problématiques, état de l’art, enjeux, l’exemple de Map Revelation », par Christophe Courtois, Président de SûretéGlobale.Org.

– 17h00 à 17h15 : Discussions, questions/réponses

PRESENTATIONS

Daniel Kofman est Professeur   Telecom ParisTech. Il est co-fondateur et directeur du LINCS (Laboratory for Information, Networking and Communication Sciences) et Directeur Exécutif du Centre Technologique ICT4V (Information and Communication Technologies for Verticals). Il est membre du Comité Scientifique de l’OPECST (Office Parlementaire d’Evaluation des Choix Scientifiques et Technologiques). Il contribue en tant que consultant indépendant pour diverses entreprises dans le secteur des TIC et il a été le Directeur de la technologie (CTO) d’une grande entreprise de ce secteur. Il a également cofondé une start-up. Daniel Kofman a cofondé et dirigé le comité de pilotage des réseaux d’excellence européens Euro-NGI et Euro-NF sur les réseaux et services du futur. Ses travaux de recherche récents portent notamment sur l’Internet des Objets et sur les smart grids. Il est l’auteur de deux ouvrages et de divers articles scientifiques.

Daniel Ventre, ingénieur CNRS, secrétaire général du GERN (Groupe Européen de Recherches sur les Normativités), mène ses recherches au sein du CESDIP. Ses travaux portent sur la cybersécurité (cybercriminalité, stratégies nationales de cybersécurité, doctrines de cyberdéfense). Il est l’auteur d’une dizaine d’ouvrages sur la guerre de l’information, la cybersécurité et cyberdéfense. Il est également titulaire de la Chaire Cybersécurité & Cyberdéfense (Ecoles de Saint Cyr Co«tquidan). Son dernier ouvrage : Information Warfare, 2nd Edition, 352 pages, Wiley-ISTE, février 2016.

« Cartographie prédictive : Problématiques, état de l’art, enjeux, l’exemple de Map Revelation »

Christophe Courtois, Président de SûretéGlobale.Org

« La cartographie prédictive est souvent l’objet de fantasmes et de défiance. Tandis que les outils de machine learning cherche   comprendre Qui ou Pourquoi, la cartographie prédictive se concentre sur l’angle Où et Quand. Quelles sont les problématiques techniques liées   ces questions ? Où en sommes-nous ? Quels enjeux, quels résultats ? Une démonstration avec Map Revelation, développé par SûretéGlobale.Org et l’IMA, en service depuis 2009 dans de nombreux départements du Ministère de l’intérieur »

« Ce que disent les métadonnées »

Thierry Berthier, MC Université de Limoges, membre de la Chaire Cybersécurité & Cyberdéfense (Ecoles Militaires de Saint-Cyr Coëtquidan)

Les métadonnées jouent un rôle considérable dans l’analyse des données. Elles “parlent” en général beaucoup plus que ce que l’on imagine. Nous en créons quotidiennement un volume important et le plus souvent de manière totalement involontaire. Ces métadonnées alimentent ensuite les systèmes de collecte (et d’analyse) qui sont en mesure d’établir notre profil de consommateur, nos pratiques, nos préférences, nos habitudes, avec une grande précision… Le formalisme des projections algorithmiques peut être utilisé pour évoquer les métadonnées (comme projections systémiques). Il permet ensuite de définir le ratio du volume des projections volontaires sur celui des projections systémiques puis de définir les concepts de niveau d’ubiquité d’un lieu et de consentement algorithmique d’un individu. Ces deux indicateurs doivent être “croisés” pour interpréter nos comportements face aux systèmes de collectes et d’analyse des données.

« Au cœur du Bertillonnage : collecte des données et nouvelles logiques policières»

Pierre Piazza, Maître de conférences en science politique, université de Cergy-Pontoise (CESDIP/LEJEP)

€ partir du dernier tiers du XIXe siècle, les forces de l’ordre commencent de plus en plus systématiquement   recourir   de nouvelles techniques et   la science afin de rendre leurs méthodes et leurs investigations plus efficaces.
Alphonse Bertillon – qui devient en 1893 le premier directeur du Service de l’Identité judiciaire de la Préfecture de police de Paris – joue un rôle déterminant dans ce processus conduisant notamment   une collecte de données de plus en plus diverses et nombreuses.
Bertillon développe des savoirs et des pratiques rationnels d’identification des personnes, une multitude d’expertises, des modalités inédites d’analyse des scènes de crime, etc.
On se propose d’analyser ses « inventions » et la fa§on dont elles contribuent alors   réformer en profondeur l’activité policière.

« Le predictive policing: entre science, administration et droit »

Bilel Benbouzid, Maître de conférences en sociologie, Université Paris Est, Marne-la-Vallée, Laboratoire Interdisciplinaire, Science, Innovation et Société (LISIS)

Cette présentation prend pour objet le predictive policing, une police assistée dans le quotidien de ses différentes fonctions (renseignement, enquête criminelle et patrouille) par des algorithmes de fouille de données. En adoptant une perspective de sociologie de la quantification, nous nous intéressons   la spécificité des technologies de calcul qui sous-tendent le predictive policling. Le predictive policing s’inscrit   la fois dans la continuité et en rupture avec le mode de quantification dominant dans les années 1980-1990 caractérisé le New Public Management. Il change le statut du savoir criminologique dans l’action publique de sécurité. Il pose des questions juridiques et politiques de “régulation” des algorithmes. Entre science, administration et droit, le predictive policing doit être analysé comme une activité de mesure qui prend forme dans un environnement institutionnel, technique et politique.

« Protéger les données sera l’élément clé de la transformation numérique ».

Bernard Barbier, Group Cyber security officer de CAPGEMINI

La transformation digitale des entreprises, des organisations et des états s’accélère afin de répondre aux besoins croissants des citoyens, des consommateurs et utilisateurs. Les technologies clés de cette transformation sont: Le Cloud computing, le big data, la mobilité et les réseaux sociaux. Toutes ces technologies mettent en danger la confidentialité des données. La sécurité des données est donc fondamentale pour réussir cette révolution. La sécurité c’est le chiffrement mais aussi la disponibilité. Les technologies de chiffrement sont maintenant banalisées et elles sont partout présentes. La confiance dans la qualité du chiffrement doit être totale et sa remise en cause, pour des besoins de sécurité des états, serait très grave.

« Self Data : et si les individus (re)trouvaient l’usage de leurs données personnelles »

Daniel Kaplan, Cofondateur et délégué général de la Fing

Plus encore que l’insécurité, le principal ennemi de la confiance numérique est l’écart qui se creuse entre des entreprises qui accumulent de plus en plus de données et de capacités de les traiter, et les individus qui n’en retirent pas grand-chose. Mais il existe une autre voie : partager avec les individus les données qui les concernent, et les capacités de les exploiter. Nous l’appelons “Self Data”. Elle représente un véritable changement de paradigme, tant en termes d’organisation, de relation clients, de marketing, que de systèmes d’information. A son tour, elle soulève de nouvelles questions et fait émerger de nouveaux défis, y compris en matière de sécurité.

« Protection des données personnelles : Analyse technique et travaux de recherche »

Maryline LAURENT, Professeur de Télécom SudParis et chercheur du laboratoire CNRS SAMOVAR UMR5157, Cofondatrice de la chaire Valeurs et politiques des informations personnelles

La présentation débutera par la distinction   faire entre “données fonctionnelles” et “données périphériques”, puis elle décrira les différentes recherches menées sur la protection des données personnelles par Télécom SudParis, cofondateur de la chaire Valeurs et politiques des informations personnelles de l’Institut Mines-Télécom. Seront balayées différentes problématiques techniques d’actualité telles que les preuves d’attributs, la modélisation de propriétés (unlinkability…), les protocoles de sécurité et l’agrégation de données.

« Technologies de Big Data pour la défense des infrastructures critiques »

Nora Cuppens-Boulahia est directrice de recherche   Télécom Bretagne et responsable du programme Cyber securité, CyruS, du laboratoire CNRS LabSTICC. Elle est docteur de SUP’AERO et HDR de l’Université de Rennes 1. Ses recherches et enseignements portent sur la formalisation des propriétés et des politiques de sécurité, l’analyse des protocoles cryptographiques, validation des propriétés de sécurités, analyse et évaluation des menaces et des risques. Elle a publié plus de 160 articles dans des revues et des actes de conférences. Elle est la représentante de l’IFIP TC11 « Information Security » et est co-responsable de club sécurité des systèmes d’information de la SEE.

Dans cet exposé, nous présenterons les travaux menés dans la chaire sur la cybersécurité des infrastructures critiques reposant sur l’utilisation des technologies de « Big Data » et des technologies statistiques avancées pour rechercher des menaces nouvelles dans des volumes de données importants. La démarche proposée doit permettre d’améliorer les techniques de détection   base d’analyse comportementale et de développer des capacités de détection de nouvelles menaces.

« Solutions de protection pour la sécurité des données externalisées »

Frédéric Cuppens est professeur   Télécom Bretagne, Campus de Rennes, animateur du réseau thématique “Sécurité des systèmes et services numériques” de l’Institut Mines-Télécom et responsable de l’équipe SFIIS de l’UMR CNRS LabSTICC. Il a obtenu un doctorat de l’ENSAE et une HDR de l’Université de Toulouse III. Il est l’un des principaux concepteurs du modèle d’expression de politiques de sécurité Or-BAC (Organization Based Access Control) et a défini le module de supervision de la sécurité CRIM (Cooperative Intrusion Detection Framework). Il est actuellement responsable de la chaire sur la cybersécurité des infrastructures critiques.

De plus en plus de systèmes d’information sur Internet proposent des services reposant sur des processus d’externalisation des données. Les données externalisées sont souvent sensibles et doivent être protégées pour préserver leur confidentialité et leur intégrité. Dans cette présentation, nous nous intéresserons aux techniques de protection de données confidentielles ou   caractère personnel pour éviter les risques de divulgation ou de réidentification. Nous examinerons également les solutions pour assurer la traçabilité des données externalisées.

« Du virtuel au vulnérable »

Jérôme Lèbre, directeur de programme au Collège international de philosophie

Réflexion sur l’articulation de deux notions, la virtualité et la vulnérabilité des données. Alors qu’on s’est beaucoup inquiété sur les dangers du virtuel, on découvre sa vulnérabilité, c’est- -dire aussi l’aspect matériel de ce que l’on nomme sa “sauvegarde”. Il n’y a   vrai dire rien de purement virtuel, sinon la pure matière, prête   tous les événements.