tous les documents
  • tous les documents
  • Images
  • Films
  • Rushes
  • Publications
  • Audio
Recherche avancée
Ensemble de recherche :
tous les documents
  • tous les documents
  • Images
  • Films
  • Rushes
  • Publications
  • Audio
Recherche par couleur
Ensemble de recherche :
tous les documents
  • tous les documents
  • Images
  • Films
  • Rushes
  • Publications
  • Audio
Code HTML Copiez-collez le code ci-dessous pour l'intégrer dans une page Web.
Titre :
LHS - Laboratoire de Haute Sécurité
Légende - Résumé :
Situé au cœur du centre Inria Nancy-Grand Est, le laboratoire de haute sécurité informatique, appelé le LHS, est voué à accueillir des travaux de recherche déterminants pour sécuriser le réseau, les échanges sur internet et les équipements de télécommunications associés.
Le LHS offre le cadre technologique et réglementaire nécessaire aux avancées scientifiques accompagnant les évolutions de notre société numérique.
Ouvert aux partenaires industriels, le laboratoire représente également un cadre propice aux tests de fiabilité requis avant toute mise sur le marché de différents produits ou solutions technologiques.
Nom de fichier :
Inria-1011_LHS_2016.mp4
Titre :
LHS - Laboratoire de Haute Sécurité
Année :
2016
Durée (min) :
00:07:48
Publications :
https://videotheque.inria.fr/videotheque/doc/1011
Autres versions :
Master VF : 1011
Master VEN :
Autre : Lien externe :
Lien Equipe-projet :
Lien Centre de Recherche :
Mots clés :
N° master :
1011
Durée :
07 min 48 sec
IsyTag :
brique - comportement - connectées - contre-mesures - donnée - expérimentation - machine - malveillant - partenaire - plate-forme - plates-formes - pouvoir - programme - réseau - scientifique - sécurité - virus
Transcription automatiqu :
des virus de la recherche d'une part pour comprendre leur fonctionnement les et trouver des parades on récupère ce euh ce malware une première fois il faut aller le décortiquer et l'analyser pour foire justement on le classifiés et signature est certain que ben justement comportement est vraiment malveillant l'apparition du virus arrive dans les années quatre-vingt ça euh ça augmentait ça s'est intensifié d'année en année le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter donc au départ sur les ordinateurs puis après l'arrivée d'internet propager travaille avec les verts pour partout les plates-formes sont diversifiés on en son téléphone portable ce sont des supports comme des clients bien entendu les choses comme ça les dvd aussi sur les documents attachés de documents pour l'vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles en étaient conscients c'est que on est incapable de prédire le comportement qu'aura un problème vous avez besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on commence à lancer des expérimentations veut ça dire en gros exécuter des virus a ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils euh sécurisés pour mener à bien ses expériences sachant qu'on va traiter parfois dix milles cent milles pour l'aspect plus expérimentation on besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades on récupère ce euh ce malware une première fois il faut aller le décortiquer et l'analyser pour foire justement on le classifiés et signature est certain que ben justement comportement est vraiment malveillant l'apparition du virus arrive dans les années quatre-vingt ça euh ça augmentait ça s'est intensifié d'année en année le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter donc au départ sur les ordinateurs puis après l'arrivée d'internet propager travaille avec les verts pour partout les plates-formes sont diversifiés on en son téléphone portable ce sont des supports comme des clients bien entendu les choses comme ça les dvd aussi sur les documents attachés de documents pour l'vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles en étaient conscients c'est que on est incapable de prédire le comportement qu'aura un problème vous avez besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on commence à lancer des expérimentations veut ça dire en gros exécuter des virus a ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils euh sécurisés pour mener à bien ses expériences sachant qu'on va traiter parfois dix milles cent milles pour l'aspect plus expérimentation on besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant l'apparition du virus arrive dans les années quatre-vingt ça euh ça augmentait ça s'est intensifié d'année en année le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter donc au départ sur les ordinateurs puis après l'arrivée d'internet propager travaille avec les verts pour partout les plates-formes sont diversifiés on en son téléphone portable ce sont des supports comme des clients bien entendu les choses comme ça les dvd aussi sur les documents attachés de documents pour l'vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles en étaient conscients c'est que on est incapable de prédire le comportement qu'aura un problème vous avez besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on commence à lancer des expérimentations veut ça dire en gros exécuter des virus a ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils euh sécurisés pour mener à bien ses expériences sachant qu'on va traiter parfois dix milles cent milles pour l'aspect plus expérimentation on besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 ça euh ça augmentait ça s'est intensifié d'année en année le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter donc au départ sur les ordinateurs puis après l'arrivée d'internet propager travaille avec les verts pour partout les plates-formes sont diversifiés on en son téléphone portable ce sont des supports comme des clients bien entendu les choses comme ça les dvd aussi sur les documents attachés de documents pour l'vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles en étaient conscients c'est que on est incapable de prédire le comportement qu'aura un problème vous avez besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on commence à lancer des expérimentations veut ça dire en gros exécuter des virus a ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils euh sécurisés pour mener à bien ses expériences sachant qu'on va traiter parfois dix milles cent milles pour l'aspect plus expérimentation on besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents pour l'vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles en étaient conscients c'est que on est incapable de prédire le comportement qu'aura un problème vous avez besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on commence à lancer des expérimentations veut ça dire en gros exécuter des virus a ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils euh sécurisés pour mener à bien ses expériences sachant qu'on va traiter parfois dix milles cent milles pour l'aspect plus expérimentation on besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme vous avez besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on commence à lancer des expérimentations veut ça dire en gros exécuter des virus a ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils euh sécurisés pour mener à bien ses expériences sachant qu'on va traiter parfois dix milles cent milles pour l'aspect plus expérimentation on besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus a ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils euh sécurisés pour mener à bien ses expériences sachant qu'on va traiter parfois dix milles cent milles pour l'aspect plus expérimentation on besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisée pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 pour l'aspect plus expérimentation on besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisée pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 Pour l'aspect plus expérimentation on besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler des réseaux de taille bon fonctionne sur des réseaux physiquement séparés donc on a notre salle de travail d'un côté les machines d'expérimentation dans salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès euh limités euh sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels mais plutôt un ère université le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires le protocole c'est quelque chose qui des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs à distance de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre une machine est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède en parallèle on développe aussi les contre-mesure qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenue un réseau mondial initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau mondial depuis le début des années quatre-vingt dix avec la très grande expansion de ce réseau c'est devenu un objet à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau mondial Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur est-ce on de venir faire en tant que académique en tant qu'universitaire c'est de apporter un côté formel là dessus c'un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau mondial Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme fort quoi prouver par exemple programme frappa ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau mondial Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme voire prouver par exemple programme ne fera pas ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme voire prouver par exemple programme ne fera pas ou fera telle action possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme voire prouver par exemple programme ne fera pas ou fera telle action Cette possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est capable d'anticiper les techniques si on est capable de fournir des a de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme voire prouver par exemple programme ne fera pas ou fera telle action Cette possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est capable d'anticiper les techniques si on est capable de fournir des nouvelles de défense alors on sera peut être capable de produire des meilleurs systèmes sécurisés dans l'avenir en c'est tout un ensemble de machines qui sont connectés à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme voire prouver par exemple programme ne fera pas ou fera telle action Cette possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est capable d'anticiper les techniques si on est capable de fournir des nouvelles méthodes de défense alors on sera peut être capables de produire des meilleurs systèmes sécurisés dans l'avenir Ce réseau c'est tout un ensemble de machines qui sont connectées à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés Chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques avons besoin d'un petit hidalgo rythmique qui nous permette à partir de ces données collectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme voire prouver par exemple programme ne fera pas ou fera telle action Cette possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est capable d'anticiper les techniques si on est capable de fournir des nouvelles méthodes de défense alors on sera peut être capables de produire des meilleurs systèmes sécurisés dans l'avenir Ce réseau c'est tout un ensemble de machines qui sont connectées à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés Chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques Nous avons besoin d'outils algorithmiques qui nous permettent à partir de ces données connectées de construire des modèles en extraire des modèles d'attaque ce qui vont nous permettre de construire des contre-mesure données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme voire prouver par exemple programme ne fera pas ou fera telle action Cette possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est capable d'anticiper les techniques si on est capable de fournir des nouvelles méthodes de défense alors on sera peut être capables de produire des meilleurs systèmes sécurisés dans l'avenir Ce réseau c'est tout un ensemble de machines qui sont connectées à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés Chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques Nous avons besoin d'outils algorithmiques qui nous permettent à partir de ces données connectées de construire des modèles d'en extraire des modèles d'attaque ce qui va nous permettre de construire des contre-mesures données elles ont vocation à être publiques mise à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme voire prouver par exemple programme ne fera pas ou fera telle action Cette possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est capable d'anticiper les techniques si on est capable de fournir des nouvelles méthodes de défense alors on sera peut être capables de produire des meilleurs systèmes sécurisés dans l'avenir Ce réseau c'est tout un ensemble de machines qui sont connectées à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés Chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques Nous avons besoin d'outils algorithmiques qui nous permettent à partir de ces données connectées de construire des modèles d'en extraire des modèles d'attaque ce qui va nous permettre de construire des contre-mesures Les données elles ont vocation à être publiques et à être mises à disposition de la communauté scientifique sont mis en oeuvre sûr sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme voire prouver par exemple programme ne fera pas ou fera telle action Cette possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est capable d'anticiper les techniques si on est capable de fournir des nouvelles méthodes de défense alors on sera peut être capables de produire des meilleurs systèmes sécurisés dans l'avenir Ce réseau c'est tout un ensemble de machines qui sont connectées à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés Chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques Nous avons besoin d'outils algorithmiques qui nous permettent à partir de ces données connectées de construire des modèles d'en extraire des modèles d'attaque ce qui va nous permettre de construire des contre-mesures Les données elles ont vocation à être publiques et à être mises à disposition de la communauté scientifique qui sont mis en oeuvre sur ces données sont partagés dans le cadre de publications scientifiques ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument autre part on est dans le processus scientifique de validation des algorithmes des solutions par des publications dans les conférences internationales ou des journaux de tout premier plan
Il faut capturer des virus d'un point de vue de la recherche d'une part pour comprendre leur fonctionnement les étudier et trouver des parades Quand on récupère ce malware une première fois il faut aller le décortiquer l'analyser pour pouvoir justement le classifier et extraire une signature et être certain que justement son comportement est vraiment malveillant L'apparition des virus arrive dans les années 80 Ensuite ça a augmenté ça s'est intensifié d'année en année et le nombre de plates-formes attaquées par les virus ou les codes malveillants n'a cessé d'augmenter Donc au départ sur les ordinateurs puis après avec l'arrivée d'internet ça s'est propagé avec les vers un peu partout Puis les plates-formes se sont diversifiées on en voit sur les téléphones portables on en voit aussi sur des supports comme les clés usb bien entendu les choses comme ça les dvd mais aussi sur les documents attachés comme documents Pour l'instant vu la façon dont les programmes ont été conçus dont les architectures informatiques actuelles ont été conçues c'est que on est incapable de prédire le comportement qu'aura un programme On avait besoin d'expérimenter pour bien comprendre ce que l'on faisait donc on a commencé à lancer des expérimentations ça veut ça dire en gros exécuter des virus A ce niveau-là on a eu un cas de conscience on s'est dit qu'il fallait une plate-forme des outils un peu sécurisés pour mener à bien ces expériences sachant qu'on va traiter parfois on va analyser 10000 100000 codes malveillants Pour l'aspect plus expérimentation on a besoin d'un grand nombre de machines pour pouvoir aussi bien distribuer nos tests que éventuellement simuler un réseau de grande taille Bon ça fonctionne sur des réseaux physiquement séparés Donc on a notre salle de travail physiquement d'un côté les machines d'expérimentation dans une salle serveur avec juste du réseau entre les deux et des accès limités sur les machines Il fallait une structure qui soit à la fois qui offre un cadre juridique mais aussi ouvert une plate-forme de recherche ouverte d'autres partenaires sont des partenaires industriels ou des partenaires universitaires Un protocole c'est quelque chose qui décrit des échanges de messages sur un réseau ayant pour but de sécuriser à la fin les communications donc par exemple un protocole de sécurité c'est ce qui permettra à deux ordinateurs distants de partager une clé pour ensuite chiffrer les données de manière sûre Avec très peu de machines on est capable de prendre le contrôle complet du réseau notamment en encerclant certains mots-clés de savoir qui accède et en parallèle on développe aussi les contre-mesures qui vont permettre effectivement de protéger l'internaute Depuis sa création l'internet a fait l'objet d'une construction brique par brique une approche scientifique de construction d'un réseau qui est aujourd'hui devenu un réseau mondial Initialement les scientifiques maîtrisaient l'intégralité des briques de la construction de ce réseau Or depuis le début des années 90 avec la très grande expansion de ce réseau c'est devenu un objet vivant à part entière qui nécessite une nouvelle approche scientifique pour en comprendre le comportement afin d'en améliorer les fonctionnalités dans le futur Nous ce qu'on essaie de venir faire en tant que académique en tant qu'universitaire c'est de venir apporter un côté formel là-dessus c'est un programme c'est un objet scientifique sur lequel on peut dire des choses et nous on essaye vraiment de prouver des propriétés de sécurité de prédire vraiment le comportement d'un programme voire prouver par exemple programme ne fera pas ou fera telle action Cette possibilité d'anticiper les menaces est très importante en sécurité informatique puisque on a cette dualité entre l'attaquant le défenseur qui conduit à une escalade des techniques et si on est capable d'anticiper les techniques si on est capable de fournir des nouvelles méthodes de défense alors on sera peut être capables de produire des meilleurs systèmes sécurisés dans l'avenir Ce réseau c'est tout un ensemble de machines qui sont connectées à internet qui n'ont aucun mécanisme de protection mais qui ont un certain nombre de services simulés Chaque service représente une vulnérabilité et on se laisse attaquer pour capturer les attaques Nous avons besoin d'outils algorithmiques qui nous permettent à partir de ces données connectées de construire des modèles d'en extraire des modèles d'attaque ce qui va nous permettre de construire des contre-mesures Les données elles ont vocation à être publiques et à être mises à disposition de la communauté scientifique qui sont mis en oeuvre sur ces données sont partagés dans le cadre de publications scientifiques Donc ça ça donne d'une part une crédibilité au laboratoire par les volumes de données et la qualité des données qui peuvent être collectées via cet instrument D'autre part on est dans le processus scientifique de validation des algorithmes et des solutions par des publications dans des conférences internationales ou des journaux de tout premier plan
Inria-1011_LHS_2016_HD.MP4

Format : .mp4
286,4 Mo
1024 x 576 pixels
Moyenne définition - équivalent DVD
Encodage PAL .MP4 H264
5 Mbits/s
Sélection
Voir Selection
Déposer ici pour retirer de la sélection