Tech

Les Internets de demain : enjeux de la recherche fondamentale sur les réseaux

ActualitéClassé sous :Internet , projets , initiatives

La National Science Foundation américaine (NSF) a tenu en avril 2003 un atelier sur "la recherche fondamentale sur les réseaux" dont la synthèse est publiée en ligne. Les participants soulignent en particulier les faiblesses de l'architecture actuelle de l'internet, confronté à une croissance toujours aussi rapide, à de nouveaux besoins et usages et à la demande croissante de sécurité et de fiabilité.

Les Internets de demain : enjeux de la recherche fondamentale sur les réseaux

Face à ces difficultés, les participants demandent aux chercheurs et aux bailleurs de fonds de "voir au-delà du succès de l'internet afin de favoriser des innovations radicales et des idées hétérodoxes".
Le rapport identifie six défis pour la recherche sur les réseaux :

  • Une "théorie de l'information" pour les réseaux, destinée à optimiser l'allocation des ressources, en particulier dans les réseaux sans fil ;
  • Le support et la coexistence de réseaux en "surcouche" (overlay), qui s'appuient sur l'internet global pour proposer des applications à des sous-ensembles relativement étanches d'utilisateurs, en court-circuitant notamment les circuits de routage standards du réseau ;
  • La résilience des réseaux face aux défaillances et aux attaques ;
  • La recherche de mécanismes économiques favorisant l'innovation dans les réseaux, les facteurs de rigidité étant souvent plus économiques que techniques ;
  • La multiplication et la mise en réseau de capteurs dans l'environnement ;
  • Les réseaux virtuels, définis ici comme des réseaux capables de s'adapter en continu aux conditions de leur environnement et d'accueillir des utilisateurs mobiles sans configuration manuelle.

Du côté des applications, les participants relèvent que "les défis du futur ne proviendront pas d'une seule "application qui tue" (killer application), mais de la nécessité de supporter de manière simultanée un grand nombre d'applications hétérogènes". La recherche doit s'intéresser aux utilisateurs et à leurs attentes en matière de robustesse et de fiabilité, d'invisibilité des technologies, de facilité dans la configuration, d'accès à de grandes capacités de traitement et de stockage, enfin d'autonomie énergétique.

Les différentes initiatives

L'initiative PlanetLab répond à beaucoup des questions soulevées par le rapport de la NSF. Cette initiative, née à la fois de l'univers de l'industrie et de l'université, projette un internet plus intelligent et plus sécurisé, reconstruit, réinventé et non compatible avec l'internet existant. Pour les promoteurs de PlanetLab, ce nouvel internet doit permettre par exemple de retrouver son espace personnel à partir de n'importe quel poste de travail, d'archiver tout document de manière complètement sécurisée, etc. Depuis son lancement en mars 2002, PlanetLab relie déjà 175 "noeuds" (nodes) depuis 79 sites et projette d'atteindre les 1 000 noeuds en 2006.

De son côté, le fabricant de routeurs Juniper Networks propose de construire un "infranet", un réseau mondial, fondé sur les standards (voire sur une partie des infrastructures physiques) de l'internet, mais avec un niveau de sécurité équivalent à celui des réseaux privés. Il y aurait en fait des infranets, construits par des opérateurs et des fournisseurs de services, qui s'interconnecteraient dans un grand "méta-réseau". Le modèle est celui de l'internet... mais ce dont il s'agit bien sûr, c'est de faire payer le service et l'interconnexion.

Dans une démarche totalement inverse, Simson Garfinkel considère que la réponse à beaucoup des problèmes de l'internet est devant nos yeux : c'est le peer to peer. Le P2P serait capable de réduire considérablement les principales vulnérabilités de l'internet, telles que le système des noms de domaines (qui est en effet la seule ressource totalement centralisée du réseau), l'engorgement des serveurs, la résilience en cas d'attaque massive sur l'internet...

En savoir plus :

Cela vous intéressera aussi