Reserve

duJambon
Messages
-
-
Partie 3 à venir
-
Partie 2 à venir
-
Dans notre nouvelle série en 3 parties, nous nous souvenons des personnes et des idées qui ont fait Internet.
En un sens très réel, Internet, ce merveilleux réseau mondial de communication numérique que vous utilisez actuellement, a été créé parce qu’un homme était agacé d’avoir trop de terminaux informatiques dans son bureau.
C’était en 1966. Robert Taylor était directeur du Bureau des techniques de traitement de l’information de l’Agence des projets de recherche avancée. L’agence avait été créée en 1958 par le président Eisenhower en réponse au lancement de Spoutnik . Taylor travaillait donc au Pentagone, un lieu idéal pour des acronymes comme ARPA et IPTO. Il disposait de trois terminaux massifs entassés dans une pièce adjacente à son bureau. Chacun était connecté à un ordinateur central différent. Leur fonctionnement était légèrement différent, et il était frustrant de devoir se souvenir de multiples procédures pour se connecter et récupérer des informations.
Recréation par l’auteur du bureau de Bob Taylor avec trois télétypes (une simple copie de la frappe clavier d’une machine à une autre)À cette époque, les ordinateurs occupaient des pièces entières et les utilisateurs y accédaient via des terminaux téléscripteurs – des machines à écrire électriques reliées soit à un câble série, soit à un modem et à une ligne téléphonique. L’ARPA finançait de nombreux projets de recherche aux États-Unis, mais les utilisateurs de ces différents systèmes n’avaient aucun moyen de partager leurs ressources. Ne serait-ce pas formidable qu’un réseau relie tous ces ordinateurs ?
Le rêve prend forme
Le prédécesseur de Taylor, Joseph « JCR » Licklider, avait publié en 1963 une note décrivant de manière fantaisiste un « réseau informatique intergalactique » permettant aux utilisateurs de différents ordinateurs de collaborer et de partager des informations. L’idée était avant tout ambitieuse, et Licklider ne parvint pas à la concrétiser. Mais Taylor savait qu’il en était capable.
Dans une interview en 1998 , Taylor expliquait : « La plupart des financements publics sont régis par des comités qui décident de qui reçoit quoi et de qui fait quoi. Avec l’ARPA, ce n’était pas le cas. La personne responsable du bureau concerné par cette technologie particulière – dans mon cas, l’informatique – était celle qui décidait des financements, des actions à entreprendre et des interdictions à prendre. La décision de lancer l’ARPANET m’appartenait, avec très peu, voire aucune formalité administrative. »
Taylor s’est rendu dans le bureau de son supérieur, Charles Herzfeld. Il a expliqué comment un réseau pourrait faire gagner du temps et de l’argent à l’ARPA en permettant à différentes institutions de partager leurs ressources. Il a suggéré de commencer par un petit réseau de quatre ordinateurs comme preuve de concept.
« Est-ce que ça va être difficile à faire ? » a demandé Herzfeld.
« Oh non. On sait déjà comment faire », répondit Taylor.
« Excellente idée », a dit Herzfeld. « Lance-toi. Tu as un million de dollars de plus dans ton budget. Vas-y. »
Taylor ne mentait pas, du moins pas complètement. À l’époque, de nombreuses personnes à travers le monde s’intéressaient aux réseaux informatiques. Paul Baran, travaillant pour la RAND, publia en 1964 un article décrivant comment un système de réseau militaire distribué pourrait être rendu résilient même si certains nœuds étaient détruits lors d’une attaque nucléaire. Au Royaume-Uni, Donald Davies proposa indépendamment un concept similaire (sans les armes nucléaires) et inventa un terme pour désigner le mode de communication de ces types de réseaux : « commutation de paquets ».
Sur un réseau téléphonique classique, après quelques commutations de circuits, l’appelant et le répondeur étaient connectés via un fil dédié. Ils en avaient l’usage exclusif jusqu’à la fin de l’appel. Les ordinateurs communiquaient par courtes rafales et ne nécessitaient pas de pauses comme les humains. Il serait donc inutile que deux ordinateurs monopolisent une ligne entière pendant de longues périodes. Mais comment plusieurs ordinateurs pourraient-ils communiquer simultanément sans que leurs messages ne soient mélangés ?
La commutation par paquets était la solution. Les messages étaient divisés en plusieurs fragments. L’ordre et la destination étaient indiqués pour chaque paquet. Le réseau pouvait ensuite acheminer les paquets de la manière la plus logique. À destination, tous les paquets appropriés étaient placés dans le bon ordre et réassemblés. C’était comme déménager une maison à travers le pays : il était plus efficace d’acheminer toutes les pièces dans des camions séparés, chacun empruntant son propre itinéraire pour éviter les embouteillages.
Fin 1966, Taylor avait embauché un directeur de programme, Larry Roberts. Roberts esquissa le schéma d’un réseau potentiel sur une serviette en papier et rencontra son équipe pour proposer une conception. L’un des problèmes résidait dans le fait que chaque ordinateur du réseau devrait utiliser une grande partie de ses ressources pour gérer les paquets. Lors d’une réunion, Wes Clark transmit une note à Roberts disant : « Vous maîtrisez le réseau de fond en comble. » L’autre solution de Clark consistait à envoyer plusieurs ordinateurs plus petits pour se connecter à chaque hôte. Ces machines dédiées se chargeraient de la création, du transfert et du réassemblage des paquets.
Une fois la conception terminée, Roberts a lancé un appel d’offres pour la construction de l’ARPANET. Il ne restait plus qu’à choisir l’offre gagnante et le projet pouvait commencer.
BB&N et les IMP
IBM, Control Data Corporation et AT&T furent parmi les premiers à répondre à la demande. Ils la rejetèrent tous. Leurs raisons étaient les mêmes : aucun de ces géants ne croyait que le réseau était réalisable. IBM et CDC estimaient que les ordinateurs dédiés seraient trop coûteux, mais AT&T affirma catégoriquement que la commutation par paquets ne fonctionnerait pas sur son réseau téléphonique.
Fin 1968, l’ARPA annonça le lauréat de l’appel d’offres : Bolt Beranek et Newman. Le choix semblait étrange. BB&N avait débuté comme cabinet de conseil spécialisé dans les calculs acoustiques pour les théâtres. Mais la nécessité de ces calculs conduisit à la création d’une division informatique, dont le premier responsable n’était autre que JCR Licklider. En réalité, certains employés de BB&N travaillaient déjà sur un projet de construction de réseau avant même l’envoi de l’appel d’offres de l’ARPA. Robert Kahn dirigea l’équipe qui rédigea la proposition de BB&N.
Leur projet consistait à créer un réseau de « processeurs de messages d’interface », ou IMP, à partir d’ordinateurs Honeywell 516. Il s’agissait de versions renforcées du DDP-516 mini-ordinateur 16 bits . Chacun disposait de 24 kilo-octets de mémoire centrale et ne disposait d’aucun autre stockage de masse qu’un lecteur de bande papier. Chaque ordinateur coûtait 80 000 dollars (environ 700 000 dollars aujourd’hui). À titre de comparaison, un mainframe IBM 360 coûtait entre 7 et 12 millions de dollars à l’époque.
Un IMP original, le premier routeur au monde. Il avait la taille d’un grand réfrigérateurL’apparence robuste du 516 a séduit BB&N, qui ne voulait pas qu’une bande d’étudiants vienne manipuler ses IMP. L’ordinateur était dépourvu de système d’exploitation, mais il manquait cruellement de RAM. Le logiciel de contrôle des IMP était écrit en langage assembleur du 516. L’un des développeurs était Will Crowther, qui allait créer le premier jeu d’aventure sur ordinateur .
Un autre obstacle subsistait avant que les IMP puissent être utilisés : la conception Honeywell manquait de certains composants nécessaires à la gestion des entrées et des sorties. Les employés de BB&N étaient consternés de constater que le premier 516, baptisé IMP-0, ne disposait pas de versions fonctionnelles des ajouts matériels demandés.
C’est Ben Barker, un brillant étudiant stagiaire chez BB&N, qui a dû réparer manuellement la machine. Barker était le meilleur choix, malgré une légère paralysie des mains. Après plusieurs journées stressantes de 16 heures à enrouler et dérouler des fils, toutes les modifications étaient terminées et fonctionnelles. L’IMP-0 était prêt.
Pendant ce temps, Steve Crocker, de l’Université de Californie à Los Angeles, travaillait sur un ensemble de spécifications logicielles pour les ordinateurs hôtes. Peu importe que les IMP soient parfaits pour envoyer et recevoir des messages si les ordinateurs eux-mêmes ne savaient pas quoi en faire. Les ordinateurs hôtes faisant partie d’importantes recherches universitaires, Crocker ne voulait pas passer pour un dictateur dictant aux utilisateurs ce qu’ils devaient faire de leurs machines. Il a donc intitulé son projet « Demande de commentaires », ou RFC.
Ce simple acte de politesse a changé à jamais la nature de l’informatique. Depuis, chaque modification a été effectuée sous forme de RFC, et la culture de la sollicitation de commentaires imprègne encore aujourd’hui le secteur technologique.
La RFC n° 1 proposait deux types de logiciels hôtes. Le premier était l’interface la plus simple possible, dans laquelle un ordinateur se faisait passer pour un terminal passif. On l’appelait « émulateur de terminal », et si vous avez déjà administré un serveur, vous en avez probablement utilisé un. Le second était un protocole plus complexe permettant de transférer des fichiers volumineux. C’est ainsi qu’est né le protocole FTP, toujours utilisé aujourd’hui.
Un seul IMP connecté à un ordinateur ne constituait pas un réseau à proprement parler. La livraison de l’IMP-1 à BB&N, puis son expédition par avion à UCLA en septembre 1969 furent donc très enthousiasmantes. Le premier test de l’ARPANET fut réalisé avec une assistance téléphonique simultanée. Le plan consistait à taper « LOGIN » pour lancer une séquence de connexion. Voici l’échange :
« As-tu eu le L ? »
« J’ai eu le L ! »
« As-tu eu le O ? »
« J’ai eu le O ! »
« Tu as eu le G ? »
« Oh non, l’ordinateur est tombé en panne ! »
Ce fut un début peu prometteur. L’ordinateur à l’autre bout du fil remplissait gentiment la partie « GIN » de « LOGIN », mais l’émulateur de terminal, n’attendant pas trois caractères à la fois, s’est bloqué. C’était la première fois que la saisie semi-automatique gâchait la journée de quelqu’un. Le bug a été corrigé et le test s’est terminé avec succès.
IMP-2, IMP-3 et IMP-4 ont été livrés au Stanford Research Institute (où Doug Engelbart souhaitait élargir sa vision de la connexion des personnes), à l’UC Santa Barbara et à l’Université de l’Utah.
Maintenant que le réseau de test à quatre nœuds était terminé, l’équipe de BB&N pouvait collaborer avec les chercheurs de chaque nœud pour tester l’ARPANET. Ils ont délibérément créé la toute première attaque par déni de service en janvier 1970, inondant le réseau de paquets jusqu’à son blocage brutal.
L’ARPANET original, prédécesseur d’Internet. Les cercles représentent des IMP et les rectangles des ordinateursÉtonnamment, de nombreux administrateurs des premiers nœuds ARPANET n’étaient pas enthousiastes à l’idée de rejoindre le réseau. L’idée que d’autres puissent utiliser les ressources de « leurs » ordinateurs les déplaisait. Taylor leur rappela que leurs projets matériels et logiciels étaient principalement financés par l’ARPA et qu’ils ne pouvaient donc pas s’en désengager.
Le mois suivant, Stephen Carr, Stephen Crocker et Vint Cerf ont publié la RFC n° 33. Elle décrivait un protocole de contrôle réseau (NCP) standardisant la communication entre les hôtes. Après son adoption, le réseau était opérationnel.
JCR Licklider, Bob Taylor, Larry Roberts, Steve Crocker et Vint CerfL’ARPANET s’est considérablement développé au cours des années suivantes. Parmi les événements marquants, on peut citer le tout premier échange de courriels entre deux ordinateurs, envoyé par Roy Tomlinson en juillet 1972. Une autre démonstration révolutionnaire a été réalisée à Harvard, avec un PDP-10 simulant en temps réel l’atterrissage d’un avion sur un porte-avions. Les données étaient transmises via l’ARPANET à un terminal graphique du MIT, et la vue graphique filaire était renvoyée à un PDP-1 à Harvard et affichée sur un écran. Bien que primitif et lent, il s’agissait techniquement du premier flux de jeu.
Un moment important se produisit en octobre 1972 lors de la Conférence internationale sur la communication par ordinateur. C’était la première fois que le réseau était présenté au public. L’intérêt pour ARPANET grandissait et l’enthousiasme était palpable. Un groupe de dirigeants d’AT&T remarqua une brève panne et rit, convaincus d’avoir raison en pensant que la commutation par paquets ne fonctionnerait jamais. Dans l’ensemble, la démonstration fut un succès retentissant.
Mais l’ARPANET n’était plus le seul réseau existant.
Les deux frappes sur un télétype modèle 33 qui ont changé l’histoireUn réseau de réseaux
Le reste du monde n’était pas resté inactif. À Hawaï, Norman Abramson et Franklin Kuo créèrent ALOHAnet , qui connectait les ordinateurs des îles par radio. Ce fut la première démonstration publique d’un réseau sans fil à commutation de paquets. Au Royaume-Uni, l’équipe de Donald Davies développa le réseau du National Physical Laboratory (NPL). Connecter ces réseaux semblait une bonne idée, mais ils utilisaient tous des protocoles, des formats de paquets et des débits de transmission différents. En 1972, les responsables de plusieurs projets de réseaux nationaux créèrent un Groupe de travail international sur les réseaux. Cerf fut choisi pour le diriger.
La première tentative pour combler cette lacune fut SATNET, également connu sous le nom d’Atlantic Packet Satellite Network. Grâce à des liaisons satellite, il connectait l’ARPANET américain aux réseaux britanniques. Malheureusement, SATNET utilisait ses propres protocoles. Fidèle à la tradition technologique, la tentative d’établir une norme universelle a créé une norme supplémentaire .
Robert Kahn a demandé à Vint Cerf de tenter de résoudre ces problèmes une fois pour toutes. Ils ont élaboré un nouveau protocole appelé Protocole de contrôle de transmission (TCP). L’idée était de connecter différents réseaux via des ordinateurs spécialisés, appelés « passerelles », qui traduisaient et transmettaient les paquets. TCP était comme une enveloppe pour les paquets, garantissant qu’ils parviendraient à la bonne destination sur le bon réseau. La fiabilité de certains réseaux n’étant pas garantie, lorsqu’un ordinateur recevait un message complet et intact, il renvoyait un accusé de réception (ACK) à l’expéditeur. Si l’ACK n’était pas reçu dans un certain délai, le message était retransmis.
En décembre 1974, Cerf, Yogen Dalal et Carl Sunshine rédigèrent une spécification complète pour TCP. Deux ans plus tard, Cerf et Kahn, avec une douzaine d’autres, présentèrent le premier système à trois réseaux. La démonstration connectait la radio par paquets, l’ARPANET et le SATNET, tous utilisant TCP. Par la suite, Cerf, Jon Postel et Danny Cohen suggérèrent une modification mineure, mais importante : ils devraient extraire toutes les informations de routage et les intégrer à un nouveau protocole, appelé protocole Internet (IP). Tous les éléments restants, comme le découpage et le réassemblage des messages, la détection des erreurs et la retransmission, resteraient dans TCP. Ainsi, en 1978, le protocole devint officiellement connu sous le nom de TCP/IP, et le restera à jamais.
Carte d’Internet en 1977. Les points blancs représentent les IMP et les rectangles les ordinateurs hôtes. Les lignes irrégulières relient les autres réseauxSi l’histoire de la création d’Internet était un film, la sortie de TCP/IP en aurait été la conclusion triomphale. Mais les choses n’étaient pas si simples. Le monde était en pleine mutation, et le chemin à parcourir était, pour le moins, incertain.
À l’époque, rejoindre l’ARPANET nécessitait la location de lignes téléphoniques haut débit pour 100 000 dollars par an. Ce système était donc réservé aux grandes universités, aux entreprises de recherche et aux entreprises du secteur de la défense. Cette situation a conduit la National Science Foundation (NSF) à proposer un nouveau réseau plus économique à exploiter. D’autres réseaux éducatifs ont vu le jour à peu près à la même époque. S’il était logique de connecter ces réseaux à l’Internet en pleine expansion, rien ne garantissait que cela perdure. D’autres forces, plus importantes, étaient à l’œuvre.
À la fin des années 1970, les ordinateurs avaient considérablement progressé. L’invention du microprocesseur ouvrit la voie à des ordinateurs plus petits et moins chers qui commençaient tout juste à faire leur apparition dans les foyers. Les télétypes encombrants étaient remplacés par des terminaux élégants, semblables à des téléviseurs. Le premier service commercial en ligne, CompuServe , fut lancé en 1979. Pour seulement 5 dollars de l’heure, on pouvait se connecter à un réseau privé, consulter la météo et les bulletins financiers, et échanger des potins avec d’autres utilisateurs. Au départ, ces systèmes étaient totalement indépendants d’Internet. Mais leur croissance fut rapide. En 1987, CompuServe comptait 380 000 abonnés.
Une publicité dans un magazine pour CompuServe de 1980Entre-temps, l’adoption de TCP/IP n’était pas garantie. Au début des années 1980, le groupe Interconnexion des systèmes ouverts (OSI) de l’Organisation internationale de normalisation (ISO) a décidé que le monde avait besoin de davantage d’acronymes, ainsi que d’un nouveau modèle de réseau mondial et normalisé.
Le modèle OSI a été initialement élaboré en 1980, mais n’a été publié qu’en 1984. Néanmoins, de nombreux gouvernements européens, et même le ministère de la Défense américain, prévoyaient de passer de TCP/IP à OSI. Cette nouvelle norme semblait inévitable.
Le modèle OSI à sept couches. Si vous avez déjà pensé qu’il y avait trop de couches, vous n’êtes pas seul.Pendant que le monde attendait l’OSI, Internet continuait de croître et d’évoluer. En 1981, la quatrième version du protocole IP, IPv4, était lancée. Le 1er janvier 1983, l’ARPANET lui-même effectuait sa transition complète vers TCP/IP. Cette date est parfois qualifiée de « naissance d’Internet », même si, du point de vue de l’utilisateur, le réseau fonctionnait toujours comme il l’avait fait pendant des années.
Carte d’Internet de 1982. Les ovales représentent les réseaux et les rectangles les passerelles. Les hôtes ne sont pas représentés, mais se comptent par centaines. Notez l’apparition d’adresses IPv4 modernesEn 1986, le NFSNET a été mis en ligne, fonctionnant sous TCP/IP et connecté au reste d’Internet. Il utilisait également une nouvelle norme, le système de noms de domaine (DNS). Ce système, toujours utilisé aujourd’hui, utilisait des noms faciles à mémoriser pour pointer vers l’adresse IP individuelle d’une machine. Les noms d’ordinateurs étaient attribués à des domaines de premier niveau en fonction de leur fonction. Ainsi, on pouvait se connecter à « frodo.edu » dans un établissement d’enseignement ou à « frodo.gov » dans un établissement public.
Le NFSNET a connu une croissance rapide, éclipsant l’ARPANET en taille. En 1989, l’ARPANET original a été mis hors service. Les IMP, obsolètes depuis longtemps, ont été retirés. Cependant, tous les hôtes ARPANET ont été migrés avec succès vers d’autres réseaux Internet. Tel un vaisseau de Thésée, l’ARPANET a survécu même après le remplacement de tous ses composants.
La croissance exponentielle de l’ARPANET/Internet au cours de ses deux premières décenniesPourtant, les experts et les commentateurs prédisaient que tous ces systèmes devraient à terme migrer vers le modèle OSI. Les créateurs d’Internet n’étaient pas convaincus. En 1987, dans la RFC n° 1 000 , Crocker déclarait : « Si nous avions consulté les anciens mystiques, nous aurions immédiatement compris que sept couches étaient nécessaires. »
Les pionniers d’Internet estimaient avoir passé de nombreuses années à peaufiner et à améliorer un système fonctionnel. Mais l’OSI était désormais doté d’une multitude de normes complexes et s’attendait à ce que tout le monde adopte sa nouvelle conception. Vint Cerf adoptait une vision plus pragmatique. En 1982, il quitta l’ARPA pour un nouveau poste chez MCI, où il participa à la création du premier système de messagerie électronique commercial (MCI Mail) connecté à Internet. Chez MCI, il contacta des chercheurs d’IBM, Digital et Hewlett-Packard et les convainquit d’expérimenter TCP/IP. Les dirigeants de ces entreprises continuèrent cependant de soutenir officiellement l’OSI.
Le débat fit rage durant la seconde moitié des années 1980 et jusqu’au début des années 1990. Lassé des débats interminables, Cerf contacta le directeur du National Institute of Standards and Technology ( NIST) et lui demanda de rédiger un rapport de synthèse comparant OSI et TCP/IP. Parallèlement, alors qu’il planifiait un successeur à IPv4, l’Internet Advisory Board (IAB) s’inspirait du protocole réseau sans connexion OSI et de son adressage 128 bits. Dans une interview accordée à Ars, Vint Cerf expliqua la suite des événements.
« Des extrémistes de l’IETF [Internet Engineering Task Force] ont délibérément mal interprété notre position, nous considérant comme des traîtres en adoptant l’OSI », a-t-il déclaré. « Ils ont fait grand bruit. L’IAB a été destitué et l’autorité du système a basculé. L’IAB était autrefois le décideur, mais la situation a basculé et l’IETF devient le standardisateur. »
Pour calmer les esprits, Cerf a fait un strip-tease lors d’une réunion de l’IETF en 1992. Il a dévoilé un t-shirt sur lequel était écrit « IP ON EVERYTHING ». Lors de la même réunion, David Clark a résumé le sentiment de l’IETF en déclarant : « Nous rejetons les rois, les présidents et le vote. Nous croyons au consensus approximatif et au code exécutable. »
Vint Cerf se réduit à l’essentielLe destin d’Internet
La conception divisée de TCP/IP, qui constituait un choix technique mineur à l’époque, a eu des implications politiques durables. En 2001, David Clark et Marjory Blumenthal ont rédigé un article retraçant la guerre des protocoles. Ils ont constaté que les fonctions complexes d’Internet étaient exécutées aux points terminaux, tandis que le réseau lui-même n’exécutait que la partie IP et se concentrait simplement sur le transfert de données. Ces « principes de bout en bout » ont constitué la base de « … la philosophie d’Internet » : liberté d’action, autonomisation des utilisateurs, responsabilité de l’utilisateur final pour ses actions et absence de contrôles sur le Net qui limitent ou régulent leurs actions », ont-ils déclaré.
En d’autres termes, la bataille entre TCP/IP et OSI ne se résumait pas à deux acronymes concurrents. D’un côté, un petit groupe d’informaticiens ayant passé de nombreuses années à construire un réseau relativement ouvert et souhaitant le voir perdurer sous leur propre direction bienveillante. De l’autre, un vaste collectif d’organisations puissantes estimaient devoir contrôler l’avenir d’Internet – et peut-être même le comportement de tous ses utilisateurs.
Mais ce débat impossible et le sort ultime d’Internet étaient sur le point d’être tranchés, et non par les gouvernements, les comités, ni même l’IETF. Le monde a été changé à jamais par l’action d’un homme. C’était un informaticien aux manières douces, né en Angleterre et travaillant pour un institut de recherche en physique en Suisse.
C’est l’histoire racontée dans le prochain article de notre série.
Source: https://arstechnica.com/gadgets/2025/04/a-history-of-the-internet-part-1-an-arpa-dream-takes-form/
Et pour la bande papier qu’on faisait défiler dans un lecteur ou perforer par un télétype:
L’alphabet tenait sur 5 bits en deux modes, le code “SHIFT”, permettait de passer de 32 catactères a l’autre jeu de chiffres et symboles, sans la moindre synchronisation, il fallait partir du bon pied pour lire correctement la bande et ne pas louper les trous. Certaines bandes pouvaient atteindre des longueurs surréalistes. Je n’ai maléheureusement pas retrouvé le bruit caractéristique des ces antiqués, dommage, coté magie, ça valait le détour.
-
Il n’a pas fait une connerie aujourd’hui ? C’est étrange.
-
@RussianFighter Et y’en a d’autres… c’est sur que ça devient compliqué
-
-
@Psyckofox Tu as vu la fin de la vidéo ? Au bout de 50 jours, c’est même pas beau
-
Le marquage à l’azote liquide (-196°C) fait fureur sur Internet. Une pratique prétendument indolore, mais très risquée, selon une dermatologue. Sauvez votre peau!
Le «freeze branding» (marquage à froid) ou «cryo branding» (marquage cryogénique) fait fureur sur la Toile. Le froid détruit les cellules productrices de pigments dans la peau et les follicules pileux, ce qui entraîne des décolorations blanches permanentes à cet endroit. Utilisée sur les humains, cette technique est, à l’origine, une alternative au fer rouge moins douloureuse pour marquer le bétail.
«Les cellules pigmentaires de la peau sont détruites par le froid. La peau devient alors blanche à cet endroit, de façon permanente. C’est ce qu’on appelle une hypopigmentation.» C’est en cela que le marquage à froid se distingue d’un tatouage classique: le motif est créé sans pénétration d’encre dans la peau.
Risques inconsidérés
«Les animaux ont une peau beaucoup plus épaisse et moins sensible que les humains, alerte Sabine Kurzidem, dermatologue à Zurich. La douleur, mais aussi le risque de complications, sont beaucoup plus élevés chez l’homme. En particulier, si on procède n’importe comment.» Une courte recherche sur Google suffit pour comprendre le problème. L’une des premières images sur laquelle on tombe est un tutoriel en cinq étapes pour se faire soi-même un «freeze branding».
Douleur, cloque et tissus nécrosés
«La température de l’azote liquide se situe entre -160°C et -196°C. Dès qu’une substance aussi froide entre en contact avec la peau, les tissus gèlent», explique la spécialiste. En cas de contact bref, une légère rougeur ou brûlure peut apparaître. «Si le contact est plus long, comme lors de l’utilisation d’un fer à marquer, on ressent forcément une douleur.» C’est par la suite que les choses se compliquent. «Au bout d’un certain temps, des cloques apparaissent. Lorsque la peau guérit, elle pèle, des infections et des cicatrices peuvent survenir. Dans le pire des cas, les tissus meurent à cet endroit.»
Une marque indélébile
Le risque de complications et de dommages permanents est très élevé avec le marquage à froid. Cicatrices, hypo, mais aussi hyperpigmentations définitives. Rien de tout cela n’est réversible. Selon l’experte, l’encre dans la peau n’est pas non plus une bonne chose. Les tatouages peuvent au moins être effacés au laser, même si ce n’est pas toujours facile.
La cryothérapie
L’azote liquide n’est pas seulement utilisé pour marquer la peau. «En dermatologie, nous l’utilisons fréquemment, notamment pour le traitement des verrues, des lésions précancéreuses de la peau ou des tumeurs bénignes. Appliqué brièvement et avec précision, son effet est curatif», explique Sabine Kurzidem.
Source et vidéo: https://www.20min.ch/fr/story/comme-le-betail-bye-bye-les-tatouages-bienvenue-au-marquage-a-l-azote-liquide-103322765
-
“Drôle de dames” dans l’espaceLa célèbre chanteuse américaine Katy Perry a effectué lundi un bref voyage entièrement féminin dans l’espace, une aventure proposée par le multimilliardaire Jeff Bezos et réservée à quelques privilégiés. Artiste incontournable de la pop américaine, Katy Perry s’est s’envolée à bord d’une fusée de Blue Origin, l’entreprise spatiale du fondateur d’Amazon, qui l’a emmenée à plus de 100 kilomètres d’altitude, avant de regagner la Terre.
Elle a embarqué aux côtés de cinq autres femmes, dont Lauren Sanchez, la fiancée de M. Bezos. Le décollage a eu lieu dans l’ouest du Texas peu après 08H30 locales (13H30 GMT). La fusée entièrement automatisée a décollé à la verticale et la capsule s’est détachée en vol, avant de retomber sur Terre freinée par des parachutes et un rétropropulseur. Il s’agit du premier vol dans l’espace 100% féminin depuis celui, en solitaire, de la Soviétique Valentina Terechkova en 1963.
Il s’agit également du onzième vol habité suborbital mené par Blue Origin, qui propose depuis plusieurs années déjà ces expériences de tourisme spatial - dont le prix n’est pas public - grâce à sa fusée New Shepard.
Lors de cette expérience d’une dizaine de minutes au total, les six passagères ont dépassé la ligne de Karman, qui marque à 100 kilomètres la frontière de l’espace selon une convention internationale. Dans une récente interview accordée au magazine Elle, Katy Perry expliquait prendre part à cette aventure “pour (s)a fille Daisy”, qu’elle a eue avec le célèbre acteur britannique Orlando Bloom, “afin de l’inciter à ne jamais fixer de limites à ses rêves”.
-
Trump et lui devaient penser pouvoir partager les terres rares Ukrainiennes uniquement entre usa et russie, mais poutine veut tout le gâteau
-
Si vous ne le faites pas, votre vol ne s’écrasera pas, mais ignorer le mode avion consomme votre batterie et agace le pilote.
Petit anarchiste ! On t’a dit de passer en mode avion, et tu ne l’as pas fait. Peut-être que tu envoyais un dernier Slack ; peut-être que tu as décidé de ne pas prendre de congés payés et que tu es en plein milieu d’une conférence Zoom ; ou peut-être que tu n’aimes tout simplement pas qu’on te dise quoi faire. Quoi qu’il en soit, tu n’es pas seul. Une enquête menée en 2017 par Allianz Travel Insurance auprès de plus de 1 500 Américains a révélé que 40 % d’entre eux admettaient parfois passer en mode avion. Près de 14 % ont déclaré avoir passé un appel ou un SMS en vol.
Mais est-ce vraiment important ? Si les téléphones portables représentaient une telle menace pour l’aviation, la Transportation Security Administration ne confisquerait -elle pas votre smartphone plutôt que cette bouteille d’eau oubliée dans votre sac à dos ? Après tout, aucun incident catastrophique n’a été documenté et directement causé par FaceTime. Le mode avion n’est-il qu’un énième rituel de voyage désuet, hérité de l’ère des téléphones à clapet , comme applaudir à l’atterrissage ? (On devrait peut-être le remettre au goût du jour …)
La profonde et sombre vérité
Votre téléphone, livré à lui-même, est un petit appareil exigeant. Il envoie constamment des signaux aux antennes relais, à la recherche d’une connexion. Au sol, ce n’est pas un problème. En vol, ces signaux peuvent interférer avec les radios du cockpit, créant un bourdonnement incessant dans les casques des pilotes – comme un moustique dans l’oreille. C’est juste un peu agaçant, pas grave, sauf que vous embêtez la personne qui essaie, je ne sais pas, de faire atterrir l’avion …
Selon la Federal Aviation Administration (FAA) , l’utilisation des téléphones portables en vol est interdite, car elle peut perturber le fonctionnement du radioaltimètre, qui aide les pilotes à évaluer l’altitude. Ceci est particulièrement important au décollage et à l’atterrissage. Un seul téléphone ne gêne pas beaucoup, mais une cabine pleine de téléphones est source de pollution sonore et d’irritation pour les pilotes. Le problème est plus important aux États-Unis , où la 5G fonctionne sur des fréquences proches de celles utilisées par les radioaltimètres. Au Royaume-Uni et dans l’UE, certaines compagnies aériennes autorisent l’utilisation de la 5G en plein vol, car leurs réseaux fonctionnent différemment.
Il y a aussi un facteur de vigilance de base. Les urgences surviennent le plus souvent au décollage et à l’atterrissage. En cas de problème, les équipages ne peuvent pas se permettre de se battre pour attirer votre attention sur FaceTime.
Vont-ils vous arrêter ?
Refuser les instructions de l’équipage est une infraction fédérale . Selon la compagnie aérienne, vous pourriez également enfreindre la signalisation. Mais en réalité, personne ne se fait expulser de l’avion pour avoir oublié d’activer le mode avion. Si vous êtes particulièrement réfractaire, vous risquez bien sûr d’être expulsé du vol ou d’être condamné à une amende. Mais pour la plupart des gens, la pire conséquence est un rappel passif-agressif de suivre toutes les instructions de l’équipage.
Si vous ne le faites pas pour la collectivité, faites-le pour vous. Votre batterie durera plus longtemps. Votre téléphone se rechargera plus vite . Vous ne vous connecterez pas accidentellement à des réseaux non sécurisés. De plus, si vous avez un forfait limité en données, le mode avion vous permet de contrôler votre consommation.
Alors, êtes-vous un connard si vous ne mettez pas votre téléphone en mode avion ? En quelque sorte. Non pas parce que vous ruinez l’avion, mais parce que vous compliquez la tâche de quelqu’un sans raison valable. C’est comme refuser de se couper le son pendant un appel Zoom. Ne soyez pas cette personne. Personne ne l’aime.
-
J’ai fauté avec la schtroupfette:
-
Arrêts non programmés, erreurs humaines : où en est le démarrage de l’EPR de Flamanville par EDF?
Malgré le retour d’expérience des EPR chinois de Taïshan et de celui d’Olkiluoto en Finlande, le démarrage de l’EPR de Flamanville (Manche) ne se passe pas tout à fait comme prévu. Le redémarrage, prévu ce 11 avril, est repoussé une nouvelle fois jusqu’au jeudi 17. Retour sur une mise en service pleine d’inconnues pour EDF.
Depuis son démarrage le 3 septembre, durant ses 100 premiers jours de mise en service, le réacteur nucléaire aura connu 76 jours de maintenance.
Arrêts non programmés, erreurs humaines : où en est le démarrage de l’EPR de Flamanville par EDF?
Depuis son démarrage le 3 septembre, durant ses 100 premiers jours de mise en service, le réacteur nucléaire aura connu 76 jours de maintenance.EDF s’en doutait. Malgré le retour d’expérience des démarrages des deux EPR chinois à Taïshan et de celui d’Olkiluoto en Finlande, et les longues années de préparation des équipes, celui de Flamanville connait son lot d’aléas. Durant ses 100 premiers jours de mise en service, le réacteur nucléaire aura connu 76 jours de maintenance. Une partie était prévisible. Des dizaines d’arrêts et redémarrage sont prévus au planning pour réaliser plus de 1500 tests dans différents scénarios, avec des paliers à 20%, 60% et 80% de la puissance nominale du réacteur de 1600 MW.
D’autres en revanche n’étaient pas programmés, comme celui déclenché le 15 février et qui a déjà immobilisé le réacteur durant deux mois. Après sept reports, il devait redémarrer ce vendredi 11 avril ; jeudi 10 avril, l’opération a été repoussée d’une semaine supplémentaire, la nouvelle date de redémarrage prévue est le jeudi 17 avril. Ce temps est nécessaire pour réaliser “des opérations de maintenance des matériels (situés dans la partie nucléaire de la centrale) requises pour la poursuite des procédures de montée en puissance du réacteur”, précise EDF à L’Usine Nouvelle.
On peut monter un éléphant, mais un mamouth, ça doit être beaucoup plus difficile à apprivoiser
Heureusement, je n’habite pas à proximité, mais je serais bien content d’acheter l’énergie électrique. -
Encore un salut nazi ?
-
Sabrina Carpenter a «ruiné» Fortnite
Vidéo:
https://www.20min.ch/fr/video/jeu-video-pourquoi-sabrina-carpenter-a-t-elle-ruine-fortnite-103323153
-
Encore un idiot qui filme en vertical un sujet horizontal.
L'histoire d'internet selon Ars Technica
L'histoire d'internet selon Ars Technica
L'histoire d'internet selon Ars Technica
L'histoire d'internet selon Ars Technica
Trump Make America Great Again, again
sites de torrents down........
Un peu d'humour en image
Un petit câlin à un gros gros rongeur ?
Les tatouages, c'est ringuard! Bienvenue au marquage à l'azote liquide
Les tatouages, c'est ringuard! Bienvenue au marquage à l'azote liquide
Katy Perry à effectué un bref voyage dans l’espace à bord d’un vol 100% féminin
Trump Make America Great Again, again
Suis-je un connard si je ne mets pas mon téléphone en mode avion ?
Ce fan d’Assassin’s Creed a compilé une chronologie complète de l’univers de la franchise !
Un peu d'humour en image
Nucléaire: Inquiétudes chez EDF
Un peu d'humour en image
[Topic unique] Actualité Jeux Vidéos
Impressionant et miraculeux, un couple echappe de justesse à la foudre
Samsung peut sous-titrer vos programmes TV