Actualités High-Tech

2.2k Sujets 10.5k Messages
  • 1 Votes
    4 Messages
    576 Vues

    Protocole intéressant …Merci pour ces infos ; je vais marquer cette page pour plus tard…

  • 1 Votes
    1 Messages
    10 Vues

    Selon l’OTAN, la Russie est en train de développer des armes contre le système Starlink d’Elon Musk. L’objectif est de limiter la supériorité de l’Occident dans l’espace et d’“éteindre” les satellites dont l’Ukraine est largement dépendante dans ses opérations militaires.

    Deux services de renseignement de pays membres de l’OTAN soupçonnent la Russie de développer une nouvelle arme antisatellite destinée à cibler la constellation Starlink d’Elon Musk. Cette arme projetterait des nuages ​​destructeurs de fragments en orbite, dans le but de limiter la supériorité spatiale occidentale qui a été un atout précieux pour l’Ukraine sur le champ de bataille.

    Selon des informations consultées par l’Associated Press, cette arme dite « à effet de zone » viserait à saturer les orbites de Starlink avec des centaines de milliers de projectiles à haute densité, ce qui pourrait neutraliser plusieurs satellites simultanément, mais risquerait également de provoquer des dommages collatéraux catastrophiques sur d’autres systèmes orbitaux.

    Des analystes n’ayant pas eu accès à ces informations doutent qu’une telle arme puisse fonctionner sans engendrer un chaos incontrôlable dans l’espace, perturbant ainsi les entreprises et les pays, notamment la Russie et son allié chinois, qui dépendent de milliers de satellites en orbite pour leurs communications, leur défense et d’autres besoins vitaux.

    Source et plus: https://fr.euronews.com/2025/12/23/une-arme-de-la-peur-comment-la-russie-peut-attaquer-le-reseau-de-satellites-starlink

  • 0 Votes
    1 Messages
    8 Vues

    La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.

    En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.

    Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…

    En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.

    Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.

    Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.

    « Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »

    >> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?

    L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.

    OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.

    […]

    Suite de l’article en accès libre : next.ink

  • 1 Votes
    1 Messages
    8 Vues

    Cette histoire est dingue et pourrait presque donner des idées pour un futur film sur le cyberespionnage. Un développeur système embauché par Amazon, mais qui opérait en réalité pour le compte de la Corée du Nord, a été démasqué grâce à un détail technique : la latence anormale de ses frappes au clavier.

    Une latence suspecte de 110 millisecondes

    Les indicateurs de compromission (IoC) prennent parfois des formes inattendues, et cette affaire est un excellent exemple. L’équipe de sécurité d’Amazon est parvenue à identifier un télétravailleur suspect grâce à l’analyse de la télémétrie issue d’un poste de travail. Cette personne, supposément basée aux États-Unis, était en réalité en Corée du Nord, contrairement à son ordinateur qui était bien physiquement en Arizona, aux États-Unis. Il avait été employé par Amazon en tant que développeur.

    Partons du constat suivant : une personne située aux États-Unis et qui utilise l’ordinateur qu’elle a devant les yeux transmet les données de frappe en quelques dizaines de millisecondes. Dans le cas présent, les experts en sécurité d’Amazon ont noté un délai constant et suspect supérieur à 110 millisecondes, soit une micro-latence en comparaison de la valeur normale.

    Suffisant pour mettre la puce à l’oreille des équipes de Stephen Schmidt, le Chief Security Officer (CSO) d’Amazon. Suite à la détection de cette anomalie, une enquête a été ouverte. Elle a permis de déterminer que :

    L’employé n’était pas physiquement devant la machine. L’ordinateur portable, bien que situé physiquement aux États-Unis, était contrôlé à distance par un acteur malveillant opérant depuis l’Asie (Corée du Nord). Une femme complice sur le sol américain gérait une “ferme d’ordinateurs” pour permettre à des agents nord-coréens de simuler une présence locale. Une menace grandissante

    Cette découverte peut surprendre, mais pour les équipes d’Amazon, c’est habituel. Ces personnes peuvent chercher à s’infiltrer chez Amazon pour plusieurs raisons, comme l’espionnage et/ou le sabotage.

    D’ailleurs, d’après Stephen Schmidt, Amazon fait face à une vague massive de tentatives de ce type. Les chiffres parlent d’eux-mêmes :

    Plus de 1 800 tentatives d’infiltration par des agents nord-coréens ont été déjouées depuis avril 2024. L’entreprise note une augmentation de 27 % de ces tentatives d’un trimestre à l’autre.

    Amazon effectue donc une surveillance proactive afin de détecter les comportements suspects. Au-delà des anomalies sur le réseau, comme c’était le cas ici, d’autres indices peuvent aider les équipes de sécurité d’Amazon. Par exemple, une maîtrise approximative de l’anglais, caractérisée par une mauvaise utilisation des idiomes américains.

    Source : it-connect.fr

  • 1 Votes
    1 Messages
    23 Vues

    La ville californienne a été plongée dans le noir à cause d’une importante coupure de courant. Les robots-taxis de Waymo se sont retrouvés à l’arrêt, déboussolés.

    Lampadaires et feux de circulation éteints, ruelles sombres, restaurants fermés et robots-taxis à l’arrêt. Une importante coupure d’électricité a donné à San Francisco des airs d’apocalypse samedi 20 décembre au soir. Quelque 130 000 foyers de la ville californienne ont été plongés dans le noir par la panne, a déclaré la principale compagnie d’électricité de la ville, Pacific Gas & Electric Company

    L’incident a été provoqué par un incendie dans une sous-station électrique. La municipalité a demandé aux habitants de rester chez eux, certains feux de signalisation ne fonctionnant pas et les transports publics étant perturbés. « Il va pleuvoir, il fait nuit. Si vous n’avez pas besoin de sortir, restez chez vous », a indiqué le maire Daniel Lurie depuis le centre d’opérations d’urgence de la ville, dans une vidéo postée sur X.

    Il a été précisé que des agents de la circulation avaient été déployés pour remédier à l’absence de feux. Mais c’était sans compter les robots-taxis. À San Francisco, ville berceau de la tech, ces voitures autonomes pullulent. Et sans l’information donnée par les feux de circulation, leur autonomie est vite limitée.

    De nombreux robots-taxis de la société Waymo se sont retrouvés coincés au milieu de la route, bloquant des intersections de la ville, incapables de prendre une décision, comme on le voit dans la vidéo en haut de cet article. Le service de transport autonome a fini par suspendre l’exploitation de ses véhicules, comme l’a expliqué le maire.

    Le « black-out » avait aussi de quoi perturber les piétons, qui n’y voyaient pas grand-chose sans éclairage public. Certains habitants ont été contraints de rentrer chez eux à pied, dans le noir, à l’aide de leur lampe torche de smartphone.

    Pour ajouter à cette ambiance lugubre, certaines parties de la ville étaient recouvertes de brouillard et de nombreux commerces ont été contraints de fermer en pleine période des achats de Noël, a rapporté le journal The San Francisco Chronicle.

    Le courant est progressivement revenu dans la nuit. L’électricité a été rétablie à 21 h 00, heure locale, samedi 20 décembre pour 90 000 foyers, a précisé dans un communiqué Pacific Gas & Electric Company. « Les 40 000 clients restants devant être réalimentés dans la nuit », a ajouté la compagnie. À temps pour Noël, heureusement.

    Source: https://fr.news.yahoo.com/à-san-francisco-panne-d-150724314.html
    Et (vidéo): https://www.huffingtonpost.fr/international/video/a-san-francisco-cette-panne-d-electricite-n-a-pas-ete-sans-consequences-pour-la-ville-de-la-tech_258471.html

  • 1 Votes
    4 Messages
    33 Vues

    @duJambon comme deux tablettes ou liseuses. :ahah:

    Et puis pouvoir l’utiliser dans l’autre sens (comme montré dans la vidéo) peut être un plus si c’est exploité, comme par exemple une palette graphique avec un écran supplémentaire, ou comme un mini portable dont un écran pourrait servir de clavier.

  • 1 Votes
    3 Messages
    70 Vues
  • La pénurie de stockage devrait durer des années

    2
    2 Votes
    2 Messages
    51 Vues

    Pour les Ordi complets d’intégrateurs, j’ai aussi pu voir que les prix ne devraient pas trop bouger car les pièces qui les constituent ont été négociées avant ces pénuries. A voir si ça reste vrai.

    Il y a 3 mois, j’ai eu du bol d’avoir pu acheter un 4To SN850X de chez western digital avant un décollage du prix. Il a pris 150 boulz depuis.
    Enorme regret de ne pas avoir craqué pour quelques HDD cet été. Je suivais les courbes tarifaires et espérait une fichue barre symbolique pour lâcher du flouze.

    On va attendre une accalmie… A voir si les WD, seagate et autre toshiba nous sortent une dinguerie d’ici là.

  • 1 Votes
    2 Messages
    55 Vues

    Il n’y pas que le câble à prendre en compte mais aussi l’appareil. Il n’est pas rare sur des PC portables équipés d’USB-C que toutes les fonctionnalités ne soient pas présentes comme par exemple la sortie vidéo ou la recharge.
    Chaque fonctionnalité (sortie vidéo, recharge, périphérique USB, etc) étant soumise à licence, il n’est pas rare que pour des soucis d’économie toutes ne sont pas implémentées dans le/les connecteurs disponibles sur l’appareil.

  • 0 Votes
    2 Messages
    39 Vues

    J’ai failli arrêter de lire juste après “sur Tik Tok” 🙂 mais j’ai quand même continué en espérant pouvoir en rire, mais même pas…

  • Tout savoir sur l’application FantomApp

    1
    4 Votes
    1 Messages
    42 Vues
    FantomApp : des outils concrets pour garder le contrôle de ses données

    La CNIL accompagne les 10-15 ans avec FantomApp, une application pour aider les adolescents à se protéger sur les réseaux sociaux.

    Pensée par et pour les jeunes, FantomApp répond directement aux besoins exprimés par les jeunes en matière de protection de leurs données personnelles.

    FantomApp, ce sont :

    des outils et des tutos pour protéger ses comptes et nettoyer sa présence en ligne des conseils et des contenus pour vous aider en cas de problème une application gratuite et sécurisée qui ne collecte aucune donnée (uniquement l’adresse IP, nécessaire pour le fonctionnement de l’application, et le type d’appareil utilisé).

    Icone fantôme - FantomApp

    FantomApp est disponible gratuitement depuis les magasins d’application App Store et Google Play et directement depuis sa version web : fantomapp.fr

    Découvrez les fonctionnalités clés de FantomApp Des aides et des ressources en cas de problèmes en ligne

    Mockup de l'application FantomApp

    « Je veux faire effacer un contenu » « Je me suis fait pirater » « Je vis du cyberharcèlement » « On se fait passer pour moi » « On me fait du chantage sexuel » « On m’a arnaqué »

    Les aides et ressources renvoient vers les acteurs de confiance, institutionnels et associatifs, auxquels les adolescents peuvent s’adresser. Des conseils pratiques sont systématiquement donnés.

    Des outils pour renforcer ses comptes « Je teste mon mot de passe »
    Combien de temps un cybercriminel mettrait à le trouver ? Qu’est-ce qu’un mot de passe vraiment solide ? FantomApp vous permet de tester la robustesse de vos mots de passe. « Je floute ma photo »
    Vous pouvez flouter et pixéliser votre photo de profil pour garder l’anonymat sur les réseaux. « Je teste ma visibilité »
    Que dites-vous de vous dans votre bio ou dans un pseudo ? Même avec un compte privé, ça ne veut pas dire que vous naviguez incognito.

    Mockup de l'application FantomApp

    Des tutoriels pour régler les bons paramètres

    Mockup de l'application FantomApp

    Pour chaque réseau (Instagram, Tiktok, Snapchat, X et WhatsApp…), accédez à des tutos pour savoir quels paramètres activer ou désactiver afin de garder votre vie privée… privée :

    Supprimer la géolocalisation Mettre mon compte en privé Activer la double authentification Savoir qui est connecté à mon compte, par les lieux de connexion Déterminer qui peut interagir avec moi Masquer les contenus sensibles Désactiver le partage de contacts Ne pas pouvoir me trouver en suggestion Désactiver la possibilité de voir les « j’aime » Ne pas permettre qu’on puisse me trouver avec mon numéro de téléphone ou mon adresse électronique Déterminer qui peut me contacter Désactiver la possibilité de voir si je suis en ligne Empêcher l’IA propriétaire de lire ou exploiter mes données Désactiver les pubs personnalisées Déterminer qui peut m’ajouter dans un groupe Désactiver l’archivage des publications éphémères

    Source : cnil.fr

  • L’IA bouleverse l’industrie du porno

    7
    0 Votes
    7 Messages
    115 Vues

    @duJambon Je crois question imagination et fantasmes débridés ; va y avoir une multitude de " scénaristes" dispos…

  • 1 Votes
    9 Messages
    192 Vues

    @Aurel et nous sommes les charognes consentantes! :ahah:

  • 1 Votes
    4 Messages
    50 Vues

    Le système est prévu pour fonctionner avec 30 satellites dont six de rechange.
    Au 5 mars 2025, 32 satellites étaient lancés, dont 27 étaient opérationnels.
    En tout cas, selon cet article sur wikipedia
    Avec ce nouveau lancement, cela fait donc 33 au total.

  • 0 Votes
    1 Messages
    27 Vues

    225346aa-6262-46e8-a136-45b258bb5101-image.png
    Une génération d’image GPT 1.5 créée avec l’invite classique : « un barbare musclé avec des armes à côté d’un téléviseur à tube cathodique, style cinématographique, 8K, éclairage studio »

    Pendant la majeure partie des quelque 200 ans d’histoire de la photographie, retoucher une photo de manière convaincante nécessitait soit une chambre noire, soit une certaine maîtrise de Photoshop, soit, au minimum, une main sûre avec des ciseaux et de la colle. Mardi, OpenAI a publié un outil qui simplifie le processus en le réduisant à la simple saisie d’une phrase.

    Ce n’est pas la première entreprise à s’y essayer. Si OpenAI travaillait sur un modèle de retouche d’images conversationnel depuis GPT-40 en 2024, Google l’a devancé en commercialisant un prototype public en mars , avant de le perfectionner pour en faire un modèle populaire appelé Nano Banana (et Nano Banana Pro ). L’accueil enthousiaste réservé au modèle de retouche d’images de Google au sein de la communauté de l’IA a attiré l’attention d’OpenAI .

    d’OpenAI Le nouveau GPT Image 1.5 est un modèle de synthèse d’images par IA qui, selon les informations disponibles, génère des images jusqu’à quatre fois plus rapidement que son prédécesseur et coûte environ 20 % moins cher via l’API. Ce modèle a été déployé auprès de tous les utilisateurs de ChatGPT mardi et représente une nouvelle avancée vers une manipulation d’images photoréalistes accessible à tous, même sans compétences visuelles particulières.

    2e7264df-b343-447a-8fc7-c2acfb622c47-image.png
    Original

    e264c386-a1a5-4d3c-8a7a-d383ade0bddf-image.png
    Ajoute une reine galactique dans l’image originale

    GPT Image 1.5 est remarquable car il s’agit d’un modèle d’image « multimodal natif », ce qui signifie que la génération d’images a lieu au sein du même réseau neuronal qui traite les invites linguistiques. (À l’inverse, DALL-E 3 , un générateur d’images OpenAI antérieur intégré à ChatGPT, utilisait une technique différente appelée diffusion pour générer les images.)

    Ce nouveau type de modèle, que nous avons présenté plus en détail en mars, traite les images et le texte comme des éléments identiques : des blocs de données appelés « tokens » à prédire, des motifs à compléter. Si vous téléchargez une photo de votre père et tapez « le mettre en smoking à un mariage », le modèle traite vos mots et les pixels de l’image dans un espace unifié, puis génère de nouveaux pixels de la même manière qu’il générerait le mot suivant dans une phrase.

    Grâce à cette technique, GPT Image 1.5 peut modifier la réalité visuelle plus facilement que les modèles d’IA précédents, en changeant la pose ou la position d’une personne, ou en restituant une scène sous un angle légèrement différent, avec plus ou moins de succès. Il peut également supprimer des objets, modifier les styles visuels, ajuster les vêtements et affiner des zones spécifiques tout en préservant la ressemblance du visage lors de modifications successives. Vous pouvez dialoguer avec le modèle d’IA au sujet d’une photographie, l’affiner et la corriger, de la même manière que vous réviseriez un brouillon d’e-mail dans ChatGPT.

    Fidji Simo, PDG des applications chez OpenAI, a expliqué dans un article de blog que l’interface de chat de ChatGPT n’avait jamais été conçue pour le travail visuel. « Créer et retoucher des images est une tâche différente qui mérite un espace dédié au visuel », a-t-il écrit. C’est pourquoi OpenAI a intégré un espace de création d’images dans la barre latérale de ChatGPT, avec des filtres prédéfinis et des suggestions populaires.

    e903e741-5b5d-4197-a316-b94aeed84768-image.png
    Original: Harrelson Hall, un célèbre bâtiment circulaire du campus de l’Université d’État de Caroline du Nord (aujourd’hui démoli), a toujours semblé prêt à décoller

    6cd88bc4-0b90-4cf1-9920-94f04ed1514f-image.png
    Transforme ce bâtiment en ovni en train de décoller

    Le lancement de cette fonctionnalité semble être une réponse directe aux avancées technologiques de Google en matière d’IA, notamment la forte croissance du nombre d’utilisateurs de chatbots. En particulier, le modèle d’image Nano Banana de Google (et Nano Banana Pro ) a connu un grand succès sur les réseaux sociaux après sa sortie en août, grâce à sa capacité à afficher du texte avec une relative netteté et à préserver les visages de manière constante malgré les modifications.

    Le modèle de synthèse d’images par jetons d’OpenAI permettait auparavant d’effectuer des modifications ciblées à partir d’invites conversationnelles, mais il modifiait souvent les détails du visage et d’autres éléments que les utilisateurs auraient souhaité conserver. GPT Image 1.5 semble conçu pour offrir les mêmes fonctionnalités d’édition que celles déjà proposées par Google. Toutefois, si vous préférez l’ancien générateur d’images ChatGPT, OpenAI précise que la version précédente restera disponible (pour le moment) en tant que GPT personnalisé.

    La friction continue de diminuer

    GPT Image 1.5 n’est pas parfait. Lors de nos tests, il n’a pas toujours suivi les instructions à la lettre. Cependant, lorsqu’il fonctionne correctement, les résultats semblent plus convaincants et détaillés que le précédent modèle d’image multimodal d’OpenAI. Pour une comparaison plus approfondie, le consultant en logiciels Shaun Pedicini a créé un site web instructif (« GenAI Image Editing Showdown ») qui propose des tests A/B de différents modèles d’images basés sur l’IA.

    Bien que nous ayons beaucoup écrit sur ce sujet ces dernières années, il est sans doute utile de rappeler que les obstacles à la retouche et à la manipulation réalistes de photos ne cessent de s’estomper. Ce type de manipulation d’images par IA, fluide, réaliste et sans effort, pourrait entraîner (le jeu de mots est voulu) une réévaluation culturelle de la signification des images pour la société. Pour quelqu’un ayant grandi à une autre époque médiatique, se voir mis en scène dans des situations fictives peut aussi s’avérer quelque peu déstabilisant.

    Pendant la majeure partie de l’histoire de la photographie, la réalisation d’un faux convaincant exigeait savoir-faire, temps et ressources. Ces obstacles rendaient la falsification suffisamment rare pour que l’on puisse considérer de nombreuses photographies comme un indicateur raisonnable de la vérité, même si elles pouvaient être manipulées (et l’étaient souvent ). Cette époque est révolue grâce à l’IA, mais GPT Image 1.5 semble lever encore davantage les derniers obstacles.

    La possibilité de préserver la ressemblance du visage lors de retouches présente une utilité évidente pour la retouche photo légitime, mais aussi un risque tout aussi évident d’utilisation abusive. Des générateurs d’images ont déjà été utilisés pour créer des images intimes sans consentement et usurper l’identité de personnes réelles.

    5c601cf4-9ced-4545-9855-eaf834239ef4-image.png
    La reine galactique et le barbare dans l’environnement précédent

    Compte tenu de ces risques, les générateurs d’images d’OpenAI ont toujours intégré un filtre bloquant généralement les contenus à caractère sexuel ou violent. Cependant, il reste possible de créer des images compromettantes de personnes sans leur consentement (même si cela enfreint les conditions d’utilisation d’OpenAI) tout en évitant ces sujets. L’entreprise indique que les images générées contiennent des métadonnées C2PA les identifiant comme étant créées par une IA, mais que ces données peuvent être supprimées en réenregistrant le fichier.

    En parlant de contrefaçons, le rendu du texte a longtemps constitué une faiblesse des générateurs d’images, qui s’est lentement améliorée . Lorsqu’on demande à certains anciens modèles de synthèse d’images de créer une affiche ou un panneau avec des mots spécifiques, les résultats sont souvent illisibles ou mal orthographiés.

    OpenAI affirme que GPT Image 1.5 peut traiter des textes plus denses et plus petits. L’article de blog de l’entreprise présente une démonstration où le modèle a généré l’image d’un journal contenant un article de plusieurs paragraphes, avec titres, signature, tableaux de référence et un corps de texte restant lisible au niveau du paragraphe. Des tests plus approfondis seront nécessaires pour vérifier la fiabilité de ces performances avec des sujets variés.

    b88b2a2c-8529-4c49-b184-9b850690fe90-image.png
    Un exemple du nouveau modèle GPT Image 1.5 affichant un texte complexe et dense sur un journal simulé

    Bien que le journal de l’exemple semble aujourd’hui falsifié, il s’agit d’une étape supplémentaire vers l’ érosion potentielle de la perception qu’a le public des archives historiques pré-Internet, à mesure que la synthèse d’images devient plus réaliste.

    OpenAI a reconnu dans un article de blog que le nouveau modèle présente encore des problèmes, notamment une prise en charge limitée de certains styles de dessin et des erreurs lors de la génération d’images exigeant une précision scientifique. L’entreprise estime cependant que le modèle s’améliorera avec le temps. « Nous pensons que nous n’en sommes qu’aux prémices du potentiel de la génération d’images », a-t-elle écrit. Et si l’ on en juge par les progrès réalisés ces trois dernières années en synthèse d’images, il se pourrait bien qu’elle ait raison.

    Source: https://arstechnica.com/ai/2025/12/openais-new-chatgpt-image-generator-makes-faking-photos-easy/

  • Google banana l'I.A. qui tue Photoshop

    4
    0 Votes
    4 Messages
    132 Vues
  • 2 Votes
    3 Messages
    57 Vues

    @Aurel Idem avec une Panasonic, plus d’une demi-heure de lutte pour ne pas avoir à configurer des trucs (ou tenter de les supprimer après), et pour trouver l’interrupteur d’Alexa qui écoutait tout en permanence.

    Et sans internet pour faire la config, impossible de configurer/sauter et d’avoir une image de la TNT.

  • On pirate même les Ferries maintenant

    3
    0 Votes
    3 Messages
    54 Vues

    @Aurel On les pirate même avec un seul “r” 🙂 Merci.

  • 2 Votes
    3 Messages
    42 Vues

    Les gros dinosaures ne sont pas rapides, c’est bien connu 🙂

  • 2 Votes
    1 Messages
    30 Vues

    Google va supprimer son service de signalement des fuites de données sur le dark web, jugé peu utile par l’entreprise. Lancée en 2023 pour les abonnés Google One puis étendue à tous en 2024, cette fonctionnalité se limitait à lister des données personnelles retrouvées sur le dark web, sans offrir de solutions concrètes pour y remédier. Google reconnaît que les retours des utilisateurs ont montré un manque d’intérêt et d’efficacité.

    La surveillance du dark web s’arrêtera le 15 janvier, et l’accès aux anciens rapports sera supprimé le 16 février 2026. Google effacera alors toutes les données associées, sans impact sur les autres outils de confidentialité.

    Selon Google, la meilleure protection reste la prévention : utiliser la vérification en deux étapes, éviter la réutilisation de mots de passe grâce aux passkeys et au gestionnaire de mots de passe, et rester vigilant face aux fuites de données.

    Source: https://arstechnica.com/gadgets/2025/12/google-is-shutting-down-dark-web-reports-in-january-because-they-werent-helpful/

    Dommage, c’était toujours bon à savoir.