Actualités High-Tech

2.1k Sujets 10.5k Messages
  • 1 Votes
    4 Messages
    574 Vues

    Protocole intéressant …Merci pour ces infos ; je vais marquer cette page pour plus tard…

  • 1 Votes
    4 Messages
    28 Vues

    Le système est prévu pour fonctionner avec 30 satellites dont six de rechange.
    Au 5 mars 2025, 32 satellites étaient lancés, dont 27 étaient opérationnels.
    En tout cas, selon cet article sur wikipedia
    Avec ce nouveau lancement, cela fait donc 33 au total.

  • 0 Votes
    1 Messages
    4 Vues

    225346aa-6262-46e8-a136-45b258bb5101-image.png
    Une génération d’image GPT 1.5 créée avec l’invite classique : « un barbare musclé avec des armes à côté d’un téléviseur à tube cathodique, style cinématographique, 8K, éclairage studio »

    Pendant la majeure partie des quelque 200 ans d’histoire de la photographie, retoucher une photo de manière convaincante nécessitait soit une chambre noire, soit une certaine maîtrise de Photoshop, soit, au minimum, une main sûre avec des ciseaux et de la colle. Mardi, OpenAI a publié un outil qui simplifie le processus en le réduisant à la simple saisie d’une phrase.

    Ce n’est pas la première entreprise à s’y essayer. Si OpenAI travaillait sur un modèle de retouche d’images conversationnel depuis GPT-40 en 2024, Google l’a devancé en commercialisant un prototype public en mars , avant de le perfectionner pour en faire un modèle populaire appelé Nano Banana (et Nano Banana Pro ). L’accueil enthousiaste réservé au modèle de retouche d’images de Google au sein de la communauté de l’IA a attiré l’attention d’OpenAI .

    d’OpenAI Le nouveau GPT Image 1.5 est un modèle de synthèse d’images par IA qui, selon les informations disponibles, génère des images jusqu’à quatre fois plus rapidement que son prédécesseur et coûte environ 20 % moins cher via l’API. Ce modèle a été déployé auprès de tous les utilisateurs de ChatGPT mardi et représente une nouvelle avancée vers une manipulation d’images photoréalistes accessible à tous, même sans compétences visuelles particulières.

    2e7264df-b343-447a-8fc7-c2acfb622c47-image.png
    Original

    e264c386-a1a5-4d3c-8a7a-d383ade0bddf-image.png
    Ajoute une reine galactique dans l’image originale

    GPT Image 1.5 est remarquable car il s’agit d’un modèle d’image « multimodal natif », ce qui signifie que la génération d’images a lieu au sein du même réseau neuronal qui traite les invites linguistiques. (À l’inverse, DALL-E 3 , un générateur d’images OpenAI antérieur intégré à ChatGPT, utilisait une technique différente appelée diffusion pour générer les images.)

    Ce nouveau type de modèle, que nous avons présenté plus en détail en mars, traite les images et le texte comme des éléments identiques : des blocs de données appelés « tokens » à prédire, des motifs à compléter. Si vous téléchargez une photo de votre père et tapez « le mettre en smoking à un mariage », le modèle traite vos mots et les pixels de l’image dans un espace unifié, puis génère de nouveaux pixels de la même manière qu’il générerait le mot suivant dans une phrase.

    Grâce à cette technique, GPT Image 1.5 peut modifier la réalité visuelle plus facilement que les modèles d’IA précédents, en changeant la pose ou la position d’une personne, ou en restituant une scène sous un angle légèrement différent, avec plus ou moins de succès. Il peut également supprimer des objets, modifier les styles visuels, ajuster les vêtements et affiner des zones spécifiques tout en préservant la ressemblance du visage lors de modifications successives. Vous pouvez dialoguer avec le modèle d’IA au sujet d’une photographie, l’affiner et la corriger, de la même manière que vous réviseriez un brouillon d’e-mail dans ChatGPT.

    Fidji Simo, PDG des applications chez OpenAI, a expliqué dans un article de blog que l’interface de chat de ChatGPT n’avait jamais été conçue pour le travail visuel. « Créer et retoucher des images est une tâche différente qui mérite un espace dédié au visuel », a-t-il écrit. C’est pourquoi OpenAI a intégré un espace de création d’images dans la barre latérale de ChatGPT, avec des filtres prédéfinis et des suggestions populaires.

    e903e741-5b5d-4197-a316-b94aeed84768-image.png
    Original: Harrelson Hall, un célèbre bâtiment circulaire du campus de l’Université d’État de Caroline du Nord (aujourd’hui démoli), a toujours semblé prêt à décoller

    6cd88bc4-0b90-4cf1-9920-94f04ed1514f-image.png
    Transforme ce bâtiment en ovni en train de décoller

    Le lancement de cette fonctionnalité semble être une réponse directe aux avancées technologiques de Google en matière d’IA, notamment la forte croissance du nombre d’utilisateurs de chatbots. En particulier, le modèle d’image Nano Banana de Google (et Nano Banana Pro ) a connu un grand succès sur les réseaux sociaux après sa sortie en août, grâce à sa capacité à afficher du texte avec une relative netteté et à préserver les visages de manière constante malgré les modifications.

    Le modèle de synthèse d’images par jetons d’OpenAI permettait auparavant d’effectuer des modifications ciblées à partir d’invites conversationnelles, mais il modifiait souvent les détails du visage et d’autres éléments que les utilisateurs auraient souhaité conserver. GPT Image 1.5 semble conçu pour offrir les mêmes fonctionnalités d’édition que celles déjà proposées par Google. Toutefois, si vous préférez l’ancien générateur d’images ChatGPT, OpenAI précise que la version précédente restera disponible (pour le moment) en tant que GPT personnalisé.

    La friction continue de diminuer

    GPT Image 1.5 n’est pas parfait. Lors de nos tests, il n’a pas toujours suivi les instructions à la lettre. Cependant, lorsqu’il fonctionne correctement, les résultats semblent plus convaincants et détaillés que le précédent modèle d’image multimodal d’OpenAI. Pour une comparaison plus approfondie, le consultant en logiciels Shaun Pedicini a créé un site web instructif (« GenAI Image Editing Showdown ») qui propose des tests A/B de différents modèles d’images basés sur l’IA.

    Bien que nous ayons beaucoup écrit sur ce sujet ces dernières années, il est sans doute utile de rappeler que les obstacles à la retouche et à la manipulation réalistes de photos ne cessent de s’estomper. Ce type de manipulation d’images par IA, fluide, réaliste et sans effort, pourrait entraîner (le jeu de mots est voulu) une réévaluation culturelle de la signification des images pour la société. Pour quelqu’un ayant grandi à une autre époque médiatique, se voir mis en scène dans des situations fictives peut aussi s’avérer quelque peu déstabilisant.

    Pendant la majeure partie de l’histoire de la photographie, la réalisation d’un faux convaincant exigeait savoir-faire, temps et ressources. Ces obstacles rendaient la falsification suffisamment rare pour que l’on puisse considérer de nombreuses photographies comme un indicateur raisonnable de la vérité, même si elles pouvaient être manipulées (et l’étaient souvent ). Cette époque est révolue grâce à l’IA, mais GPT Image 1.5 semble lever encore davantage les derniers obstacles.

    La possibilité de préserver la ressemblance du visage lors de retouches présente une utilité évidente pour la retouche photo légitime, mais aussi un risque tout aussi évident d’utilisation abusive. Des générateurs d’images ont déjà été utilisés pour créer des images intimes sans consentement et usurper l’identité de personnes réelles.

    5c601cf4-9ced-4545-9855-eaf834239ef4-image.png
    La reine galactique et le barbare dans l’environnement précédent

    Compte tenu de ces risques, les générateurs d’images d’OpenAI ont toujours intégré un filtre bloquant généralement les contenus à caractère sexuel ou violent. Cependant, il reste possible de créer des images compromettantes de personnes sans leur consentement (même si cela enfreint les conditions d’utilisation d’OpenAI) tout en évitant ces sujets. L’entreprise indique que les images générées contiennent des métadonnées C2PA les identifiant comme étant créées par une IA, mais que ces données peuvent être supprimées en réenregistrant le fichier.

    En parlant de contrefaçons, le rendu du texte a longtemps constitué une faiblesse des générateurs d’images, qui s’est lentement améliorée . Lorsqu’on demande à certains anciens modèles de synthèse d’images de créer une affiche ou un panneau avec des mots spécifiques, les résultats sont souvent illisibles ou mal orthographiés.

    OpenAI affirme que GPT Image 1.5 peut traiter des textes plus denses et plus petits. L’article de blog de l’entreprise présente une démonstration où le modèle a généré l’image d’un journal contenant un article de plusieurs paragraphes, avec titres, signature, tableaux de référence et un corps de texte restant lisible au niveau du paragraphe. Des tests plus approfondis seront nécessaires pour vérifier la fiabilité de ces performances avec des sujets variés.

    b88b2a2c-8529-4c49-b184-9b850690fe90-image.png
    Un exemple du nouveau modèle GPT Image 1.5 affichant un texte complexe et dense sur un journal simulé

    Bien que le journal de l’exemple semble aujourd’hui falsifié, il s’agit d’une étape supplémentaire vers l’ érosion potentielle de la perception qu’a le public des archives historiques pré-Internet, à mesure que la synthèse d’images devient plus réaliste.

    OpenAI a reconnu dans un article de blog que le nouveau modèle présente encore des problèmes, notamment une prise en charge limitée de certains styles de dessin et des erreurs lors de la génération d’images exigeant une précision scientifique. L’entreprise estime cependant que le modèle s’améliorera avec le temps. « Nous pensons que nous n’en sommes qu’aux prémices du potentiel de la génération d’images », a-t-elle écrit. Et si l’ on en juge par les progrès réalisés ces trois dernières années en synthèse d’images, il se pourrait bien qu’elle ait raison.

    Source: https://arstechnica.com/ai/2025/12/openais-new-chatgpt-image-generator-makes-faking-photos-easy/

  • L’IA bouleverse l’industrie du porno

    6
    0 Votes
    6 Messages
    57 Vues

    Le pire reste quand même à venir, trompe d’éléphant (avec ou sans oreilles), puit sans fond et je n’ose même pas imaginer le reste…

  • Google banana l'I.A. qui tue Photoshop

    4
    0 Votes
    4 Messages
    117 Vues
  • 2 Votes
    3 Messages
    44 Vues

    @Aurel Idem avec une Panasonic, plus d’une demi-heure de lutte pour ne pas avoir à configurer des trucs (ou tenter de les supprimer après), et pour trouver l’interrupteur d’Alexa qui écoutait tout en permanence.

    Et sans internet pour faire la config, impossible de configurer/sauter et d’avoir une image de la TNT.

  • On pirate même les Ferries maintenant

    3
    0 Votes
    3 Messages
    43 Vues

    @Aurel On les pirate même avec un seul “r” 🙂 Merci.

  • 1 Votes
    8 Messages
    161 Vues

    Rapaces ! vautour.gif

  • 2 Votes
    3 Messages
    36 Vues

    Les gros dinosaures ne sont pas rapides, c’est bien connu 🙂

  • 2 Votes
    1 Messages
    24 Vues

    Google va supprimer son service de signalement des fuites de données sur le dark web, jugé peu utile par l’entreprise. Lancée en 2023 pour les abonnés Google One puis étendue à tous en 2024, cette fonctionnalité se limitait à lister des données personnelles retrouvées sur le dark web, sans offrir de solutions concrètes pour y remédier. Google reconnaît que les retours des utilisateurs ont montré un manque d’intérêt et d’efficacité.

    La surveillance du dark web s’arrêtera le 15 janvier, et l’accès aux anciens rapports sera supprimé le 16 février 2026. Google effacera alors toutes les données associées, sans impact sur les autres outils de confidentialité.

    Selon Google, la meilleure protection reste la prévention : utiliser la vérification en deux étapes, éviter la réutilisation de mots de passe grâce aux passkeys et au gestionnaire de mots de passe, et rester vigilant face aux fuites de données.

    Source: https://arstechnica.com/gadgets/2025/12/google-is-shutting-down-dark-web-reports-in-january-because-they-werent-helpful/

    Dommage, c’était toujours bon à savoir.

  • Les fausses informations de Grok, l’IA d’Elon Musk

    1
    2 Votes
    1 Messages
    34 Vues

    Grok a diffusé de fausses informations sur l’attentat de Sydney, suggérant par exemple qu’une victime n’en était pas une.

    Grok, l’intelligence artificielle (IA) développée par Elon Musk, a diffusé de fausses informations sur l’attentat de Sydney, en suggérant par exemple qu’une victime n’en était pas une ou en identifiant mal un témoin ayant désarmé l’un des assaillants, ont constaté mardi l’AFP et des experts.

    Les assistants virtuels comme Grok, appelés «chatbots», fournissent en temps réel des réponses aux utilisateurs demandant des détails ou des éléments de contexte sur des informations et des images, les géants de la tech ayant par ailleurs largement réduit leurs effectifs dédiés à la vérification des faits.

    Le chatbot a mal identifié Ahmed al Ahmed, célébré en «héros» en Australie après une vidéo le montrant en train d’arracher le fusil d’un des auteurs de l’attentat. L’homme, grièvement blessé, est toujours hospitalisé.

    Mais Grok affirme que ces images correspondaient à «une vieille vidéo virale montrant un homme grimpant à un palmier dans un parking», suggérant une «mise en scène».

    Quant à Ahmed al Ahmed, d’origine syrienne, Grok l’identifie comme un otage israélien détenu par le Hamas.

    Interrogé sur une autre scène de l’attaque, Grok assure qu’il s’agit d’images de la tempête Alfred, qui a frappé l’est de l’Australie au début de l’année. Sur l’insistance d’un utilisateur, le chatbot a fait marche arrière et reconnu que les images provenaient de l’attaque.

    Contacté par l’AFP, le développeur de Grok, xAI, a répondu par un message automatique: «Les médias traditionnels mentent».

    Après l’attaque de Sydney, des internautes ont diffusé une image de l’un des survivants, affirmant à tort qu’il s’agissait d’un «plastron», selon l’organisme de surveillance de la désinformation NewsGuard.

    Ce terme (en anglais «crisis actor») est utilisé par les complotistes pour mettre en doute l’authenticité de crimes de masse et des victimes qu’ils font.

    Au sujet de la photo du survivant de Sydney, Grok parle d’une «mise en scène».

    Les experts estiment que l’IA peut être utile, pour géolocaliser des images par exemple, mais jugent pour l’heure impossible de remplacer les humains pour vérifier les faits et expliquer le contexte.

    Source: https://www.lematin.ch/story/attentat-a-sydney-les-fausses-informations-de-grok-l-ia-d-elon-musk-103471406

    Une IA complotiste ? :lol: en tout cas grotesque.

  • 2 Votes
    2 Messages
    33 Vues

    ça c’est super intéressant !!!

  • Slop ! Le nouveau mot pour les maux d'internet

    1
    1 Votes
    1 Messages
    36 Vues

    d14c70c2-cde3-471f-aacc-5aa9f799cd2d-image.png

    Si Internet est un océan de contenus, les déchets générés par l’IA sont les débris flottants que nous sommes obligés d’éviter pour atteindre le rivage. Ces contenus de piètre qualité sont si omniprésents que Merriam-Webster a choisi « Slop » comme mot de l’année 2025 , le décrivant comme « un contenu numérique de faible qualité, généralement produit en grande quantité grâce à l’intelligence artificielle ».

    Vous savez de quoi ils parlent, n’est-ce pas ? Nous avons à notre disposition un éventail croissant de chatbots comme ChatGPT, Gemini, Claude, Copilot, Sora et d’innombrables autres qui, avec un peu plus qu’une simple invite, nous permettent de créer des quantités impressionnantes de contenu, allant des photos et vidéos aux articles, documents de recherche, présentations et même podcasts.

    9e8e4d3e-acee-46b0-a427-49dde41033e4-image.png
    Slop !

    Certains aspects sont, sans conteste, remarquables. Le don de l’IA réside dans sa capacité à extraire du sens d’immenses quantités de données. Elle peut explorer en profondeur et en largeur, et révéler des informations précieuses. Elle peut transformer des pages et des pages de recherche en un rapport exploitable. L’IA peut supprimer les personnes indésirables et les débris d’une photo, voire ajouter des éléments qui n’étaient pas présents sur l’image originale.

    Les erreurs de l’IA sont si omniprésentes qu’on les remarque à peine. Elles contaminent les reportages, le service client, la publicité et les spots publicitaires (même si, à ce stade, je parviens encore presque toujours à identifier les « acteurs » de l’IA ).

    Le pire, c’est que beaucoup ne se rendent pas compte qu’ils utilisent l’IA pour générer du contenu. Au lieu de cela, ils l’utilisent comme du sel, l’appliquant généreusement à tous les aspects de leur vie.

    Au moins, avec le sel, il existe un moyen de savoir exactement quelle quantité se trouve dans nos aliments : il suffit de lire la liste des ingrédients.

    Imaginez un peu à quoi ressemblerait une étiquette d’ingrédients pour les produits d’aujourd’hui :

    Inspiration — 20 % Effort — 8 % IA — 70 % Deuxième regard — 2 %

    Bien que cela n’ait pas été prévu, le mot de l’année 2025 d’Oxford est « Rage Bait », qu’il définit comme « un contenu en ligne délibérément conçu pour susciter la colère ou l’indignation en étant frustrant, provocateur ou offensant ».

    J’imagine que, lorsque vous faites défiler des actualités et des contenus bouleversants sur les réseaux sociaux, les erreurs fréquentes de l’IA peuvent vous mettre un peu en colère.

    Je suis persuadé que des millions de personnes utilisent l’IA pour des tâches concrètes et des solutions importantes , mais je pense que la grande majorité la considère comme un jouet ou comme la réponse à leur paresse innée, et produit des résultats médiocres en IA à un rythme effréné.

    Notre colère ne risque pas de s’apaiser de sitôt. Certains experts estiment qu’environ la moitié du contenu que nous voyons en ligne est généré par l’IA, et d’autres prévoient qu’à l’heure actuelle, au moins 90 % d’Internet pourrait être constitué de productions de mauvaise qualité par l’IA.

    Source et plus: https://www.techradar.com/ai-platforms-assistants/we-filled-the-internet-with-garbage-and-now-slop-is-the-word-of-the-year-nice-going-ai

  • 1 Votes
    1 Messages
    25 Vues

    Depuis des décennies, la Motion Picture Association (MPA) est le principal défenseur des droits de propriété intellectuelle à Hollywood, notamment en matière de piratage. Cependant, dans une récente action en justice fédérale, les rôles se sont inversés. Se rangeant du côté de Disney, la MPA dénonce des abus présumés en matière de propriété intellectuelle et des demandes de brevets « extorsionnistes » liées aux codecs H.264 et H.265, dont elle craint qu’elles n’entraînent une hausse des prix des abonnements aux services de streaming.

    ae1e04f5-70f1-4661-8674-ca1141f8d27c-image.png

    Pour de nombreux pirates en ligne, les normes H.264 et H.265 sont synonymes de versions piratées de haute qualité.

    Les codecs et technologies de compression sous-jacents qu’ils décrivent se sont imposés comme les formats de piratage vidéo privilégiés, apparaissant dans des milliers de contenus diffusés en ligne.

    Il existe même des règles spécifiques, appelées « Scènes », pour la diffusion de contenu piraté dans ces formats. Pourtant, dans le même temps, des services de streaming comme Netflix, Amazon Prime et Disney+ utilisent la même technologie.

    Disney poursuivi pour contrefaçon de brevet

    InterDigital détient plus de 10 000 brevets vidéo et de codecs, dont ceux essentiels aux normes H.264 et H.265. Pour lire du contenu encodé dans ces formats, les fabricants d’appareils, tels que les fournisseurs d’ordinateurs et de téléviseurs, doivent obtenir une licence d’utilisation.

    Netflix, Prime Video et Disney+ utilisent ces codecs pour encoder leurs vidéos, mais, selon Interdigital, cela ne se fait pas toujours avec autorisation.

    En février, la société de brevets basée en Pennsylvanie a intenté un procès à Disney pour contrefaçon. Une plainte déposée devant un tribunal fédéral californien accuse Disney d’utiliser les codecs brevetés pour ESPN, Hulu et Disney+.

    InterDigital a contacté Disney en juillet 2022 pour discuter d’un accord de licence, mais face à l’absence de résultats, la société s’est sentie obligée d’engager une action en justice.

    « Aujourd’hui, les défendeurs poursuivent leurs violations généralisées des brevets revendiqués en utilisant la technologie revendiquée qui permet l’efficacité et la performance de leur activité de diffusion vidéo en continu. »

    Disney n’est pas la seule entreprise concernée. Le mois dernier, InterDigital a déposé une plainte quasi identique contre Amazon, accusant le géant du commerce en ligne d’utiliser sans autorisation la même technologie de compression vidéo pour Prime Video.

    L’association MPA soutient Disney

    Ces procès aux enjeux considérables touchent au cœur même du paysage du streaming vidéo. Ils suscitent une vive inquiétude, y compris au sein de la Motion Picture Association (MPA), qui a déposé un mémoire d’amicus curiae dans le cadre du procès intenté par Disney la semaine dernière.

    La plainte déposée par la MPA s’inscrit dans le cadre de la contre-poursuite de Disney, déposée en août devant un tribunal fédéral du Delaware, qui accuse InterDigital de pratiques anticoncurrentielles.

    La MPA, qui compte Disney et les autres grands services de streaming vidéo parmi ses membres, est généralement connue pour sa défense des droits de propriété intellectuelle. Dans ce cas précis, cependant, elle s’insurge contre ce qu’elle considère comme une violation de ces droits.

    Le document indique qu’InterDigital est accusée d’avoir orchestré une « campagne de chantage mondiale » visant à générer des profits exceptionnels, en utilisant des demandes et des actions extorsionnistes pour forcer les services de streaming à se joindre à elle.

    Extrait du rapport de MPA

    d82d385b-864e-47b1-88cf-bc68ab006e66-image.png
    On oblige Disney à capituler devant cette extorsion de fonds exorbitante 🙂

    L’association MPA considère les pratiques agressives d’InterDigital en matière de brevets comme une violation du droit de la concurrence. Dans son mémoire, elle soutient qu’InterDigital pratique une double facturation en tentant de faire payer aux services de streaming les mêmes transmissions vidéo que celles déjà financées par les fabricants d’appareils.

    En substance, le titulaire du brevet souhaite être rémunéré pour l’encodage et le décodage d’une même vidéo.

    « InterDigital a cherché à “cumuler les paiements”, exigeant que les fournisseurs de streaming prennent des licences donnant lieu à des redevances même lorsque ces fournisseurs diffusent du contenu sur des appareils dont les fabricants paient déjà InterDigital pour l’utilisation des mêmes brevets », écrit la MPA.

    InterDigital souligne que, si les normes H.264/HEVC sont obligatoires pour les fabricants d’appareils, elles sont techniquement « optionnelles » pour les services de streaming. L’entreprise affirme que Disney et d’autres peuvent utiliser une technologie non standard s’ils souhaitent éviter les frais.

    La MPA rejette cet argument contraire comme une « excuse fabriquée de toutes pièces », faisant remarquer que l’utilisation d’une technologie non standard rendrait ces services de streaming incompatibles avec pratiquement tous les téléviseurs et smartphones du marché.

    Au-delà des mécanismes de « double facturation », le mémoire de la MPA soutient les allégations plus générales de Disney selon lesquelles InterDigital s’est livrée à un stratagème trompeur où les obligations envers RAND ont été effectivement contournées.

    Hausse des prix des services de streaming

    En définitive, la MPA prévient que cette bataille juridique autour des brevets aura des conséquences concrètes pour les consommateurs. L’association professionnelle du cinéma affirme que si des détenteurs de brevets peu scrupuleux sont autorisés à cumuler les redevances, les services de streaming devront faire face à des coûts plus élevés.

    Dans son mémoire, la MPA établit un lien direct entre la conduite d’InterDigital et les factures mensuelles payées par les abonnés au streaming.

    « Tout cela engendre des coûts substantiels, ce qui pourrait se traduire par une hausse des frais d’abonnement ou une réduction de la production et de la diffusion des contenus en streaming », note la MPA.

    Il va sans dire que les enjeux de cette bataille juridique en matière de brevets sont considérables et que ses répercussions se font sentir à l’échelle mondiale. InterDigital a déjà obtenu des injonctions pour bloquer la diffusion des contenus Disney en Allemagne et au Brésil.

    Le tribunal du Delaware doit maintenant décider si les accusations antitrust de Disney doivent être rejetées, comme le demande InterDigital, ou si l’affaire peut se poursuivre.

    Source: https://torrentfreak.com/hollywood-warns-extortionary-codec-patent-fees-could-hike-streaming-subscription-prices/

    L’arroseur arrosé 🙂

  • 6 Votes
    16 Messages
    153 Vues

    @Psyckofox c-nard :! :! :! :! :!

  • 1 Votes
    1 Messages
    14 Vues

    L’application de messagerie instantanée détenue par Meta traverse une période délicate sur son principal territoire : l’Inde. Des directives gouvernementales récentes bousculent profondément le fonctionnement habituel de la plateforme, au risque de perturber aussi bien les utilisateurs individuels que les commerces qui en dépendent quotidiennement.

    Alors que New Delhi justifie ces mesures par la lutte contre la cybercriminalité, experts et organisations sectorielles alertent sur un possible dérapage réglementaire. Dans un pays où WhatsApp s’est imposé comme infrastructure de communication incontournable, ces nouvelles règles soulèvent autant d’inquiétudes pratiques que juridiques.

    Des obligations techniques contraignantes pour les messageries

    Les autorités indiennes exigent désormais qu’un lien permanent existe entre chaque compte et la carte SIM utilisée lors de l’inscription initiale. Cette directive, rendue publique début décembre après son émission fin novembre, s’applique à plusieurs plateformes dont Meta, Telegram et Signal. Les entreprises concernées disposent d’un délai de 90 jours pour se conformer.

    L’impact va au-delà du simple enregistrement. Les versions web et desktop imposent maintenant une déconnexion toutes les six heures, obligeant l’utilisateur à scanner un code QR depuis son téléphone pour rétablir l’accès. Le ministère des télécommunications défend cette approche en invoquant des pertes estimées à 228 milliards de roupies (environ 2,5 milliards de dollars) dues aux fraudes numériques rien qu’en 2024. Selon les explications officielles, ancrer chaque session active à une SIM vérifiée permettrait de tracer les numéros impliqués dans les arnaques.

    Une précision gouvernementale indique toutefois que ces règles ne s’activent pas lorsque la carte SIM reste insérée dans l’appareil pendant l’itinérance. Malgré cette exception, l’application généralisée suscite de vives réactions.

    Un écosystème commercial particulièrement vulnérable

    Si ces directives visent l’ensemble des messageries instantanées majeures, WhatsApp subit la pression la plus forte. Plus de 500 millions d’Indiens utilisent l’application, avec un taux d’ouverture quotidienne atteignant 94 % de la base mensuelle en novembre, contre 59 % aux États-Unis selon Sensor Tower.

    Les petits commerçants indiens représentent une catégorie spécialement exposée. Nombreux sont ceux qui enregistrent leur compte WhatsApp Business sur un smartphone relié à une carte SIM, tout en gérant les conversations clients via l’interface web ou desktop depuis un autre poste. Contrairement aux grandes structures qui exploitent les API Business pour des échanges automatisés, ces micro-entreprises s’appuient sur l’application mobile et son interface compagnon. Déconnecter les sessions toutes les six heures risque d’interrompre brutalement la prise de commandes, le support client et l’engagement commercial.

    Cette situation intervient alors que WhatsApp développe justement ses capacités multi-appareils, permettant de rester connecté simultanément sur plusieurs supports sans dépendre d’un unique smartphone actif.

    Source et plus: https://www.fredzone.org/linde-impose-des-restrictions-inedites-a-whatsapp-et-menace-son-modele-dusage/

    Pour avoir séjourné plusieurs fois dans un pays à majorité Indienne (et en grande partie créole), j’ai pu suivre avec effarement l’évolution du besoin vital de la population pour cette application.

    Dans cette succursale du royaume du bordel, rien ne se fait sans whatsapp, ni rendez-vous, ni livraison, sans devoir partager temporairement sa position, dans un pays ou personne ne connaît ou utilise les noms de rues (pondus récemment), personne n’est de toute façon à l’heure, ce qui permet de patienter en scrutant l’approche de l’espéré quand les délais peut se compter en heures 🙂

  • Et si Oracle faisait éclater la bulle de l'IA

    2
    1 Votes
    2 Messages
    33 Vues

    Un dont on parle moins c’est NVIDIA dont la capitalisation boursière (BN 4261) est totalement hors de proportion au vu de son CA (Mds 126)

    De plus leur CA est basé à près de 90% sur des activités très volatiles :

    Solutions informatiques et de mise en réseau (89%) : plateformes et infrastructures de centres de données, solutions d’interconnexion Ethernet, solutions calcul haute performance, plateformes et solutions pour véhicules autonomes et intelligents, solutions pour l’infrastructure d’intelligence artificielle d’entreprise, processeurs d’extraction de crypto-monnaies, cartes informatiques embarquées pour la robotique, l’enseignement, l’apprentissage et le développement de l’intelligence artificielle, etc. ;

    Processeurs graphiques (11%) : destinés aux ordinateurs, aux consoles de jeux, aux plateformes de diffusion en direct de jeux vidéo, aux stations de travail, etc. (marques GeForce, NVIDIA RTX, Quadro, etc.). Le groupe propose également des ordinateurs portables et de bureau, des ordinateurs de jeu, des périphériques pour ordinateurs (moniteurs, souris, manettes de jeux, télécommandes, etc.), des logiciels pour l’informatique visuelle et virtuelle, des plateformes pour les systèmes d’info-divertissement automobiles et des plateformes de collaboration dans le cloud.

    Le CA par secteur d’activité se ventile entre stockage de données (88,3%), jeux (8,7%), visualisation professionnelle (1,4%), automobile (1,3%) et autres (0,3%).

    Perso je n’aimerais pas avoir mon portefeuille rempli de leur share.

    Source : https://www.zonebourse.com/cours/action/NVIDIA-CORPORATION-57355629/societe/

    2f7ce729-bacc-4bff-9721-462add051e53-Live Long & Prosper.jpg

  • 0 Votes
    1 Messages
    18 Vues

    Jeudi, The Walt Disney Company a annoncé un investissement d’un milliard de dollars dans OpenAI et un accord de licence de trois ans qui permettra aux utilisateurs du générateur vidéo Sora d’OpenAI de créer de courts clips mettant en scène plus de 200 personnages Disney, Marvel, Pixar et Star Wars. Il s’agit du premier partenariat majeur de licence de contenu conclu par un studio hollywoodien concernant la dernière version de la plateforme vidéo IA d’OpenAI, qui avait suscité des critiques au sein de certains acteurs de l’industrie du divertissement lors de son lancement fin septembre.

    Le générateur d’images ChatGPT bénéficiera lui aussi d’un accès officiel à cette même propriété intellectuelle, bien que ces informations aient été intégrées à ces modèles d’IA depuis longtemps. La nouveauté réside dans le fait qu’OpenAI autorisera officiellement la diffusion, avec l’aval de Disney, de contenus liés à Disney générés par ses modèles d’IA, via ses filtres de modération.

    De son côté, Disney prévoit de déployer ChatGPT pour ses employés et d’utiliser la technologie d’OpenAI pour développer de nouvelles fonctionnalités pour Disney+. Une sélection de vidéos de Sora réalisées par les fans sera diffusée sur la plateforme Disney+ dès début 2026.

    L’accord ne porte pas sur l’utilisation de l’image ou de la voix des personnalités. Disney et OpenAI ont déclaré s’être engagés à « mettre en place des contrôles rigoureux afin d’empêcher la création de contenus illégaux ou préjudiciables » et à « respecter le droit des individus à contrôler l’utilisation de leur voix et de leur image ».

    Bien que Disney et OpenAI soient apparemment amis aujourd’hui, la société a simultanément adopté une position agressive à l’égard de certaines entreprises d’IA avec lesquelles elle n’a pas noué de partenariat.

    Mercredi, Disney a adressé une mise en demeure à Google, accusant l’entreprise de « violation massive de ses droits d’auteur » par le biais de ses services d’intelligence artificielle, notamment YouTube. Disney a également envoyé des mises en demeure similaires à Meta et Character.AI et a intenté des poursuites contre le service de synthèse d’images Midjourney, conjointement avec NBCUniversal et Warner Bros. Discovery.

    Plusieurs questions importantes concernant cet accord restent sans réponse, notamment le montant des frais de licence, l’utilisation éventuelle du contenu Disney pour l’entraînement des futurs modèles d’OpenAI, et même la finalisation de l’accord. L’annonce précise également qu’il reste « sous réserve de négociations pour des accords définitifs », des mises à jour ou des clarifications sont donc à prévoir.

    Source et plus: https://arstechnica.com/ai/2025/12/disney-invests-1-billion-in-openai-licenses-200-characters-for-ai-video-app-sora/

  • 2 Votes
    6 Messages
    48 Vues

    Arf pas remarqué ça sur mes machines clientes. Je serais plus vigilant.

  • 1 Votes
    1 Messages
    21 Vues

    L’entreprise affirme que son nouveau modèle d’IA surpasse Gemini et égale les humains dans 70 % des tâches professionnelles. 🎻 …en vitesse (ah bon !) 🙂

    Jeudi, OpenAI a lancé GPT-5.2, sa toute nouvelle famille de modèles d’IA pour ChatGPT, déclinée en trois versions : Instant, Thinking et Pro. Cette publication fait suite à la note interne d’urgence émise par le PDG Sam Altman au début du mois, qui réorientait les ressources de l’entreprise vers l’amélioration de ChatGPT face à la concurrence du modèle d’IA Gemini 3 de Google .

    « Nous avons conçu la version 5.2 pour générer encore plus de valeur économique pour les utilisateurs », a déclaré Fidji Simo, directeur des produits chez OpenAI, lors d’une conférence de presse jeudi. « Elle est plus performante pour créer des feuilles de calcul, élaborer des présentations, écrire du code, percevoir des images, comprendre le contexte à long terme, utiliser des outils et relier des projets complexes à plusieurs étapes. »

    Comme pour les versions précédentes de GPT-5, les trois niveaux du modèle ont des objectifs différents : Instant gère les tâches plus rapides comme l’écriture et la traduction ; Thinking produit un texte de « réflexion » simulé pour tenter de s’attaquer à des tâches plus complexes comme le codage et les mathématiques ; et Pro produit encore plus de texte de raisonnement simulé dans le but d’offrir les performances les plus précises pour les problèmes difficiles.

    (Ici un benchmark entre la version 5.1 et la 5.2 il y a un mot tout en bas à ce sujet)

    Étrangement, bien que la sortie du modèle GPT-5.2 soit censée répondre aux performances de Gemini 3, OpenAI a choisi de ne publier aucun benchmark comparatif entre les deux modèles sur son site web promotionnel.

    GPT-5.2 dispose d’une fenêtre de contexte de 400 000 jetons, lui permettant de traiter des centaines de documents à la fois, et d’une date limite de connaissances fixée au 31 août 2025.

    GPT-5.2 sera déployé auprès des abonnés payants de ChatGPT à partir de jeudi, avec un accès API disponible pour les développeurs. Le prix de l’API est de 1,75 $ par million de jetons d’entrée pour le modèle standard, soit une augmentation de 40 % par rapport à GPT-5.1. OpenAI précise que l’ancienne version GPT-5.1 restera disponible dans ChatGPT pour les utilisateurs payants pendant trois mois, dans un menu déroulant dédié aux anciens modèles.

    Rattraper son retard sur Google

    Cette annonce intervient après un mois difficile pour OpenAI. Début décembre, Altman a émis une directive interne d’alerte maximale suite à la performance exceptionnelle du modèle Gemini 3 de Google, qui a surpassé plusieurs benchmarks d’IA et conquis des parts de marché. La note de service préconisait le report d’autres initiatives, notamment les plans publicitaires pour ChatGPT, afin de se concentrer sur l’amélioration de l’expérience utilisateur du chatbot.

    Les enjeux sont considérables pour OpenAI. L’entreprise s’est engagée à investir 1 400 milliards de dollars dans le développement de son infrastructure d’IA au cours des prochaines années, des investissements réalisés lorsqu’elle bénéficiait d’une avance technologique plus marquée parmi les entreprises du secteur. L’application Gemini de Google compte désormais plus de 650 millions d’utilisateurs actifs mensuels, tandis qu’OpenAI revendique 800 millions d’utilisateurs actifs hebdomadaires pour ChatGPT.

    Pour rester compétitif, OpenAI déploie des modèles à un rythme soutenu : GPT-5.2 est la troisième mise à jour majeure depuis août. Lancée en août, GPT-5 proposait un nouveau système de routage permettant d’alterner entre réponse instantanée et raisonnement simulé, mais les utilisateurs ont déploré de novembre le manque de naturel et de spontanéité des réponses. La mise à jour GPT-5.1 a ajouté huit options de « personnalité » prédéfinies et s’est concentrée sur l’amélioration du comportement conversationnel du système.

    OpenAI affirme que GPT-5.2 Thinking surpasse ou égale les performances des experts humains dans 70,9 % des tâches du benchmark GDPval (contre 53,3 % pour Gemini 3 Pro). L’entreprise affirme également que le modèle accomplit ces tâches plus de 11 fois plus rapidement et à un coût inférieur à 1 % de celui des experts humains.

    Selon Max Schwarzer, responsable du post-entraînement chez OpenAI, GPT-5.2 Thinking génère également des réponses avec 38 % de confabulations en moins que GPT-5.1, qui a déclaré à VentureBeat que le modèle « hallucine sensiblement moins » que son prédécesseur.

    Cependant, nous prenons toujours les benchmarks avec des pincettes, car il est facile de les présenter de manière positive pour une entreprise, surtout lorsque la science de la mesure objective des performances de l’IA n’a pas encore rattrapé les arguments de vente des entreprises en faveur de capacités d’IA quasi humaines.

    Les résultats de tests comparatifs indépendants réalisés par des chercheurs extérieurs à OpenAI ne seront pas disponibles avant un certain temps. En attendant, si vous utilisez ChatGPT pour vos tâches professionnelles, vous pouvez vous attendre à des modèles performants bénéficiant d’améliorations progressives et d’une optimisation du code.

    Source: https://arstechnica.com/information-technology/2025/12/openai-releases-gpt-5-2-after-code-red-google-threat-alert/