Dans la newsletter… Audrey & Animal crossing, presque télépathie numérique, optimisation de VOIP…

Chaque week-end, nous envoyons la newsletter de Tech Café : un supplément avec le relai d’actualités non traitées dans le podcast. Voici les sujets qui figuraient dans le mail du 10 avril 2020.

Quel est le jeu auquel vous avez joué le plus longtemps ? Je dois avoir une bonne centaine d’heures au compteur d’Oblivion, mais il est de plus en plus difficile de trouver autant de temps à consacrer à un jeu, même s’il le mérite. En plus, il faut une certaine discipline.

Or, je suis faible, je suis frivole, ou peut être juste adepte du polyamour ludique. Mamy Audrey est plus exclusive, elle a eu la discipline de jouer deux heures et demie par jour pendant 5 ans à Animal Crossing New Leaf sur 3DS. Avec plus 4000 heures au compteur et plus de clochettes que vous ne pourriez en rêver, elle vient de passer sur Switch : elle débute solennellement New Horizon.

Audrey était déjà une célébrité l’an dernier. Son petit-fils youtubeur avait parlé de sa grand-mère aux 3500h de jeux (à l’époque) et ouvert une cagnotte pour lui offrir une Switch, édition Animal Crossing bien sûr. Petit détail touchant bien que ça n’aie jamais été confirmé, il est soupçonné qu’Audrey ait été intégrée à Animal Crossing New Horizon sous la forme d’Audie, la petite louve rose.

Ne cherchez pas la ressemblance, Audie se nomme Monika dans la version originale. Mais le choix des traducteurs, qui auraient très bien pu se contenter de garder « Monika », est largement interprété comme une référence à la plus grosse joueuse connue d’Animal Crossing. Audie se prononçant un peu comme Audrey en anglais.

À 88 ans, Audrey commence donc une nouvelle partie sur Switch, mais elle ne lâchera pas sa 3DS si facilement. Elle continuera de prendre soin des fleurs qu’elle a plantées dans tout le village, de flâner près de la rivière et sans doute, de discuter avec ses voisins, de tout et de rien. Quand Animal Crossing prend un goût de paradis perdu…

Source : https://kotaku.com/woman-who-played-4-000-hours-of-animal-crossing-new-le-1842660808

La visioconférence, c’est tellement (beaucoup trop) 2020… En 2030 on aura de la télépathie numérique !

J’exagère certainement beaucoup, mais des chercheurs de l’université de Californie ont utilisé une technologie de machine learning proche de ce qu’on utilise pour la traduction pour convertir des signaux corticaux en texte. C’est très préliminaire : chaque participant a lu seulement 50 phrases, soit dans les 250 mots uniques.

Et ce n’est pas vraiment monsieur tout le monde :  ils ont des implants, environs 250 électrodes implantées pour calmer les crises d’épilepsie. La nouveauté, c’est qu’au lieu de traduire directement les signaux en texte, on passe par une phase intermédiaire. Comme quand on fait une traduction entre deux langues et qu’on passe par un vecteur « d’enchâssement » de la phrase.

Un premier réseau va apprendre à représenter les mots comme des vecteurs de nombres qui devront être « proches » si le sens est proche. On enregistre donc l’activité du cerveau ainsi que l’audio des gens qui répètent les phrases. Au fur et à mesure, le réseau va se faire une idée du signal qui correspond. Ensuite un autre réseau doit construire les phrases à partir de la représentation abstraite (et simplifiée) plutôt que du signal d’origine.

Le système marche étonnamment bien compte tenu du faible nombre d’exemples. Évidemment, on est loin de la télépathie. Mais on se souvient tous de S. Hawking et de la manière robotique et laborieuse dont il parlait avec sa machine… faute de mieux. Dans  les années qui viennent, les personnes handicapées pourrait bénéficier d’un système de synthèse vocale neural qui leur permettrait de s’exprimer plus naturellement, et surtout, plus vite.

Source : https://arstechnica.com/science/2020/03/brain-activity-recognition-gets-competitive-with-speech-recognition/

Si vous avez déjà fait un appel en « voix sur IP » avec Skype, Hangout ou autre, vous avez certainement eu affaire à des distorsions plus ou moins sévères de l’audio. C’est que les applications de vidéo conférences utilisent souvent UDP (pour User Datagram Protocol) au lieu de TCP car il permet d’aller beaucoup plus vite.

UDP, à la différence de TCP ne teste pas si un paquet est bien arrivé, il envoie tout le plus vite possible. Pour du streaming vidéo, c’est acceptable. Même si des paquets se perdent, le pire qu’il puisse arriver sont quelques menus artefacts sur l’image si les manques sont trop nombreux.

En voix sur IP, NetEQ est un algorithme rapide capable de compléter une onde sonore un peu « mitée » par des paquets qui se seraient fait la malle. NetEQ fonctionne bien mais son travail s’entend dès lors que plus de 60ms d’audio sont perdues. Pour aller plus loin, il faudrait un algorithme capable de reconstruire des morceaux d’ondes plus longs à partir de ce qu’on connaît de sa forme passée. Voilà qui ressemble beaucoup à la complétion de texte automatique pour laquelle les réseaux de neurones sont plutôt doués !

Les chercheurs de Google AI ont donc naturellement utilisé un réseau génératif, proche de WaveRNN de Deepmind, conçu pour générer de la voix de manière crédible. WaveNetEQ va ainsi compléter vos phrases si trop de paquets se perdent.

De courts exemples permettent de se rendre compte de l’efficacité supérieure de la nouvelle méthode, laquelle est optimisée pour fonctionner sur le téléphone et pas dans le Cloud.

C’est une condition sine qua non car le système est déployé sur Google Duo pour les Pixel 4 et les discussions y sont chiffrées de bout en bout. L’IA va donc permettre d’avoir des appels Duo de meilleure qualité. Malheureusement, au-delà de 120ms de blanc, elle aussi jette l’éponge. Donc n’espérez pas qu’elle prenne le relais en meublant vos absences lors des appels dominicaux à belle maman… 

Source : https://ai.googleblog.com/2020/04/improving-audio-quality-in-duo-with.html

Les musés sont fermés, mais vous pouvez quand même les visiter ! C’est une recommandation toute bête, et nombreux sans doute sont ceux qui connaissent déjà cette application : Google Arts et Culture.

Non seulement elle donne accès à une foule d’œuvres issues d’un nombre impressionnant de musées, mais en plus, elle se renouvelle constamment en proposant de nouvelles expériences. Par exemple, en ce moment, on peut se trouver virtuellement dans 17 lieux de tournage célèbres : le quartier général de Robocop, l’école des X-Men ou le café d’Amélie Poulain.

On peut aussi visiter le CERN, découvrir des coiffures africaines ou plonger dans le baiser de Gustav Klimt. L’application vous propose aussi de sélections et thématiques hebdomadaires, ainsi que des sélections par artistes, supports, lieux, etc.

Google Art et Culture est dans l’actualité car elle propose depuis peu une fonction amusante qui permet d’appliquer le style d’un peintre à une photo quelconque. L’application avait déjà fait parler d’elle grâce à « l’art selfie » qui identifiait des œuvres qui ressemblait à votre tête. C’est là que j’ai découvert que je ressemblais à St Dominique. De loin. Et de nuit.

Ces fonctions photo sont très rigolotes mais elles ne doivent pas éclipser la qualité de l’application elle-même qui se déguste le mieux, si vous pouvez, sur une belle tablette. Ci-dessous, c’est le lien pour le site web, l’application Android étant disponible ici et sur iOS là

Source : https://artsandculture.google.com

Le cancer du sein reste le cancer le plus fréquent chez les femmes. Même si dépisté précocement, il se guérit à 99%, cela reste un traumatisme énorme.

Aussi, des étudiants de l’école polytechnique fédérale de Lausanne ont mis au point un soutien-gorge intelligent, bardé de capteurs ultrason pour la détection précoce des tumeurs. En général, le dépistage se fait par radiographie avec une bonne dose de radiation à la clef.

Les étudiants de l’EPFL ont utilisé la technologie ultrasonore d’IcosaMed basée sur des oscillateurs piézoélectriques très compacts et légers qui peuvent s’intégrer sur un soutien-gorge et qui ouvre la possibilité d’examens non invasifs aussi fréquents que souhaités, par exemple quotidien.

Le groupe a obtenu le prix du jury (et la meilleure note) et va poursuivre son travail avec IcosaMed pour déboucher sur un produit disponible, si tout va bien (s’ils trouvent le financement donc) en 2021. Le « SmartBra » s’adressera dans un premier temps aux femmes qui ont déjà eu un diagnostic de cancer afin de suivre plus finement l’évolution de la maladie.

Mieux, il serait même possible d’utiliser le système d’une manière thérapeutique. En administrant de toutes petites doses d’ultrasons en continu, les cellules (sans doute rendues folles par le bruit) s’autodétruiraient : « l’apoptose » serait restaurée.

Il reste sans doute un long chemin à faire aux élèves de l’EPFL pour commercialiser leur produit, mais s’il peut aider les millions de femmes qui, chaque année, doivent se battre contre le cancer, on leur souhaite tout le succès du monde.

Source : https://actu.epfl.ch/news/un-soutien-gorge-intelligent-pour-detecter-le-canc/

Devenez un auditeur VIP

Garantissez une diffusion sur le long terme et un contenu indépendant grâce au modèle vertueux du financement participatif avec Patreon et profitez d’un flux privé sans publicité.

Je débloque les avantages
Partager cet épisode

Chroniqueur référence de Tech Café, auteur de "Machines de jeux", papa de la Chronique des composants.

Vos commentaires

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

En lire plus...

Licence Creative Commons
Le Podcast Tech Café de Guillaume Vendé est mis à disposition selon les termes de la licence Creative Commons Attribution - Pas d’Utilisation Commerciale 4.0 International.

Les livres de Guillaume Poggiaspalla

Mon offre

Machines de jeux