Serveur minecraft

Amazon dévoile DeepComposer, un clavier de piano compatible avec l'IA – Resoudre les problemes d’un serveur MineCraft

Par Titanfall , le 17 février 2020 - 7 minutes de lecture

La conférence re: Invent 2019 d'Amazon à Las Vegas a débuté en fanfare – ou plutôt, avec des annonces de produits faites lors d'un discours de minuit au Venetian. La division Amazon Web Services (AWS) de la société de Seattle a dévoilé Amazon Transcribe Medical, une nouvelle édition de son service de reconnaissance vocale Transcribe qui permet aux développeurs d'ajouter des capacités de synthèse vocale médicale à leurs applications, et a lancé DeepComposer, qui permet aux clients AWS de composer la musique à l'aide de l'IA et d'un contrôleur MIDI physique (ou virtuel).

Transcrire médical

Du côté de la transcription de l'équation, Amazon Transcribe Medical propose une API qui s'intègre aux applications vocales et fonctionne avec la plupart des appareils équipés d'un microphone. Il est conçu pour transcrire le discours médical pour les soins primaires, dit Amazon, et pour être déployé «à grande échelle» dans des «milliers» d'établissements de soins de santé afin de prendre des notes en toute sécurité pour le personnel clinique. Il prend en charge à la fois la dictée médicale et la transcription conversationnelle et, comme Amazon Transcribe standard, Transcribe Medical propose des fonctionnalités telles que la ponctuation automatique et «intelligente».

Transcribe Medical est entièrement géré en ce qu'il ne nécessite aucun approvisionnement ou gestion de services – il renvoie un flux de texte en temps réel. De plus, cela est couvert par l'admissibilité HIPAA d'AWS et l'addendum aux associés commerciaux (BAA), ce qui signifie que tout client qui conclut un BAA avec AWS peut utiliser Transcribe Medical pour traiter et stocker des informations personnelles de santé (PHI).

Amazon dit que déjà, Amgen et SoundLines utilisent Transcribe Medical pour produire des transcriptions de texte à partir de notes enregistrées et alimenter les transcriptions en analyses en aval. «Pour les 3 500 partenaires de soins de santé qui s'appuient sur nos stratégies d'optimisation de l'équipe de soins au cours des 15 dernières années, nous avons considérablement réduit le temps et les efforts nécessaires pour obtenir des données pertinentes», a déclaré le président de la technologie de SoundLines, Vadim Khazan, dans un communiqué.

La disponibilité de Transcribe Medical dans les régions AWS USA Est (Virginie du Nord) et US Ouest (Oregon) intervient plusieurs mois après qu'Amazon a fabriqué trois de ses produits hébergés dans le cloud basés sur l'IA – Traduire, Comprendre et Transcrire – éligibles au titre de la portabilité de l'assurance maladie Loi sur la responsabilité de 1996, ou HIPAA. C'est la principale loi prévoyant des dispositions sur la confidentialité et la sécurité des données pour les informations médicales aux États-Unis.

Il convient de noter qu'Amazon n'est pas le seul géant de la technologie à proposer des produits de reconnaissance vocale ciblant le segment des soins de santé. Microsoft a annoncé cette année qu'elle s'associerait à Nuance pour héberger le logiciel d'IA de ce dernier qui comprend les conversations patient-clinicien, qu'il intègre aux dossiers médicaux. De son côté, son rival Philips propose depuis longtemps des solutions de transcription automatique sur mesure aux professionnels de santé des hôpitaux publics et des petits cabinets.

DeepComposer

AWS DeepComposer

Ci-dessus: le clavier DeepComposer, illustré ici avec le kit de développement AWS DeepLens et la voiture DeepRacer RC.

Crédit d'image: AWS

Dans une révélation quelque peu connexe de ce matin, AWS a détaillé DeepComposer, qu'il appelle le «premier clavier musical compatible avec l'apprentissage automatique». Il s'agit d'un clavier 32 touches à deux octaves conçu pour que les développeurs puissent essayer des modèles d'IA pré-formés ou personnalisés.

Les compositeurs en herbe enregistrent d'abord un court morceau musical (ou utilisent un morceau préenregistré) avant de sélectionner un modèle pour leur genre préféré, ainsi que les paramètres d'architecture du modèle et la fonction de perte (qui est utilisée pendant la formation pour mesurer la différence entre la sortie de l'algorithme et valeur attendue). Ensuite, ils choisissent des hyperparamètres (paramètres dont les valeurs sont définies avant le début du processus d'apprentissage) et un échantillon de validation, après quoi DeepComposer produit une composition qui peut être jouée dans la console AWS ou exportée ou partagée sur SoundCloud.

Comme l'explique Julien Simon, AWS AI et machine learning évangéliste dans un article de blog, DeepComposer exploite un réseau contradictoire génératif (GAN) pour combler les lacunes de composition dans les chansons. Un composant générateur utilise des données aléatoires pour créer des échantillons qu'il transmet à un bit discriminateur, qui apprend à distinguer les échantillons authentiques des faux échantillons. À mesure que le discriminateur s'améliore, le générateur fait de même, de sorte que le générateur apprend progressivement à créer des échantillons plus proches de ceux qui sont authentiques.

Cela s'apparente aux efforts déployés par Google, OpenAI et d'autres pour générer de la musique avec une cohérence tonale et mélodique. À la fin de l'année dernière, Project Magenta, un effort de Google Brain «explorant le rôle de l'apprentissage automatique en tant qu'outil dans le processus créatif», a présenté Musical Transformer, un modèle capable de générer des chansons avec une répétition reconnaissable. Et en avril, OpenAI a lancé MuseNet, un système d'IA capable de créer de nouvelles chansons de 4 minutes avec 10 instruments différents dans tous les styles, du pays à Mozart en passant par les Beatles.

Les développeurs peuvent demander à recevoir un clavier DeepComposer une fois qu'il est disponible, ou utiliser le nouveau clavier virtuel dans la console AWS.

Opérateurs SageMaker pour Kubernetes

Enfin, AWS a lancé Amazon SageMaker Operators for Kubernetes, qui permet aux scientifiques des données utilisant Kubernetes de former, d'ajuster et de déployer des modèles d'IA dans la plate-forme de développement d'apprentissage automatique SageMaker d'Amazon. Les clients AWS peuvent installer des opérateurs SageMaker sur des clusters Kubernetes pour créer des tâches Amazon SageMaker en mode natif à l'aide de l'API Kubernetes et des outils Kubernetes en ligne de commande.

Plus précisément, les utilisateurs peuvent appeler SageMaker pour lancer des services tels que Managed Spot Training, qui distribue la formation sur modèle pour réduire le temps de formation en évoluant sur plusieurs nœuds avec des puces graphiques. Les ressources de calcul sont préconfigurées et optimisées, provisionnées uniquement sur demande, mises à l'échelle selon les besoins et arrêtées automatiquement lorsque les travaux sont terminés. De plus, les hyperparamètres sont optimisés automatiquement et des modèles parfaitement formés sont déployés sur des clusters de mise à l'échelle automatique entièrement gérés répartis sur plusieurs centres de données.

«Désormais, avec Amazon SageMaker Operators pour Kubernetes, les clients peuvent continuer à profiter des avantages de portabilité et de normalisation de Kubernetes… tout en intégrant les nombreux avantages supplémentaires fournis avec Amazon SageMaker, aucun code personnalisé requis», a écrit AWS Aditya Bindal, chef de produit senior Deep Learning dans un communiqué de presse.

Les opérateurs Amazon SageMaker pour Kubernetes sont généralement disponibles dans les régions de serveur AWS, notamment aux États-Unis Est (Ohio), États-Unis Est (Virginie du Nord), États-Unis Ouest (Oregon) et UE (Irlande).

Click to rate this post!
[Total: 0 Average: 0]

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.