Demo

Je quitte ChatGPT J'ai activé le mode vocal avancé pendant que j'écris cet article, en tant que compagnon ambiant de l'IA. De temps en temps, je lui demande de me fournir un synonyme pour un mot trop utilisé, ou un encouragement. Environ une demi-heure plus tard, le chatbot interrompt notre silence et commence à me parler en espagnol, sans que je lui demande quoi que ce soit. Je rigole un peu et demande ce qui se passe. « Juste un petit changement ? Il faut que les choses restent intéressantes », dit ChatGPT, maintenant de retour en anglais.

Lors du test du mode vocal avancé dans le cadre de la première version alpha, mes interactions avec la nouvelle fonctionnalité audio de ChatGPT étaient divertissantes, désordonnées et étonnamment variées. Cependant, il convient de noter que les fonctionnalités auxquelles j'ai eu accès ne représentaient que la moitié de ce qu'OpenAI a démontré lors du lancement du modèle GPT-4o en mai. L'aspect visuel que nous avons vu dans la démo en direct est désormais prévu pour une version ultérieure, ainsi que la voix Sky améliorée, qui Son L'actrice Scarlett Johanssen a été repoussée, a été supprimée du mode vocal avancé et n'est toujours plus une option pour les utilisateurs.

Alors, quelle est l'ambiance actuelle ? En ce moment, le mode vocal avancé rappelle l'époque où le ChatGPT original basé sur le texte est sorti, fin 2022. Parfois, il mène à des impasses peu impressionnantes ou se transforme en platitudes d'IA vides de sens. Mais d'autres fois, les conversations à faible latence fonctionnent d'une manière que Siri d'Apple ou Alexa d'Amazon n'ont jamais réussi à faire pour moi, et je me sens obligé de continuer à discuter par plaisir. C'est le genre d'outil d'IA que vous montrerez à vos proches pendant les vacances pour rire.

OpenAI a donné accès à cette fonctionnalité à quelques journalistes de WIRED une semaine après l'annonce initiale, mais l'a retirée le lendemain matin, invoquant des problèmes de sécurité. Deux mois plus tard, OpenAI a lancé en douceur le mode vocal avancé à un petit groupe d'utilisateurs et a publié la fiche système de GPT-4o, un document technique qui décrit les efforts de red teaming, ce que l'entreprise considère comme des risques de sécurité et les mesures d'atténuation que l'entreprise a prises pour réduire les dommages.

Vous souhaitez l'essayer vous-même ? Voici ce que vous devez savoir sur le déploiement à grande échelle du mode vocal avancé et mes premières impressions sur la nouvelle fonctionnalité vocale de ChatGPT pour vous aider à démarrer.

Alors, quand est le déploiement complet ?

OpenAI a lancé un mode vocal avancé uniquement audio pour certains utilisateurs de ChatGPT Plus à la fin du mois de juillet, et le groupe alpha semble encore relativement petit. La société prévoit actuellement de l'activer pour tous les abonnés cet automne. Niko Felix, porte-parole d'OpenAI, n'a partagé aucun détail supplémentaire lorsqu'on lui a demandé le calendrier de sortie.

Le partage d'écran et de vidéo était un élément essentiel de la démo originale, mais ils ne sont pas disponibles dans ce test alpha. OpenAI prévoit toujours d'ajouter ces aspects à terme, mais on ne sait pas non plus quand cela se produira réellement.

Si vous êtes abonné à ChatGPT Plus, vous recevrez un e-mail d'OpenAI lorsque le mode vocal avancé sera disponible pour vous. Une fois qu'il est sur votre compte, vous pouvez basculer entre Standard et Avancé en haut de l'écran de l'application lorsque le mode vocal de ChatGPT est ouvert. J'ai pu tester la version alpha sur un iPhone ainsi que sur un Galaxy Fold.

Mes premières impressions sur le mode vocal avancé de ChatGPT

Dès la première heure de conversation, j'ai appris que j'adorais interrompre ChatGPT. Ce n'est pas comme ça que vous parleriez à un humain, mais avoir la nouvelle possibilité d'interrompre ChatGPT au milieu d'une phrase et de demander une version différente du résultat semble être une amélioration dynamique et une fonctionnalité remarquable.

Les premiers utilisateurs qui ont été enthousiasmés par les démos originales pourraient être frustrés de ne pouvoir accéder à une version du mode vocal avancé restreinte par plus de garde-fous que prévu. Par exemple, bien que le chant génératif par l'IA ait été un élément clé des démos de lancement, avec des berceuses chuchotées et plusieurs voix essayant de s'harmoniser, les sérénades par l'IA sont actuellement absentes de la version alpha.

Source link

Share.

Comments are closed.