El nuevo modelo multimodal de OpenAI con voz, texto e imágenes en tiempo real
Manage episode 418201832 series 3132739
OpenAI ha lanzado GPT-4o, un nuevo modelo de inteligencia artificial multimodal que puede trabajar con voz, texto e imágenes simultáneamente. Este modelo, presentado como más "inteligente y rápido" que sus predecesores, ofrece una experiencia de conversación más natural con ChatGPT, permitiendo interactuar por voz, interrumpir al asistente y escuchar respuestas en diferentes tonos según el estado de ánimo detectado. Además, GPT-4o reduce significativamente la latencia de respuesta, brinda traducciones instantáneas en tiempo real y mejora las capacidades de análisis de imágenes. OpenAI ha comenzado a implementar gradualmente estas novedades para usuarios de ChatGPT y ChatGPT Plus.
Fuente de la noticia:
➡️ Xataka - OpenAI lanza GPT-4o: un nuevo modelo multimodal que trabaja con voz, texto e imagen al mismo tiempo (xataka.com)
Me pueden seguir en todas las redes cono @fran_villafanez o escribirme al correo fran@villafanez.com
📱 Telegram: https://t.me/notadevozpodcast
📱 Canal en WhatsApp: https://whatsapp.com/channel/0029VaAq3pt8fewmSh8h2r2a
Música: Happy Upbeat Rock de ihsandincer
Licencia adquirida en Envato Market Item
🎶ALL MUSIC FROM: ENVATO MARKETALL MUSIC FROM: ENVATO MARKET
https://elements.envato.com/es/audio/royalty-free-music
#Tecnología #Podcast #Actualidad #OpenAI #GPT4o
--- Send in a voice message: https://podcasters.spotify.com/pod/show/notadevoz/message69 つのエピソード