No menu items!
viernes, mayo 17, 2024
spot_imgspot_img

En el futuro la gente no se apenará por hablar en público con su computaora

Más Leídas

reflexiona sobre el hecho de que, hasta ahora, las personas se han mostrado muy renuentes a hablar n público con una computadora pro expetos consultados estiman que en el futuro eso podrá cambiar aunque ocurrirá muy lentamente.

Hoy en día hay gafas de Meta que toman una foto cuando les dices: “Oye, Meta, toma una foto”, también Ai Pin traduce idiomas extranjeros a tu lengua materna y una pantalla de inteligencia artificial cuenta con un asistente virtual al que hablas a través de un micrófono.

Incluso mes a mes hay avances en este campo de palabras habladas. Las empresas continúan avanzando con los asistentes de voz, aunque las personas aun se muestren muy tímidas a hablar con ellas mientras caminan por una calle o están en el supermercado.

Las empresas confían en que esto cambiará.

El periodista Chen escribe que un buen número de personas aún no han utilizado ni una sola vez asistentes de voz como Alexa de Amazon, Siri de Apple y Assistant de Google, y la inmensa mayoría de los que sí lo hacen dicen que nunca querrían ser vistos hablando con ellos en público, según estudios realizados en la última década.

No hace mucho, hablar por teléfono con audífonos Bluetooth hacía que la gente pareciera chiflada, pero ahora todo el mundo lo hace. ¿Veremos algún día a un montón de gente que camina y habla con sus computadoras como en las películas de ciencia ficción?

Se planteó esta pregunta a expertos en diseño e investigadores, y el consenso fue claro: dado que los nuevos sistemas de inteligencia artificial mejoran la capacidad de los asistentes de voz para entender lo que decimos y ayudarnos realmente, es probable que en un futuro próximo hablemos con más frecuencia a los dispositivos, pero aún faltan muchos años para que lo hagamos en público, die el Times.

Los avances en los asistentes de voz

Los nuevos asistentes de voz funcionan con inteligencia artificial generativa, que utiliza estadísticas y algoritmos complejos para adivinar qué palabras van juntas, de manera similar a la función de autocompletar del teléfono. Esto los hace más capaces de utilizar el contexto para entender las peticiones y las preguntas de seguimiento. A diferencia de los asistentes virtuales como Siri y Alexa, que solo podían responder a una lista finita de preguntas.

Por ejemplo, si le dices a ChatGPT: “¿Qué vuelos hay de San Francisco a Nueva York la semana que viene?” —y sigues con “¿Qué tiempo hace allí?” y “¿Qué debería meter en la maleta?”— el chatbot puede responder esas preguntas porque establece conexiones entre las palabras para entender el contexto de la conversación. (El año pasado, The New York Times demandó a OpenAI y a su socio, Microsoft, por utilizar sin permiso artículos de noticias protegidos por derechos de autor para entrenar a los chatbots).

Un asistente de voz más antiguo como Siri, que reacciona a una base de datos de órdenes y preguntas que fue programado para entender, fallaría a menos que uses palabras específicas, como “¿Qué tiempo hace en Nueva York?” y “¿Qué debería meter en la maleta para un viaje a Nueva York?”.

La primera conversación suena más fluida, como la manera en que la gente habla entre sí.

Una experte explicó que la inteligencia artificial generativa aborda muchos de los problemas con los que los investigadores habían luchado durante años. La tecnología hace que los asistentes de voz sean capaces de entender el habla espontánea y responder con respuestas útiles, aseguró.

Más información en The New York Times

- Advertisement -spot_img
- Advertisement -spot_img
Últimas publicaciones
- Advertisement -spot_img
Más Leídas
Últimas publicaciones

Noticias relacionadas

- Advertisement -spot_img
× ¡Whatsapp La Calle!