Apple logra que los iPhone y iPad puedan controlarse con los ojos y la voz gracias a su IA

Cuando se trata de inteligencia artificial, tenemos a OpenAI como la empresa en la cumbre tras el desarrollo de su chatbot ChatGPT y su reciente Sora. Con esto tenemos IA generativa de textos, imágenes y vídeos, siendo esto último un gran avance frente al resto de competidores, aunque Google anunció Veo para competir contra Sora. Mientras tanto, tenemos a Microsoft como aliado de OpenAI y no como contrincante, Meta con sus modelos de IA y un gran número de empresas que están desarrollando a su ritmo. Apple no decidió involucrarse en la inteligencia artificial al principio, pero ahora se ha metido de lleno y ha anunciado que con ayuda de la IA podremos controlar los iPhone con los ojos y la voz.

Cuando Google lanzó sus Pixel 8 y Pixel 8 Pro, vimos que uno de los cambios que aportaban era que tenían una serie de funciones avanzadas que utilizaban inteligencia artificial. Estamos haciendo referencia a la IA aplicada al ámbito fotográfico, donde estos móviles destacan por encima de los demás. Con los cambios añadidos, era posible utilizar inteligencia artificial para hacer ediciones y retoques de fotos como si fuésemos un experto en Photoshop sin necesidad de aprender este programa. Podíamos así eliminar personas, objetos o rellenar el fondo de las fotos, además de conseguir modificar las caras y expresiones, pudiendo sustituirlas por la mejor versión de las distintas fotos.

Apple menciona las nuevas funciones por IA que llegarán a iPhone y iPad: control usando los ojos y por voz

iPad Pro OLED 2024 M3

Tras ver la implementación de la IA por parte de Google, Samsung no quería quedarse atrás y añadió varias funciones que hacían uso de la inteligencia artificial en sus Galaxy S24. Ahora que han pasado unos meses después de eso, tenemos a Apple que no quiere perderse la oportunidad de ser el protagonista en los móviles con IA. Los próximos iPhone 16 harán uso de una NPU de 32 núcleos para poder conseguir un gran rendimiento y Apple ahora anuncia algunas de las funciones que tendrán, esta vez centrándose en la accesibilidad.

Tanto los iPhone con iOS como los iPad con iPadOS van a permitir poder controlarlos con los ojos y la voz, algo que será especialmente útil para personas con discapacidad, aunque es apto para todos. Apple lleva ya un tiempo desarrollando su tecnología de seguimiento ocular en dispositivos como sus MacBook, pero requería hardware externo.

El reconocimiento de voz con IA será útil para personas con habla atípica

Apple-A18-Pro-iPhone-16-Pro-Max

Con el uso de la IA será posible tener seguimiento ocular y reconocimiento de voz tanto en iPhone como en iPad. Aquí es donde entra Apple Eye Tracking, el cual utiliza la cámara frontal de estos dispositivos para seguir el movimiento de los ojos. En lugar de hacer que el pestañeo sea el método para poder entrar en aplicaciones o hacer "clic", esto se ha sustituido por simplemente quedarnos mirando fijamente el elemento que queremos. Esta función ha sido denominada Dwell Control y junto a Eye Tracking funcionará con cualquier aplicación de iPhone e iPad.

Otra de las funciones que tendremos es la de poder controlar con voz los iPhone y esto será gracias a un conjunto de tecnologías de asistencia con voz usando IA. Esta se encargará usar el reconocimiento de voz para aprender los patrones de habla de los usuarios, pudiendo ayudar a aquellos con habla atípica. También ayudará a personas que tengan esclerosis lateral amiotrófica o que haya sufrido accidentes cerebrovasculares. Estas funciones por IA se basarán en aprendizaje automático y emplearán los datos biométricos. Por último, Apple menciona que está trabajando en formas de reducir el mareo al usar el móvil en el coche.