Cuando presentó la función 'Live Text' junto a iOS 15 y macOS 12 Monterey, Apple asombró por la velocidad con la que los nuevos sistemas eran capaces de reconocer texto en tiempo real y en imágenes ya tomadas. En el mundo Android había existido algo así con Google Lens desde hace tiempo, y los resultados son también espectaculares, pero la accesible integración de la función de Apple está haciendo que se pruebe y comente mucho más.
Como siempre ocurre con cualquier avance tecnológico, los usos van desde lo útil hasta lo que puede ser ilícito. Y un estudiante francés ha mostrado en Tiktok cómo, incluso estando relativamente lejos de un compañero de clase, Live Text le ha ayudado a copiar sus apuntes sin que se inmutara.
students are starting to steal each other's notes with iOS 15 and it's... kind of genius pic.twitter.com/klE992DuBn
— juan (@juanbuis) October 14, 2021
No hace falta tener un iPhone para hacer algo así
Realmente, lo que vemos en el vídeo no es nada que no se pudiera hacer hasta ahora. Simplemente, se muestra la forma de hacerlo muy cómodo. Lo que ha cambiado en los últimos años es que los terminales de gama alta ahora tienen teleobjetivo (de 2,5 aumentos en el caso de ese iPhone), lo que hace que la privacidad se reduzca incluso cuando estamos lejos de alguien. Existen terminales con teleobjetivos que nos acercan mucho más a lo que queramos fotografiar, así que hay que tenerlo en cuanta.
Aunque no tengamos iPhone, hacer algo así va a ser posible en macOS 12 Monterey. Podremos hacer la foto con cualquier smartphone Android que nos permita un aumento de la calidad mostrada en el vídeo, para más tarde hacer click sobre la foto en Vista Previa y seleccionar el texto reconocido. De momento, eso sí, esta función solo estará disponibles para Macs con procesadores M1, pues por temas de energía y computacionales se utiliza en Neural Engine que los equipos con Intel aún no tienen.
Si lo quieres hacer directamente en smartphones Android, lo más cómodo es abrir Google Lens para ejecutar el reconocimiento de texto. Pero la calidad va a ser peor. Lo más cómodo es utilizar Google Lens dentro de la aplicación de cámara que muchas marcas tienen, o hacer la foto y luego reconocer el texto desde la web de Google Fotos tal y como te mostramos a continuación.
De hecho, para demostrar que funciona incluso con fotos ya hechas por otros smartphones, hemos hecho una captura al vídeo del estudiante, la hemos subido a Google Fotos, y esto es lo que ha pasado:
Incluso en esa captura de tan poca calidad, Google Fotos ha sido capaz de reconocer todo esto:
- Furbanisme moderne dont le zonage (principe très important).
- Revendique de changer la ville, mymt très important a s'appuyant sur des outils très efficace.
- Les CIAM: Congrés International d'Architecture Moderne. Premier en Suisse.
- Former le problème architectural contemporain
- Présenter l'idée architectural moderne
- Faire pénétrer cette idée dans les cercles techniques, économiques et sociaux
- Veiller à la nalisation du problème de l'architecture.
- Mettre en place les grds principe de cette urbanisme moderne. les différents CAM de 1928 à 1956. (tableau) Texte présentant les principes de l'urbe moderne.
- Déclaration de Sarra affirmation des o
- vision et leur affirmation, partage idée qu
- groupe de architecture moderne, avec leur porpre struire est une activité humain
Impresionate capacidad de Apple. Impresionante capacidad de Google. Los reyes, de momento, de la inteligencia artificial aplicada al usuario. El gran problema de todo esto es la privacidad. Los teleobjetivos ya han propiciado eso, y estas funciones hacen más fácil reconocer el texto y poder trabajar con él.
La recomendación es no abrir conversaciones o documentos sensibles cuando pueda haber alguien detrás que quiera espiarte con algo así. En Japón, por ejemplo, no sería posible algo así, pues allí los smartphones tienen que hacer sí o sí ruido de obturador al disparar una foto. Es decir, podrías hacerla, pero todo el mundo (compañeros y profesor) escucharían que acabas de hacer una foto.
Ver 3 comentarios