iOS también ha traído muchas innovaciones que se supone que facilitarán la vida de las personas con discapacidad.
Si bien ahora se han escrito guías de estantería digitales sobre iOS 14 y sus innovaciones, hemos seleccionado un aspecto que solo afecta a un cierto grupo de usuarios: este artículo trata específicamente de las nuevas funciones de accesibilidad para ciegos y sordo-ciegos. Tenga en cuenta que algunas funciones no están disponibles en todos los dispositivos. Si se sabe, se indicará en la sección correspondiente.
Si bien he trabajado con un equipo de personas que han probado iOS 14 y iPadOS 14 desde que se lanzó la primera versión beta, es probable que hayamos pasado por alto algunas funciones. Como el año pasado, siento que no tengo suficiente información para comentar sobre las funciones de baja visión, así que espero que un usuario de baja visión se haya tomado el tiempo para comprender estos cambios, como la nueva aplicación Lupa y Verificar el estado general de iOS 14. y iPadOS 14.
Cambios generales
El camino de vuelta
Cuando estás en menús como Configuración> Accesibilidad> VoiceOver> Braille, puede ser complicado presionar el botón Atrás para volver al menú principal de Configuración. En iOS, al tocar dos veces y mantener presionado el botón Atrás en la pantalla táctil con VoiceOver, ahora aparece un menú contextual con opciones para volver a cualquier punto de la configuración desde la que se encuentra actualmente. En mi ejemplo, puedo volver a cualquiera de los submenús antes de este punto, incluido volver directamente a la pantalla principal de Configuración.
Amigo, ¿dónde está mi emoji?
Ahora es posible buscar un emoji y pegarlo donde sea que esté escribiendo.
Para hacer esto, primero debes cambiar al teclado emoji. Luego busque el área de búsqueda, que generalmente se encuentra en el centro de la pantalla táctil, y tóquela dos veces. Ingrese su término de búsqueda, por ejemplo, «sonriendo», luego haga clic derecho y toque dos veces el emoji que desea agregar de la lista de resultados. Después de tocar dos veces el emoji deseado, regrese a su teclado original y continúe normalmente para continuar escribiendo. Asegúrese de que está editando en el cuadro de texto correcto, ya que a veces el cuadro de búsqueda no desaparece y el cursor de VoiceOver puede quedarse atascado allí.
Si activa el teclado de emojis y luego desliza hacia la izquierda y hacia la derecha nuevamente, VoiceOver ocasionalmente le notificará que hay posibles emojis disponibles, estos ahora están disponibles a través de la opción de rotor. Si enciende el rotor en emojis y luego se desplaza hacia arriba y hacia abajo, obtendrá una lista de posibles emojis basada en el texto que ha escrito. Después de haber insertado el emoji que desea, vuelva a su teclado normal. A veces, verá que VoiceOver mueve el cursor a otra parte. Si el proceso te parece complicado, tienes razón. Después de probar esta función, volveré a usar atajos de texto para emojis, ya que termina siendo más rápido. Intentando usar la función de búsqueda de emoji solo con braille,
traducción
Una de las nuevas aplicaciones incluidas con iOS 14 y iPadOS 14 es la aplicación Translate. La capacidad de traducir de voz a texto es específica de la accesibilidad. Si establece el mismo idioma de origen y de destino y luego activa el botón «Escuchar», es posible que alguien hable en su dispositivo y el texto aparecerá en su pantalla Braille. Sin embargo, existen algunas limitaciones importantes para esta función. Primero, tan pronto como la persona deje de hablar, su dispositivo dejará de escuchar. Esto sucede incluso si hay una breve pausa entre series. En segundo lugar, al igual que con cualquier reconocimiento automático de voz, su precisión depende en gran medida de su entorno. Si se encuentra en una situación en la que habla más de una persona, si el hablante tiene un acento fuerte, la traducción será menos precisa debido a estos factores. Después de descargar el paquete de traducción al inglés para la traducción local en el dispositivo, encontré que era menos preciso que usar la aplicación con los servidores de Apple. Esto también se indica en «Configuración> Compilar».
Tenga en cuenta que en el momento de escribir este artículo, «De» es lo que dice VoiceOver para ambos campos, incluso si el segundo es el idioma de destino. Después de presionar el botón «Escuchar», la persona que desee hablar puede hacerlo, pero debe hacerlo dentro de aproximadamente dos segundos después de activar el botón. Tan pronto como la aplicación de traducción cree que la persona ha terminado de hablar, cambia una de las dos opciones. Cuando el texto traducido se dice en voz alta, el usuario regresa a la esquina superior izquierda de la pantalla y tiene que desplazarse hacia la derecha hasta lo primero que se tradujo. Siga desplazándose para ingresar un mensaje o desplácese hacia abajo una opción para volver a habilitar el botón Escuchar.
Si el texto no se pronuncia en voz alta, parpadeará en la pantalla después de la traducción. Si es así, muévase a la opción derecha para encontrar el botón Cerrar y habilite el botón Escuchar nuevamente. Si el usuario sordociego no puede decir su respuesta, también es posible ingresar texto a cambio. Hay una opción para ingresar texto a la izquierda del botón «Escuchar». Cuando esté seguro de que la persona que lee la pantalla ha leído su respuesta, puede seleccionar «Cerrar» y luego volver a habilitar el botón «Escuchar». Este podría ser un truco que alguien podría querer usar en la comunicación cara a cara con una persona oyente con la que interactúa mucho. Sin embargo, este desvío parece demasiado complejo para una interacción entre un extraño en público y un usuario sordociego. Por mi parte, me quedaré con un teclado Bluetooth y una pantalla Braille, incluso con sus desafíos.
Fotos de subtítulos
Desde hace algún tiempo, ha sido posible enviar su colección de fotos a un servicio como Seeing AI o TapTapSee para tratar de determinar qué hay en una foto en particular. Si desea dar a las fotos su propia descripción, puede hacerlo agregando títulos, por ejemplo. En la aplicación Fotos, para una foto seleccionada, use el rotor VoiceOver para acceder a «Ver detalles» y selecciónela. Luego, desplácese hacia la derecha hasta «Agregar título». Esto lo llevará a un campo de texto donde puede ingresar los detalles que desee sobre la foto. Finalmente, seleccione el botón «Listo» y se guardará el título de su imagen.
Narración
En iOS 13, el texto reconocido se amplió para que los usuarios de Braille no solo tuvieran la oportunidad de leer las descripciones, sino que también se mostraran más descripciones, p. Ej. Por ejemplo, si un botón tuviera una imagen en la que se podría haber incrustado texto. Con iOS 14 y iPadOS 14, esta opción se ha ampliado aún más para mejorar la accesibilidad de las aplicaciones. Puede encontrar estas opciones en Configuración> Accesibilidad> VoiceOver> VoiceOver Discovery. Tenga en cuenta que esta función solo es compatible con los modelos de iPhone XS / XR y posteriores. iOS 13 amplió el texto reconocido para que los usuarios de Braille no solo tuvieran la oportunidad de leer las descripciones, sino que también se mostraran más descripciones, p. ej. Por ejemplo, si un botón tuviera una imagen en la que se podría haber incrustado texto. Con iOS 14 y iPadOS 14, esta opción se ha ampliado para mejorar la accesibilidad de las aplicaciones. Puede encontrar estas opciones en Configuración> Accesibilidad> VoiceOver> VoiceOver Discovery. Tenga en cuenta que esta función solo está disponible en
La primera opción es la descripción de la imagen. Por lo que puedo decir, esta función no ha cambiado desde iOS 13 y iPadOS 13, excepto que se movió del menú Verbosidad en VoiceOver al menú Detección. Su iPhone intentará proporcionar una descripción de las imágenes que encuentre en las aplicaciones y cuando utilice sitios web. iOS 13 y iPadOS 13 sin cambios, excepto que se movió del menú Verbosidad en VoiceOver al menú Detección. tu
La segunda opción se llama «Detección de pantalla». Esta nueva función puede hacer que algunas aplicaciones sean más accesibles. También le proporciona información potencialmente útil sobre las capturas de pantalla que encuentra en aplicaciones como App Store o Facebook. Un amigo mío publicó algo sobre su perro en Facebook, pero Facebook solo me dijo que no había una descripción disponible. Luego activé el reconocimiento de pantalla y supe que tiene un perro blanco y negro con ojos rojos. Si dejas el Reconocimiento de pantalla activado, tu dispositivo se ralentizará y cambiará la forma en que se hablan / muestran las cosas con VoiceOver. En el momento de escribir este artículo, esta característica parece funcionar bien en algunos casos, como en la descripción de la imagen, pero no en otras. Todavía parece ser un trabajo en progreso y me alienta el progreso realizado hasta ahora.
Aunque la configuración permite habilitar el reconocimiento de pantalla para aplicaciones específicas, también puede alternarlas simplemente agregándolas al rotor. También existe la opción de asignar un comando de pantalla braille para alternar esta función automáticamente, pero si asigna un comando de pantalla braille, no funcionará actualmente.
La tercera opción es el reconocimiento de texto. Esto parece ser un poco más receptivo que en iOS 13 y iPadOS 13, a menos que sea un usuario de Braille. El reconocimiento de texto con Braille tampoco es accesible aquí. iOS 13 y iPadOS 13, a menos que sea un usuario de Braille. El reconocimiento de texto con Braille tampoco es accesible aquí.
Ajustar la verbosidad
Se han agregado algunas opciones nuevas en el submenú Verbosidad en el menú VoiceOver. «Más contenido» es una opción que puede aparecer en imágenes reconocidas. Desplazarse hacia arriba y hacia abajo, cuando esta opción está disponible, debería brindarle más información sobre la imagen seleccionada. Esto podría incluir el texto de descripción de la imagen, el nombre de archivo de la imagen o quizás otros metadatos.
Las descripciones de contenedores es otra opción agregada. Puede elegir reproducir un tono cuando haya una descripción disponible, pronunciar el texto normalmente, bajar el tono de la descripción o desactivarlo por completo.
¿Donde estaba?
Mantenerse al día con los mensajes de texto puede ser bastante complicado, especialmente si la interacción de texto es su forma principal de comunicarse con el mundo. Ahora en iOS 14 y iPadOS 14, deje que los usuarios mencionen, y hay una acción de rotor para eso. «Fijar conversación» es también una nueva opción que «fijará» las conversaciones seleccionadas en la parte superior de la lista de conversaciones. iOS 14 y iPadOS 14 ahora permiten que los usuarios mencionen, y hay una acción de rotor para eso. «Fijar conversación» es también una nueva opción que «fijará» las conversaciones seleccionadas en la parte superior de la lista de conversaciones.
En un hilo de mensajes, el último mensaje que envió en un hilo ahora estará en el nivel 3, por lo que puede saltar rápidamente a donde probablemente lo dejó.
Escritura braille
Esta función ya estaba disponible en algunos de los teclados braille, por ejemplo en HelpTech, pero Apple ahora la ha implementado en todos los teclados braille. Para configurarlo, primero debe asignar un método abreviado de teclado Braille para iniciar y detener Auto Proceder. Puede encontrar la opción de asignar un nuevo comando de teclado Braille en la categoría «Escritura Braille». También hay opciones para asignar atajos de teclado para controlar la velocidad del proceso automático. Si no está familiarizado con la asignación de comandos del teclado Braille a acciones específicas, esta guía a través del proceso.
Si no desea asignar atajos de teclado braille para controlar la velocidad del progreso automático, también puede agregar esto a su VoiceOver Rotor para controlar la velocidad. Encontré que esta opción funcionaba de manera confiable y estaba feliz de usarla. El tiempo más largo que he leído continuamente fue de casi una hora y no tuve ningún problema.
Etiquetas más pequeñas
En iOS 14 y iPadOS 14, ciertos elementos se han abreviado para ahorrar espacio. Por ejemplo, TB es ahora lo que verá en lugar de «pestaña». iOS 14 y iPadOS 14 han acortado ciertos elementos para ahorrar espacio. Por ejemplo, TB es ahora lo que verá en lugar de «pestaña».
Escuchar
Detección de sonido
manzanaha hablado mucho sobre el aprendizaje automático en conferencias de desarrolladores globales anteriores, y muchos se preguntaron qué podría hacer por las personas con discapacidades. La detección de VoiceOver es un ejemplo y la detección de sonido es otro. Para usar la detección de sonido, vaya a Configuración> Accesibilidad> Detección de sonido y actívela. Después de una pequeña descarga, podrá permitir que su dispositivo reconozca ciertos tonos. Estos ruidos se dividen en diferentes categorías: alarmas, animales, hogar y personas. Durante las pruebas, descubrí que el sonido tiene que ser más fuerte que cualquier sonido ambiental para ser reconocido. Cuando se detecta un sonido, se mostrará como una notificación y también enviará una vibración al usuario.
En la categoría «Alarmas» están las opciones «Fuego», «Sirena» y «Humo». No tuve la oportunidad de probar una alarma contra incendios más que reproducirla a través de un video de YouTube. Cuando hice esto, el iPhone lo hizoel sonido no reconocido. Para la detección de la sirena, la sirena tenía que ser bastante fuerte. Durante una prueba de sirena de tornado, mi iPhone no reconoció la sirena porque estaba bastante lejos de mi ubicación. Cuando la sirena sonó bastante fuerte, el iPhone la reconoció de manera confiable y me envió una notificación. La notificación no fue intrusiva en absoluto, aunque espero que dado el potencial de alarmas como una alarma de humo, haya un tipo de notificación mucho más urgente como la de una alarma de emergencia. Las dos veces que probé las alarmas de humo en mi apartamento, me alertaron en dos segundos. Sin embargo, es una advertencia tan casual como una notificación de un cambio en la puntuación deportiva, un nuevo mensaje en Slack o muchas otras notificaciones que no creo que sean importantes. Debido a que tengo pérdida auditiva de alta frecuencia, ya no puedo escuchar el sonido agudo de una alarma de humo, por lo que me sentiría más seguro si pudiera usar esto como respaldo de otro sistema ya instalado que estoy usando. El iPhone no hizo sonar la sirena porque estaba bastante lejos de donde yo estaba. Cuando la sirena sonó bastante fuerte, el iPhone la reconoció.ellos confiables y me enviaron una notificación. La notificación no fue en absoluto intrusiva, aunque espero que dado el potencial de alarmas como un detector de humo, haya un tipo de notificación mucho más urgente como la de una alarma de emergencia. Las dos veces que probé las alarmas de humo en mi apartamento, me alertaron en dos segundos. Sin embargo, es una advertencia tan casual como una notificación de un cambio en la puntuación deportiva, un nuevo mensaje en Slack o muchas otras notificaciones que no creo que sean importantes. Debido a que tengo pérdida auditiva de alta frecuencia, ya no puedo escuchar el sonido agudo de una alarma de humo, lo que me haría sentir más seguro.
En la categoría Animales, hay opciones tanto para un perro como para un gato. Descubrí que los perros más grandes que ladran más fuerte a menudo se pueden ver desde la distancia. Sin embargo, los perros más pequeños con ladridos de mayor frecuencia parecen ser reportados con menos frecuencia. La detección de sonidos de gatos funciona con maullidos y no parece ser confiable. Cuanto más alto sea el tono del sonido, con menos frecuencia lo reconocerá el dispositivo. También le ladré a mi teléfono y me sentí como un buen chico cuando mi iPhone informó que había visto un perro. iPhone informó haber visto a un perro.
Los sonidos disponibles en la categoría Hogar incluyen: electrodomésticos, bocina de automóvil, timbre, golpe de puerta y agua corriente. No me quedó claro a qué dispositivos se refería la detección de ruido, ya que el funcionamiento del lavavajillas, la lavadora y la secadora no me hizo consciente de los ruidos. A menudo me enteré de las bocinas de los automóviles mientras viajaba por las ciudades. Los ruidos de timbre de YouTube activaron de manera confiable la notificación a través del sonido reconocido. Los golpes de puerta generaban algunos falsos positivos al golpear o golpear una mesa. El agua corriente también provocó algunos falsos positivos, pero una vez que me enteré del agua corriente, cuando dejé correr el agua del lavabo del baño. Al igual que con la detección de VoiceOver, parece que hay algo de trabajo por hacer aquí; Espero que los avances continúen a medida que evolucionen iOS y iPadOS. Lavadora y secadora no me hicieron consciente de ningún ruido. A menudo me enteré de las bocinas de los automóviles mientras viajaba por las ciudades. Los ruidos de timbre de YouTube activaron de manera confiable la notificación a través del sonido reconocido. Los golpes de puerta generaban algunos falsos positivos al golpear o golpear una mesa. El agua corriente también causó algunos falsos positivos, pero una vez me di cuenta de que había agua corriente cuando estaba dejando correr el agua en el lavabo del baño. Al igual que con la detección de VoiceOver, parece que hay algo de trabajo por hacer aquí; Espero que los avances continúen a medida que evolucionen iOS y iPadOS.
Ajustes de auriculares
tiene la opción de amplificar aún más las frecuencias bajas, medias o altas. No he podido probar esto yo mismo porque no tengo auriculares compatibles. Airpods Pro, la segunda generación de Airpods, algunos de los auriculares Beats y Earpods disponibles. Si ha activado esta función y dispone de unos auriculares adecuados, se le guiará a través de un tipo de prueba de audición en la que se le harán preguntas sobre su audición. Según sus resultados, la conexión de auriculares adaptará mejor su experiencia auditiva a su situación auditiva. También hay un modo de «transparencia» que le permite escuchar lo que le rodea. Esta función solo está disponible en Airpods Pro. Una vez configurado, tiene la opción de amplificar aún más las frecuencias bajas, medias o altas. No pude probar esto yo mismo porque no tengo auriculares compatibles tengo.
varios
Facetime reconoce quién está hablando
Las llamadas grupales FaceTime ya tienen la función que detecta automáticamente cuando alguien está hablando y resalta su pantalla de video; iOS 14 y iPadOS 14 traen esta opción al lenguaje de señas estadounidense. iOS 14 y iPadOS 14 traen esta opción al lenguaje de señas estadounidense.
Toque en la espalda
«Toque en la parte posterior» es una función disponible en todos los iPhones del XS. Le permite tocar dos o tres veces la parte posterior de su iPhone para realizar una acción específica. Esta acción específica puede ser de varias formas, desde alternar las funciones de accesibilidad hasta realizar funciones de VoiceOver o incluso atajos de teclado. Para activarlos, vaya a Configuración> Accesibilidad> Toque> Toque Atrás. Desde aquí puede configurar cualquier cantidad de funciones de accesibilidad como VoiceOver, Zoom, Assistive Touch, etc. También puede utilizar «Toque en la parte posterior» como un atajo de teclado secundario.
También hay opciones para asignar un gesto específico a «Tocar atrás» usando VoiceOver, pero deberá navegar hasta el menú correspondiente. Configuración> Accesibilidad> VoiceOver> Comandos> Gestos táctiles lo llevará allí. Luego, desplácese hacia abajo hasta la parte inferior de la pantalla y encontrará opciones de doble toque y triple toque en la parte posterior de su teléfono inteligente. Hay opciones para cualquier otro elemento al que se le pueda asignar un gesto táctil. Como ejemplo, configuré una combinación de teclas que se puede usar para apagar y encender Bluetooth. Esta es la función de doble toque. Configuré VoiceOver Magic Tap para triple toque. Bluetooth se puede apagar y volver a encender. Esta es la función de doble toque. Configuré VoiceOver Magic Tap para triple toque.
Conclusión
Independientemente de sus necesidades de accesibilidad, Apple continúa innovando con nuevas funciones de accesibilidad con cada actualización importante de iOS y iPadOS. iOS 14 y iPadOS 14 no son una excepción. Sin embargo, tampoco hay ninguna excepción cuando hay errores. Como regla general, aunque iOS 14 y iPadOS 14 en realidad tienen más errores que 13, estos errores no son lo suficientemente graves como para disuadir a los usuarios de usarlos.