Etiqueta : inteligencia-artificial

Hablemos del framework “Trustworthy AI”

post image

Hablemos del framework "Trustworthy AI"

La tecnología que usa inteligencia artificial (IA) continúa avanzando a pasos agigantados y se está convirtiendo rápidamente en un potencial disruptor y un facilitador esencial para casi todas las empresas de todos los sectores. Actualmente, una de las barreras para el despliegue generalizado de la IA ya no es la tecnología en sí misma, sino un conjunto de desafíos que irónicamente son mucho más humanos: la ética y los valores humanos.

IA que discriminan en función de raza, edad o género

A medida que la IA se expande en casi todos los aspectos de la vida moderna, los riesgos de hacer un mal uso de la IA aumentan exponencialmente hasta un punto en el que esos riesgos pueden convertirse literalmente en una cuestión de vida o muerte. Algunos de los grandes ejemplos de IA que se han “estropeado” incluyen sistemas que discriminan a las personas por su raza, edad o género y sistemas de medios sociales que inadvertidamente difunden rumores y desinformación y más.

Pero debes saber que estos ejemplos son sólo la punta del iceberg. A medida que la IA se despliegue a mayor escala, es probable que los riesgos asociados sólo aumenten, lo que podría tener graves consecuencias para la sociedad en general, e incluso mayores consecuencias para las empresas responsables. Desde una perspectiva empresarial, estas consecuencias potenciales incluyen desde demandas judiciales, multas reglamentarias y clientes enfadados hasta vergüenza, daños a la reputación y destrucción del valor para los accionistas.

Contar con inteligencia artificial, básico para las empresas

Sin embargo, con la IA que se ha convertido ahora en un valor diferencial empresarial básico, no sólo algo deseable para las empresas.

Las empresas, deben aprender a identificar y gestionar los riesgos de la IA de manera eficaz. Para lograr el potencial de colaboración entre personas y máquinas, las organizaciones deben comunicar un plan para la IA que se adopte y se hable desde la propia junta directiva de la compañía.

Marco de confianza de la IA

El marco de la IA digna de confianza de Deloitte introduce seis dimensiones clave que, consideradas colectivamente en las fases de diseño, desarrollo, despliegue y operación de la implementación del sistema de IA, pueden ayudar a salvaguardar la ética y construir una estrategia de IA digna de confianza.

El marco de la IA digna de confianza está diseñado para ayudar a las empresas a identificar y mitigar los posibles riesgos relacionados con la ética de la IA en cada etapa del ciclo de vida de la IA. A continuación se examina más de cerca cada una de las seis dimensiones del marco.

Justo, sin sesgos

Una IA digna de confianza debe ser diseñada y entrenada para seguir un proceso justo, consistente que tomar decisiones justas. También debe incluir controles internos y externos para reducir los prejuicios discriminatorios.

El sesgo es un desafío permanente para los humanos y también para la sociedad, no sólo para la IA. Sin embargo, el reto es aún mayor para la IA porque carece de una comprensión matizada de las normas sociales -por no mencionar la extraordinaria inteligencia general necesaria para lograr el “sentido común”- que puede conducir a decisiones que son técnicamente correctas pero socialmente inaceptables. Una IA aprende de los conjuntos de datos utilizados para entrenarla, y si esos conjuntos de datos contienen sesgos del mundo real, los sistemas de IA pueden aprender, amplificar y propagar ese sesgo a velocidad y escala digital.

Por ejemplo, un sistema de IA que decide sobre la marcha dónde colocar los anuncios de trabajo en línea podría dirigir injustamente los anuncios de trabajos mejor pagados a los visitantes masculinos de un sitio web porque los datos del mundo real muestran que los hombres suelen ganar más que las mujeres. Del mismo modo, una empresa de servicios financieros que utilice la inteligencia artificial para examinar las solicitudes de hipotecas podría descubrir que su algoritmo discrimina injustamente a las personas por factores que no son socialmente aceptables, como la raza, el género o la edad. En ambos casos, la empresa responsable de la IA podría enfrentarse a consecuencias importantes, como multas reglamentarias y daños a la reputación.

Para evitar los problemas relacionados con la equidad y el sesgo, las empresas deben determinar primero qué es lo que constituye “justo”. Esto puede ser mucho más difícil de lo que parece, ya que para cualquier tema dado no hay generalmente una sola definición de “justo” en la que todos estén de acuerdo. Las empresas también necesitan buscar activamente el sesgo dentro de sus algoritmos y datos, haciendo los ajustes necesarios e implementando controles para ayudar a asegurar que no aparezca un sesgo adicional de manera inesperada. Cuando se detecta un sesgo, es necesario comprenderlo y luego mitigarlo mediante procesos establecidos para resolver el problema y restablecer la confianza del cliente.

Una IA ya no puede ser tratada como una “caja negra” que recibe entradas y genera salidas sin una clara comprensión de lo que ocurre en su interior.

Transparente fácil de explicar

Para que la IA sea confiable, todos los participantes tienen derecho a entender cómo se están usando sus datos y cómo la IA está tomando decisiones. Los algoritmos, atributos y correlaciones de la IA deben estar abiertos a la inspección, y sus decisiones deben ser totalmente explicables.

Por ejemplo, los minoristas en línea que utilizan la IA para hacer recomendaciones de productos a los clientes se ven presionados a explicar sus algoritmos y cómo se toman las decisiones de recomendación. Del mismo modo, el sistema judicial de los Estados Unidos se enfrenta a una controversia constante sobre el uso de sistemas opacos de inteligencia artificial para fundamentar las decisiones de las sentencias penales.

Entre las cuestiones importantes que hay que considerar en esta esfera figuran la identificación de los casos de uso de la IA para los que la transparencia y la explicabilidad son particularmente importantes, y luego la comprensión de los datos que se utilizan y la forma en que se adoptan las decisiones para esos casos de uso. Además, en lo que respecta a la transparencia, hay una presión creciente para que se informe explícitamente a las personas cuando interactúan con la inteligencia artificial, en lugar de que ésta se disfrace como una persona real.

Responsabilidad

Los sistemas fiables de IA deben incluir políticas que establezcan claramente quién es responsable y rinde cuentas de sus resultados. Culpar a la propia tecnología de las malas decisiones y los errores de cálculo no es suficiente, ni para las personas perjudicadas ni, desde luego, para los reguladores gubernamentales. Se trata de una cuestión clave que probablemente sólo cobrará más importancia a medida que la IA se utilice para una gama cada vez más amplia de aplicaciones cada vez más críticas, como el diagnóstico de enfermedades, la gestión de la riqueza y la conducción autónoma.

Por ejemplo, si un vehículo sin conductor causa una colisión, ¿quién es responsable y rinde cuentas de los daños? ¿El conductor? ¿El propietario del vehículo? ¿El fabricante? ¿Los programadores de la IA? ¿El director general?

Del mismo modo, considere el ejemplo de una empresa de inversión que utiliza una plataforma automatizada impulsada por la IA para comerciar en nombre de sus clientes. Si un cliente invierte los ahorros de su vida a través de la firma y luego pierde todo debido a los pobres algoritmos, debería haber un mecanismo para identificar quién es responsable del problema, y quién es responsable de hacer las cosas bien.

Entre los factores clave que hay que tener en cuenta figuran las leyes y reglamentos que podrían determinar la responsabilidad jurídica y si los sistemas de inteligencia artificial son auditables y están cubiertos por las leyes vigentes sobre denuncia de irregularidades. Además, ¿cómo se comunicarán los problemas al público y a los reguladores, y qué consecuencias tendrán las partes responsables?

Robusto y fiable

Para que la IA logre una adopción generalizada, debe ser al menos tan robusta y fiable como los sistemas, procesos y personas tradicionales que está aumentando o reemplazando.

Para que la IA se considere digna de confianza, debe estar disponible cuando se supone que lo está y debe generar resultados coherentes y fiables que realicen adecuadamente las tareas en condiciones menos que ideales y cuando se encuentren situaciones y datos inesperados. La IA digna de confianza debe escalar bien, permaneciendo robusta y fiable a medida que su impacto se expande y crece. Y si falla, debe fallar de manera predecible y esperada.

Considere el ejemplo de una empresa de atención de la salud que utiliza la IA para identificar anomalías en las exploraciones cerebrales y prescribir el tratamiento adecuado. Para ser confiable, es absolutamente esencial que los algoritmos de la IA produzcan resultados consistentes y confiables ya que las vidas podrían estar en juego.

Para lograr una IA robusta y fiable, las empresas necesitan asegurarse de que sus algoritmos de IA produzcan los resultados adecuados para cada nuevo conjunto de datos. También necesitan procesos establecidos para manejar los problemas e incoherencias que puedan surgir. El factor humano es un elemento crítico en este sentido: comprender cómo la aportación humana afecta a la fiabilidad; determinar quiénes son las personas adecuadas para proporcionar la aportación; y asegurar que esas personas estén debidamente equipadas y capacitadas, en particular en lo que respecta a los prejuicios y la ética.

Privacidad

La privacidad es una cuestión crítica para todo tipo de sistemas de datos, pero es especialmente crítica para la IA, ya que los sofisticados conocimientos generados por los sistemas de IA a menudo provienen de datos más detallados y personales. La IA digna de confianza debe cumplir con las regulaciones de datos y sólo usar los datos para los propósitos declarados y acordados.

La cuestión de la privacidad de la IA a menudo se extiende más allá de las propias paredes de una empresa. Por ejemplo, la privacidad de los datos de audio capturados por los asistentes de la IA ha estado en los titulares de los últimos tiempos, y han surgido controversias sobre la medida en que los proveedores y socios de una empresa tienen acceso a los datos, y si éstos deben compartirse con los organismos encargados de hacer cumplir la ley.

Las empresas necesitan saber qué datos de los clientes se están recopilando y por qué, y si los datos se están utilizando de la manera que los clientes entendieron y acordaron. Además, se debe dar a los clientes el nivel requerido de control sobre sus datos, incluida la posibilidad de optar por aceptar o rechazar que sus datos sean compartidos. Y si los clientes tienen preocupaciones sobre la privacidad de los datos, necesitan una vía para expresar esas preocupaciones.

Seguridad y protección

Para ser digna de confianza, la IA debe estar protegida de los riesgos de ciberseguridad que puedan provocar daños físicos y/o digitales. Aunque la seguridad y la protección son claramente importantes para todos los sistemas informáticos, son especialmente cruciales para la IA debido al papel y el impacto cada vez mayores de la IA en las actividades del mundo real.

Por ejemplo, si un sistema financiero basado en la IA es pirateado, el resultado puede ser un daño a la reputación y la pérdida de dinero o datos. Esas son consecuencias graves, por supuesto. Sin embargo, no son ni de cerca tan graves como las posibles consecuencias de que un vehículo impulsado por la IA sea pirateado, lo que podría poner en peligro la vida de las personas.

Otro ejemplo de riesgo de ciberseguridad de la IA es una reciente violación de datos que involucra millones de registros de huellas dactilares y reconocimiento facial. Esta brecha fue particularmente grave porque se trataba de datos biométricos de personas, que son permanentes y no pueden ser alterados (a diferencia de una contraseña robada u otro tipo de datos estándar que pueden cambiarse rápida y fácilmente para limitar los daños).

¿Se puede confiar en una IA?

La ética de la IA está emergiendo como el mayor desafío individual para el progreso continuo de la IA y su despliegue generalizado, y es un desafío que las empresas ya no pueden ignorar ahora que la IA se está convirtiendo en una capacidad comercial esencial. El marco de la IA digna de confianza ofrece una forma estructurada y exhaustiva de pensar en la ética de la IA, ayudando a las empresas a diseñar, desarrollar, desplegar y operar sistemas de IA en los que pueden confiar.

Un nuevo chip neuromórfico imita el neurocircuito de nuestras nariz al oler

post image

Un nuevo chip neuromórfico imita el neurocircuito de nuestras nariz al oler

De todas las cosas que nuestro cerebro puede hacer, la forma en que nos ayuda a oler es una de las mejor comprendidas. Cuando un olor llega a las células olfativas de nuestra nariz, envían una señal al correspondiente grupo de neuronas del cerebro conocido como bulbo olfativo. El bulbo entonces transporta la señal a otras partes del cerebro, permitiéndonos apreciar el perfume de un pomelo o evitar el hedor de la basura.

Los bulbos olfativos son específicos de los mamíferos, pero otros animales, como los insectos, también exhiben estructuras neuronales similares. Esto significa que “probablemente hay algo bastante fundamental y eficiente en estas implementaciones si la evolución ha llegado a ellas en diferentes casos”, dice Mike Davies, el director del Laboratorio de Computación Neuromórfica de Intel.

Tanto porque son tan eficientes como porque los entendemos tan bien, los sistemas de olfato son un gran punto de partida para los chips neuromórficos, un nuevo tipo de hardware de computación que se inspira directamente en la estructura del cerebro.

Chips neuromórficos que permiten oler a los ordenadores

Este lunes, los científicos de Intel publicaron un artículo en Nature que propone un nuevo diseño de chip neuromórfico que imita la estructura y las capacidades del bulbo olfativo. Los investigadores trabajaron con neurofisiólogos olfativos que estudian los cerebros de los animales mientras huelen. Diseñaron un circuito eléctrico, basado en los circuitos neuronales que se activan cuando sus cerebros procesan un olor, que podría ser tallado en un chip de silicio. También diseñaron un algoritmo que refleja el comportamiento de las señales eléctricas que pulsan a través del circuito. Cuando entrenaron el algoritmo en el chip utilizando un conjunto de datos existente de 10 “olores” -caracterizados por sus mediciones de 72 sensores químicos diferentes- fue capaz de distinguirlos con precisión con muchas menos muestras de entrenamiento que un chip convencional.

Este chip es todavía un prototipo en una etapa relativamente temprana, pero una vez maduro podría servir para varias aplicaciones, como la detección de bombas o la detección de humos nocivos en plantas químicas. También demuestra el potencial de la computación neuromórfica para una IA más eficiente en cuanto a datos.

Algoritmos de aprendizaje profundo

Actualmente, los chips más populares para ejecutar algoritmos de aprendizaje profundo de última generación siguen una arquitectura von Neumman, una convención de diseño que ha impulsado la revolución informática durante décadas. Pero estas arquitecturas son ineficientes para el aprendizaje: los algoritmos que se ejecutan en ellas requieren cantidades masivas de datos de entrenamiento, en contraste con nuestros cerebros mucho más eficientes. Los chips neuromórficos, por lo tanto, tratan de preservar la estructura del cerebro tanto como sea posible. La idea es que una imitación tan cercana aumentará la eficiencia del aprendizaje del chip. De hecho, Intel consiguió que el chip aprendiera de muy pocas muestras.

En el futuro, el equipo de investigación planea mejorar el diseño de su chip neuromórfico y aplicarlo a otras funciones del cerebro más allá del olfato. Davies dice que el equipo probablemente dirigirá su atención a la visión o al tacto a continuación, pero tiene ambiciones a largo plazo para abordar procesos más complejos. “Nuestros mecanismos sensoriales son el lugar natural para empezar porque son bien entendidos”, dice. “Pero en cierto sentido estamos trabajando en el cerebro, hasta los procesos de pensamiento de orden superior que suceden.”

Una IA puede jugar los 57 juegos de Atari

post image

La inteligencia artificial llamada Agent57 ha aprendido a jugar a los 57 videojuegos Atari en el entorno de aprendizaje Arcade, una colección de juegos clásicos que los investigadores utilizan para probar los límites de sus modelos de aprendizaje profundo. Desarrollado por DeepMind, Agent57 utiliza el mismo algoritmo de aprendizaje de refuerzo profundo para lograr niveles de juego sobrehumanos incluso en juegos con los que las IAs anteriores han tenido dificultades. Ser capaz de aprender 57 tareas diferentes hace que Agent57 sea más versátil que los anteriores IA de juegos.

La inteligencia artificial que juega a videojuegos

Lo cierto es que los videojuegos son una gran manera de probar las IA. Proporcionan una variedad de retos que obligan a una IA a idear una serie de estrategias y, sin embargo, tienen una clara medida de éxito, una puntuación contra la que entrenarse.

Hay cuatro juegos Atari en particular que han demostrado ser más difíciles de superar. En “La venganza y la trampa de Moctezuma”, la IA debe probar muchas estrategias diferentes antes de dar con una ganadora. Y en Solaris y Esquí puede haber largas esperas entre la acción y la recompensa, lo que hace difícil para que una IA pueda aprender qué movimientos son los que mejor se pagan.

Para afrontar estos retos, Agent57 reúne múltiples mejoras que DeepMind ha hecho a su red Deep-Q, la IA que venció por primera vez a un puñado de juegos de Atari en 2012, incluyendo una forma de memoria que le permite basar sus decisiones en cosas que ha visto anteriormente en el juego y sistemas de recompensa que animan a la IA a explorar sus opciones más a fondo antes de decidirse por una estrategia. Estas diversas técnicas son gestionadas por un metacontrolador, que equilibra las compensaciones entre seguir adelante con una estrategia particular y hacer más exploración.

¿Por qué ha supuesto un reto que una inteligencia artificial juegue a videojuegos?

A pesar de su éxito, los mejores modelos de aprendizaje profundo que tenemos hoy en día no son muy versátiles. La mayoría tienden a ser buenos en una cosa y sólo en una cosa. Entrenar una IA para sobresalir en más de una tarea es uno de los mayores retos abiertos en el aprendizaje profundo. La capacidad de aprender 57 tareas diferentes hace que el Agente57 sea más versátil que las IA de juegos anteriores, pero todavía no puede aprender a jugar más de un juego a la vez. Agent57 puede aprender a jugar 57 juegos, pero no puede aprender a jugar 57 juegos a la vez. Necesita volver a entrenarse para cada nuevo juego aunque puede usar el mismo algoritmo para hacerlo. De esta manera el Agent57 es similar al AlphaZero, el algoritmo de aprendizaje de refuerzo profundo de DeepMind, que puede aprender a jugar al ajedrez, al Go y al shogi, pero de nuevo, no todos a la vez.

En definitiva, la verdadera versatilidad, que le llega tan fácilmente a un niño humano, está todavía muy lejos del alcance de AIs.

Un nuevo chip de IA hace reconocimiento de imágenes en nanosegundos

post image

Un nuevo chip de IA hace reconocimiento de imágenes en nanosegundos

Un nuevo tipo de ojo artificial, hecho combinando la electrónica de detección de luz con una red neuronal en un solo chip diminuto, puede dar sentido a lo que está viendo en sólo unos pocos nanosegundos, mucho más rápido que los sensores de imagen existentes.

Hablemos de la visión artificial

La visión por ordenador es parte integral de muchas aplicaciones de la IA, desde coches sin conductor hasta robots industriales y sensores inteligentes que actúan como nuestros ojos en lugares remotos. Lo cierto es que las máquinas se han vuelto muy buenas en analizar y responder a lo que ven. Pero la mayoría de los reconocimientos de imágenes necesitan mucha potencia de máquina para funcionar. Parte del problema es un cuello de botella en el corazón de los sensores tradicionales, que capturan una enorme cantidad de datos visuales, independientemente de si son útiles o no para clasificar una imagen. Al procesar todos esos datos se ralentizan las cosas.

Un sensor que captura y procesa una imagen al mismo tiempo, sin convertir o pasar datos, hace que el reconocimiento de la imagen sea mucho más rápido usando mucha menos energía. El diseño, publicado en Nature por investigadores del Instituto de Fotónica de Viena, Austria, imita la forma en que los ojos de los animales pre-procesan la información visual antes de pasarla al cerebro.

¿Cómo funciona este nuevo chip de visión artificial?

El equipo construyó el chip a partir de una hoja de diselenido de tungsteno de unos pocos átomos de espesor, grabada con diodos sensores de luz. Luego conectaron los diodos para formar una red neuronal. El material utilizado para hacer el chip le da propiedades eléctricas únicas para que la fotosensibilidad de los diodos – los nodos de la red – pueda ser ajustada externamente. Esto significaba que la red podía ser entrenada para clasificar la información visual ajustando la sensibilidad de los diodos hasta que diera las respuestas correctas. De esta manera, el chip inteligente fue entrenado para reconocer versiones estilizadas y pixeladas de las letras n, v y z.

En resumen: Este nuevo sensor es otro emocionante paso en el camino para mover más IA al hardware, haciéndolo más rápido y eficiente. Pero hay un largo camino por recorrer. Para empezar, el ojo consta de sólo 27 detectores y no puede lidiar con mucho más que el bloqueo de imágenes 3×3. Aún así, por pequeño que sea, el chip puede realizar varias tareas estándar de aprendizaje por máquina supervisadas y no supervisadas, incluyendo la clasificación y codificación de letras. Los investigadores sostienen que escalar la red neural hasta tamaños mucho más grandes sería sencillo.

Descifrando el poder de la IA en la educación

post image

Descifrando el poder de la IA para la educación

Los educadores de las instituciones más punteras se han puesto de acuerdo. Necesitan una estrategia de inteligencia artificial pero… ¿Por dónde empezar?

La inteligencia artificial está empezando a influir en el sector educativo a día de hoy, y justamente esto, tiene enormes implicaciones. La IA tiene el potencial de transformar el funcionamiento de nuestro sistema educativo, aumentando la competitividad de los centros educativos, además de potenciar a los profesores y alumnos de todas sus capacidades.

La inteligencia artificial al servicio de la educación

Las oportunidades de la IA para apoyar la educación son tan amplias que recientemente Microsoft encargó una investigación sobre este tema a IDC para entender dónde puede ayudar la compañía. Los hallazgos ilustran la naturaleza estratégica de la IA en la educación y destacan la necesidad de tecnologías y habilidades para hacer realidad la promesa de la IA.

Los resultados mostraron una aceptación casi universal entre los educadores de que la IA es importante para su futuro; el 99,4% dijo que la IA sería fundamental para la competitividad de su institución en los próximos tres años, mientras que el 15% la calificó de “clave en la evolución del sector”. Casi todos están tratando de trabajar con ella también el 92% dijo que han comenzado a experimentar con la tecnología.

Sin embargo, por otro lado, la mayoría de las instituciones todavía carecen de una estrategia formal de análisis de datos o de medidas prácticas para hacer avanzar las capacidades de la IA, lo que sigue siendo un inhibidor clave. El hallazgo indica que, aunque la gran mayoría de los líderes entienden la necesidad de una estrategia de IA, puede que les falte claridad sobre cómo aplicarla. Y podría ser que simplemente no sepan por dónde empezar.

El análisis de datos y la IA llegan a las aulas

David Kellermann se ha convertido en un pionero en cómo usar la IA en el aula. En la Universidad de Nueva Gales del Sur en Sydney, Australia, Kellermann ha construido un robot de preguntas capaz de responder a las preguntas por sí mismo o entregar un vídeo de conferencias pasadas. El bot también puede marcar las preguntas de los estudiantes para que los asistentes de enseñanza (TAs) las sigan. Es más, sigue mejorando en su trabajo, ya que se expone a más y diferentes preguntas a lo largo del tiempo.

Kellermann comenzó la transformación de su aula con un solo portátil de Surface. También ha empleado sistemas listos para usar como los equipos de Microsoft para fomentar la colaboración entre sus estudiantes. Kellermann utilizó la plataforma Microsoft Power para construir el robot de preguntas, y también construyó un tablero usando Power BI que traza los resultados de los exámenes de la clase y construye paquetes de estudio personalizados basados en el rendimiento anterior de los estudiantes.

Los educadores ven la IA como un instrumento para la competitividad de su institución, pero la mayoría de las instituciones todavía carecen de una estrategia formal de datos para hacer avanzar la IA.

El proyecto de Kellermann ilustra un principio clave para las organizaciones de casi todas las industrias cuando se trata de trabajar con la IA y el aprendizaje automático: saber por dónde empezar, empezar en pequeño y aumentar las capacidades con el tiempo. Las aplicaciones potenciales de la IA son tan vastas que incluso las organizaciones más sofisticadas pueden empantanarse tratando de hacer demasiado, demasiado pronto. A menudo, todo se reduce a tener un pequeño objetivo y construir a partir de ahí.

Para ser competitivos, las instituciones necesitan expertos en Big Data e Inteligencia artificial

A medida que una iniciativa de IA crece gradualmente y se hace más sofisticada, también es importante tener acceso a expertos que puedan navegar por la tecnología y poner los sistemas adecuados en su lugar. Para hacerse un lugar con la IA, las instituciones necesitan herramientas, tecnologías y habilidades.

Como ves, algunas instituciones ya han dado los primeros pasos para llevar el potencial de las tecnologías de la IA a las aulas. Pero también sabemos que hay mucho más trabajo por hacer. En los próximos años, el impacto de la IA se sentirá de varias maneras: gestión de operaciones y procesos, programas basados en datos para aumentar la eficacia, ahorro de energía con edificios inteligentes, creación de un campus moderno con un entorno de aprendizaje seguro y protegido.

Pero su impacto más importante y de mayor alcance puede radicar en el potencial de la IA para cambiar la forma en que los profesores enseñan y los estudiantes aprenden, ayudando a maximizar el éxito de los estudiantes y prepararlos para el futuro.

 Herramientas de inteligencia colectiva

Las herramientas de inteligencia colectiva estarán disponibles para ahorrar tiempo a los profesores con tareas como calificar los trabajos para que los profesores y  también facilitarán que los asistentes puedan pasar más tiempo con los estudiantes. La IA puede ayudar a identificar a los estudiantes con problemas a través de señales de comportamiento y darles un empujón en la dirección correcta.

 La IA como impulso de la inclusión educativa

La IA también puede ayudar a los educadores a fomentar una mayor inclusión: la traducción de idiomas basada en la IA, por ejemplo, puede permitir que más estudiantes con diversos antecedentes participen en una clase o escuchen una conferencia. La Escuela de Estudios de la Información de la Universidad de Syracuse está trabajando para impulsar el aprendizaje experimental de los estudiantes y, al mismo tiempo, ayudar a resolver problemas del mundo real, como Our Ability, un sitio web que ayuda a las personas con discapacidades a conseguir empleo.

La IA tiene el poder de convertirse en un igualador en la educación y un diferenciador clave para las instituciones que la adoptan.

Las escuelas pueden incluso usar la IA para ofrecer una experiencia de aprendizaje verdaderamente personalizada, superando una de las mayores limitaciones de nuestro  modelo de educación de uno a muchos (un profesor, muchos alumnos).