Moody’s y Microsoft utilizarán inteligencia artificial para evaluar el riesgo crediticio

Las compañías Moody’s y Microsoft  anunciaron una asociación estratégica para la utilización de inteligencia artificial servicios para la investigación y evaluación de riesgos basados en Azure OpenAI Service.

De acuerdo con Rob Fauber, presidente de la calificadora, en un mundo de riesgo exponencial, la IA generativa representa una oportunidad única para reunir los dominios de riesgo y ayudarles a las organizaciones a adaptarse y progresar.

“Tras combinar el innovador servicio Azure OpenAI de Microsoft con nuestra gran cantidad de datos, análisis y estudios, obtenemos nuevos productos y conocimientos holísticos para los clientes”, aseguró.

Asimismo, el directivo destacó que integrarán estas potentes capacidades en nuestra organización y las incorporaremos en su gama de productos y soluciones, a fin de proporcionarles a los clientes información a demanda y ayudarlos a identificar, gestionar y mitigar el riesgo de manera más eficaz.

Y es que la plataforma Moody’s CoPilot estará disponible para todos los empleados de la calificadora, la cual combina datos, análisis y estudios de propiedad exclusiva con grandes modelos lingüísticos y tecnología de IA generativa de primera clase de Microsoft, para fomentar la innovación en toda la empresa.

A su vez, Microsoft utiliza la amplia gama de soluciones de Moody’s, incluyendo su base de datos Orbis, para aplicaciones que incluyen datos de referencia de terceros, evaluación de riesgos de contraparte y gestión de la cadena de suministro.

Por su parte, Bill Borden, vicepresidente corporativo de servicios financieros mundiales de Microsoft, dijo que esta asociación reunirá información de clase mundial de Moody’s con las capacidades, la confianza y la amplitud de Microsoft Cloud, incluidos Azure OpenAI Service, Fabric y Teams,

“Esperamos con ansias las nuevas oportunidades y el valor que esto traerá a los empleados y las empresas en la banca, los mercados de capital y los seguros, así como en otras industrias como la fabricación, las telecomunicaciones, el transporte y los servicios públicos”, expresó.

This content was originally published here.

Rebeca Hwang: “La inteligencia artificial no es un tema de tecnología sino de expansión humana”

La inteligencia artificial es uno de los temas del momento. Porque se habla de tecnología, pero también de cómo esta tecnología puede expandir (o perjudicar) las posibilidades de la especie humana.

Rebeca Hwang es una referente de la temática. Nació en Seúl, Corea, vivió su infancia y adolescencia en Argentina, estudió en el Colegio Nacional Buenos Aires y luego siguió su formación en el Massachusetts Institute of Technology (MIT) y en Stanford. Desde 2003 lidera proyectos en Silicon Valley y fue reconocida como una de las Jóvenes Líderes Globales del Foro Económico Mundial y como una de las 35 Innovadores Globales menores de 35 años por el MIT Tech Review. Además es emprendedora y docente.

“En 25 años de estar en Estados Unidos, no vimos una revolución tecnológica como esta. En un día, Chat GPT alcanzó 100 millones de descargas, que a Netflix o Facebook le tomaron años”, puntualizó en una charla abierta organizada por la Fundación OSDE en su auditorio porteño. “La inteligencia artificial no es un tema de tecnología sino de expansión humana”, definió.

Hwang conoce desde dentro la industria de la tecnología y el conocimiento, y eso le permite analizar escenarios y detectar tendencias. “Ha cambiado radicalmente la narrativa. Hace un año hablábamos más de metaverso y criptomonedas, últimamente la tendencia migró hacia IA. En el último tiempo, alrededor de 250 mil ingenieros y programadores despedidos de distintos gigantes de Silicon Valley migraron hacia IA y están abocados a esto. Es un impulso importante. No se trata de que las otras cosas vayan a desaparecer, sino de que cambió la tendencia, este es el sector que capta más talento y más fondos para financiar nuevos desarrollos”.

Como contrapartida, un sector que venía con mucho impulso y experimentó un freno importante es el de la movilidad inteligente. “En EEUU los sindicatos y los seguros son una barrera para la automatización de empleos como el de los camioneros. Por eso, el proceso va a tomar unos años. En consecuencia, ese sector parecería tener cierta continuidad laboral garantizada, que no tendría, por ejemplo, un ingeniero químico de Stanford”, explicó.

Rebeca Hwang, en la charla que dio en el auditorio de la Fundación OSDE.


Rebeca Hwang, en la charla que dio en el auditorio de la Fundación OSDE.

Hwang comparó a ChatGPT con un niño. “Si le dedicamos a ChatGPT un par de horas diarias durante algunos años, va a terminar por conocernos mejor de lo que nos conocemos nosotros mismos. Cada vez que la usamos, la aplicación aprende de nosotros, incluso hasta a manipularnos. De la misma manera que un chico de cinco años sabe qué hacer o decir para obtener dulces de sus padres. Cuando llegan a la adolescencia, la manipulación se hace más sofisticada, y ya no quieren dulces sino tarjetas de crédito. La IA aún no está en ese punto pero llegará”.

La pregunta que sobrevuela es, entonces, por el futuro. “Hemos creado una tecnología con gran potencial para hacer el bien, pero el resultado no está garantizado”, concedió. Y tras recordar que Geoffrey Hinton, considerado “el padrino” de la IA, renunció a Google porque “teme el potencial daño que está tecnología puede hacer en el futuro y no quiere su nombre asociado a algo similar a lo que fue la bomba atómica”, vaticinó que “la tecnología va a terminar haciendo por nosotros lo que le pidamos que haga. En eso juegan mucho las instituciones, las reglas, regulaciones, la ética”.

Hwang contó que se pueden crear, en base a archivos de las personas públicas, clones muy similares a las personas reales, difíciles de distinguir: “La pregunta ética es quién da permiso para desarrollar eso. Piensen en el daño potencial a la democracia, ¿quién puede distinguir si esa declaración la hizo el candidato real o un clon? En esta campaña en EE.UU., la IA va a ser lo que fueron los social media para Obama en 2008. El candidato que tenga mayor dominio de esto, corre con ventaja”. La tecnología, explica, implica la posibilidad de sofisticar aún más las fake news.

Por último, reflexionó sobre las similitudes y diferencias entre la IA y los seres humanos. “La máquina aprende: toca, se quema y no toca más. El ser humano no: se enamora, se emociona, se puede casar ocho veces”, concluyó.

Voicebox: la nueva inteligencia artificial de Meta es tan buena imitando voces que no será liberada al público

Paul McCartney lo deja claro: en la nueva canción de Los Beatles con inteligencia artificial todo es real

This content was originally published here.

Google Assistant con esteroides: por fin la Inteligencia Artificial de Bard llegará al asistente para que dé respuestas personalizadas

Bard como parte del asistente de Google. En el evento de presentación de los nuevos Pixel Watch 2 y Pixel 8, la compañía también mostró las novedades que tendrá su inteligencia artificial generativa.

Según Sissy Hsiao, vicepresidenta y directora general de Google Assistant y Bard, este nuevo “experimento” llamado Assistant with Bard, fusiona las capacidades del asistente con la IA para crear un producto “más intuitivo, inteligente y personalizado“.

Esta nueva herramienta, incorpora las capacidades de la IA generativa y de razonamiento de Bard con la ayuda que puede proporcionar el asistente. La interacción con este sistema puede llevarse a cabo mediante texto, voz o imágenes, permitiendo también solicitar acciones como recordatorios o alarmas.

Las nuevas capacidades del asistente

Google detalla que Assistant with Bard también puede obtener información del usuario desde herramientas como Gmail o Docs o interactuar con otros servicios de la compañía, como Maps.

Durante el evento Made By Google, Hsiao ilustró cómo Assistant with Bard puede enviar mensajes de texto y responder a solicitudes, como la creación de listas de compras para fiestas, indicando qué ingredientes se necesitan para recetas específicas.

Al igual que GPT-4, Bard es multimodal, lo que implica que no solo responde a entradas de audio o texto, sino que también utiliza información de imágenes ingresadas.

Esta capacidad permite a Assistant with Bard analizar fotografías y generar contenido, como texto para acompañar publicaciones en redes sociales, con solo solicitarlo.

Asistente con IA para todos

Google ha anunciado que se podrá acceder a Assistant with Bard en dispositivos móviles, no solo en Android, sino también en iOS.

Dado que se trata de un experimento inicial, se llevarán a cabo pruebas con evaluadores antes de su lanzamiento al público en general. Eso sí, Hsiao insinuó que uno de los primeros dispositivos en recibir esta función será el Pixel 8.


La noticia

Google Assistant con esteroides: por fin la Inteligencia Artificial de Bard llegará al asistente para que dé respuestas personalizadas

fue publicada originalmente en

Xataka México

por
Gonzalo Hernández

.

This content was originally published here.

Según la Inteligencia Artificial, la Virgen de Guadalupe tiene un rostro mestizo – Luis Guillermo Digital

La Inteligencia Artificial sigue asombrado a millones de internautas con las funciones que actualmente puede realizar. Hace unos meses trascendió que cientos de personas han utilizado estas herramientas tecnológicas para crear imágenes falsas. En este contexto, los usuarios de internet han utilizado la tecnología para plasmar cómo sería el rostro de la Virgen de Guadalupe, con base en el lugar en el que nació. De acuerdo con las personas que realizaron el proyecto, la recreación con Inteligencia Artificial (IA) tiene como objetivo dar una imagen mucho más realista de la Virgen de Guadalupe, así como identificar las características étnicas de la figura religiosa y alejarla del retrato que muestran las pinturas actuales. El proyecto inició luego de un análisis detallado a la imagen que se encuentra localizada en la Basílica de Guadalupe, en la Ciudad de México. La iniciativa fue realizada por un grupo de científicos de Anahuac Enciclopedy, quienes emplearon la Inteligencia Artificial para descomponer y estudiar cada rasgo de la figura religiosa, hasta poder darle una estructura y rostro, de acuerdo a las características étnicas de su lugar de origen. Según el equipo que realizó el proyecto, la recreación – realizada con IA- respetó los rasgos faciales de la imagen religiosa original. Lo que hicieron los especialistas fue buscar realismo y no caer en interpretaciones caricaturescas, respetando la etnia y las características de la Virgen de Guadalupe. #Entérate📸 Recrean rostro de la Virgen de Guadalupe con ayuda de la Inteligencia Artifical Científicos de la agrupación Anahuac Enciclopedy, aseguraron que esta imagen, sería la aproximación más fiel que la inteligencia artificial pudo realizar, ya que para observar sus… pic.twitter.com/WW50go2EwE — xevt – xhvt (@xevtfm) December 10, 2023 GENERA DEBATE EN REDES Finalmente, en la imagen, generada con IA, se representa el rostro de la Virgen de Guadalupe mezclando rasgos europeos, asiáticos, africanos, arábigos, hindúes y de indígenas de México. La imagen fue difundida en plataformas de Anahuac Enciclopedy y ocasionó un fuerte debate entre la comunidad religiosa.

This content was originally published here.

Si eres mujer y pobre, corres mayor riesgo de perder tu empleo por la automatización y la inteligencia artificial

Si eres mujer y pobre, corres mayor riesgo de perder tu empleo por la automatización y la inteligencia artificial Desde las colectoras de té en Kenia hasta las trabajadoras del textil en Bangladés, las trabajadoras son las más amenazadas por el uso de la inteligencia artificial y la mecanización, pues ocupan la mayoría de puestos sustituibles por máquinas y se benefician menos de los planes de reconversión Rose Nyunja tenía solo 18 años cuando empezó a trabajar en las plantaciones de té de Kericho, la mayor región productora de esta planta de Kenia y una de las principales fuentes de empleo para las mujeres pobres del país. Durante décadas, se mató a trabajar en las explotaciones, recogiendo las hojas a mano. Después llegaron las máquinas de recolección y millares de mujeres como Nyunja empezaron a perder sus empleos, pues solo una de esas máquinas era capaz de sustituir a más de 100 trabajadores. Una noche de 2020, Nyunja regresó a las viviendas de las empleadas y se encontró la puerta bloqueada con una barrera. La habían despedido. Suplicó al supervisor que salvara su puesto de trabajo y su hogar. En lugar de eso, los agentes de seguridad de la empresa la expulsaron del recinto. “Mis 26 años de servicio no significaban nada para ellos”, se lamenta, luchando por contener las lágrimas. “Me dieron una hora para recoger mis pertenencias y marcharme. Nunca en mi vida había experimentado tanta humillación y vergüenza. He trabajado diligentemente durante más de dos décadas y ¿qué he conseguido? Nada”. El Sindicato de Trabajadores Agrícolas y de Plantaciones de Kenia afirma que 30.000 mujeres han perdido su empleo como consecuencia de la automatización en los últimos cinco años. Alrededor del 60% de los 75.000 trabajadores empleados actualmente en el sector del té son mujeres, frente al 75% estimado en 2017, según Dickson Sang, secretario general del sindicato. A medida que las plantaciones de té de Kenia se automatizan para mejorar la productividad, las trabajadoras como Nyunja representan una tendencia mundial más amplia: las mujeres tienen más probabilidades que los hombres de perder sus empleos. Un estudio británico de 2019 revelaba que el 70% de los puestos de trabajo con alto riesgo de automatización están ocupados por mujeres en el Reino Unido. Y el pasado abril, un estudio de la Universidad de Carolina del Norte halló que casi el 80% de la mano de obra femenina en Estados Unidos se verá afectada por los avances en la inteligencia artificial (IA) generativa, en comparación con el 58% de los hombres. Aunque los recientes avances de la IA generativa han agravado la preocupación por la disminución de puestos de trabajo para los empleados administrativos, las pérdidas de empleo debidas al aumento de la automatización en las empresas llevan años produciéndose, como se ha visto en Kenia. Kweilin Ellingrud, directora del McKinsey Global Institute, afirma que su investigación muestra que es 14 veces más probable que la automatización afecte a los trabajadores con salarios bajos que a los que ganan más. El 80% de la mano de obra femenina en Estados Unidos se verá afectada por los avances en la inteligencia artificial generativa, en comparación con el 58% de los hombres “Creo que la razón por la que acapara titulares es porque también está afectando por primera vez a los empleos con salarios más altos”, afirma Ellingrud. “Me parece que ahora la IA generativa está centrándose en puestos de trabajo de todo tipo: afecta a tu trabajo, afecta a mi trabajo. Algunos de nosotros, yo incluida, no estamos acostumbrados a pensar en cómo tendrá que cambiar mi trabajo o en qué va a cambiar”. La pandemia de covid-19 demostró además que las mujeres tienen más probabilidades de perder su empleo en periodos de agitación económica, y tardan más en reincorporarse a la población activa. “El desempleo femenino dura más”, afirma Ellingrud. Su investigación en McKinsey ha revelado que 12 millones de personas tendrán que cambiar de trabajo de aquí a 2030, y que las trabajadoras tienen 1,5 veces más probabilidades que los hombres de verse obligadas a cambiar de ocupación. En su opinión, esto significa que los gobiernos y las empresas deben adoptar urgentemente medidas específicas para reciclar y mejorar la cualificación de las mujeres. En Kericho, Roselyne Wasike, recolectora de té, cuenta que sus ingresos han caído casi a la mitad, de 150 a 80 dólares al mes (de 140 a 75 euros), a medida que las máquinas se han ido haciendo cargo de más partes del trabajo en la plantación. Ni siquiera los que han conseguido conservar su empleo pueden escapar al impacto de la automatización. “Estas máquinas han perjudicado a las mujeres a las que han despedido, en lugar de darles otras tareas dentro de las explotaciones de té”, afirma Wasike. Muchas de ellas son viudas o madres solteras. El resentimiento hacia las máquinas se tradujo en violencia el pasado mes de mayo, cuando los residentes de Kericho incendiaron nueve máquinas cosechadoras valoradas en 1,2 millones de dólares (1,1 millones de euros) en una plantación propiedad de Ekaterra, el productor de los tés Lipton y TAZO. El enfrentamiento se saldó con dos muertos y la detención del gobernador de Kericho. Ekaterra suspendió sus operaciones durante dos semanas, dejando sin trabajo a más de 16.000 empleados. El 85% de los empleos afectados por la IA generativa se concentrarán en cuatro categorías laborales: servicios de alimentación, atención al cliente y ventas, administración de oficinas y fabricación Uno de los puntos en disputa había sido una disposición del convenio colectivo del sector según la cual se mantendría a los trabajadores, en su mayoría mujeres, como operadores de máquinas. Los dirigentes sindicales afirman que las multinacionales se han “negado en redondo” a aplicarla. “No apruebo la destrucción de la propiedad. Pero ahora estos trabajadores están tomando represalias porque las empresas de té siguen cambiando las reglas del juego”, afirma Sang. Ellingrud explica que el 85% de los empleos afectados por la IA generativa se concentrarán en cuatro categorías laborales: servicios de alimentación, atención al cliente y ventas, administración de oficinas y fabricación. En las tres primeras predominan las mujeres. Incluso en el sector manufacturero, las trabajadoras como Nyunja son más vulnerables en comparación con los hombres, que tienen más posibilidades de ser reciclados para funciones relacionadas con la automatización. Ropa hecha en Bangladés, pero no por humanos La automatización también ha cambiado radicalmente la composición del sector de la confección de Bangladés, antes aclamado por transformar las perspectivas de empleo de las mujeres. En el pasado, las mujeres representaban más del 80% de la mano de obra del sector, mientras que ahora representan menos del 60%. En 2019, el Gobierno preveía que medio millón de trabajadores de la confección, en su mayoría mujeres, perderían su empleo a causa de la automatización. En el Centro de Formación y Confección Moni de Savar, situado al norte de la capital, Dacca, Mizanur Rahman enseña a sus alumnos a manejar las máquinas de tejer y tricotar. Rahman, extrabajador de la confección, explica cómo contratan instructoras para las alumnas y ofrecen horarios flexibles para que las mujeres puedan acudir antes o después de ocuparse de las tareas domésticas. Señala que la confianza que adquieren con su formación puede traducirse en un mayor reconocimiento en el trabajo. En 2019, el Gobierno de Bangladés preveía que medio millón de trabajadores de la confección, en su mayoría mujeres, perderían su empleo a causa de la automatización “Muchas de mis alumnas obtienen buenos resultados y ascienden a puestos de supervisora o jefa de línea”, afirma Rahman. Es probable que las funciones de supervisión y de manejo de tecnología automatizada sean algunos de los empleos clave que sobrevivan en un panorama posautomatización. Pero ambos tienden a estar dominados por los hombres. En la industria de la confección de Bangladés, las mujeres han representado durante mucho tiempo menos del 5% de los supervisores, a pesar de constituir una mayoría significativa de la mano de obra. Ha habido algunas señales de éxito. El proyecto Igualdad de Género y Rendimiento, dirigido por la Corporación Financiera Internacional del Banco Mundial y la Organización Internacional del Trabajo, afirma que el 60% de sus aprendices han sido promovidas a puestos de supervisión, y el número de mujeres supervisoras en la industria ha saltado al 12% desde que comenzó el programa en 2016. Abdullah Hil Rakib, director de la Asociación de Fabricantes y Exportadores de Ropa de Bangladés, la mayor asociación comercial del sector en el país, asegura que el principal obstáculo para que las mujeres prosperen en puestos de supervisión u operadoras de máquinas es psicológico. “Es una barrera mental”, afirma. Señala que la automatización supone un trabajo menos agotador físicamente tanto para hombres como para mujeres, lo que elimina una dificultad que antes habría hecho que algunos puestos de trabajo fueran menos accesibles para las mujeres. “Incluso cuando un hombre maneja una pesada máquina de corte automático, solo tiene que pulsar un interruptor para encenderla y apagarla. No necesita hacer más”, sostiene Rakib. Ellingrud anota que alrededor del 10% de los empleos que se crean cada año suelen ser nuevas funciones que antes no existían, pero las mujeres ocupan estos puestos en menor proporción que los hombres. Las que no sean capaces de adaptarse corren el riesgo de quedarse fuera de la nueva economía. Pero esa adaptación parece una posibilidad lejana en Kericho, donde Nyunja vende verduras en la calle para llegar a fin de mes. “Antes podía cuidar de mi familia y pagar la escuela de mis hijos”, se lamenta. “Ahora mi futuro parece sombrío. Apenas puedo pagar el alquiler, y mucho menos enviar a mi hijo a la escuela”. Puedes seguir a Planeta Futuro en X , , y TikTok y suscribirte aquí a nuestra ‘newsletter’ .

This content was originally published here.

Facundo Sapienza, el argentino de la Universidad de Berkeley que estudia los glaciares con inteligencia artificial

HEIDELBERG, Alemania.– Los glaciares, con sus idas y vueltas, sus ampliaciones y recortes, han formateado la vida de la Tierra desde su mismo comienzo. Y, por supuesto, son más que muy importantes por su contenido de agua dulce (almacenan alrededor del 70% del total existente) tanto como por su incidencia en el nivel del mar. Hoy, en la era del deshielo, el conocimiento acerca de esos campos blancos incluye predicciones tristes y pérdidas. Pero todavía hay algunos huecos en el saber para que llene la ciencia.

A eso se dedica Facundo Sapienza, un argentino de 29 años que trabaja en la Universidad de Berkeley, California, donde busca mejorar sistemas de inteligencia artificial para predecir qué sucederá con el agua congelada del planeta. Formado en física y matemática en la UBA y luego volcado a una de las ramas de la inteligencia artificial, como es el denominado machine learning, Sapienza participó en el sur de Alemania del Heidelberg Laureate Forum, con las principales figuras del campo de la matemática y la computación.

La intención del argentino es generar un mecanismo que tome datos de los sistemas satelitales y de otras formas de medición para hacer estimaciones más precisas de qué puede suceder con esos hielos. “Los glaciares son un objeto de estudio interesante, pero es trágico porque cualquier predicción sobre lo que les va a suceder no será muy buena. Pero son hermosos y saber cómo funcionan es genial”, le dijo a LA NACION.

–¿Qué falta conocer de los glaciares que con esta herramienta tecnología se podría saber?

–Trabajo en modelado de glaciares y otros sistemas de la tierra. Tenemos cierto entendimiento de la geofísica de un glaciar, cuáles son las ecuaciones que gobiernan el flujo del glaciar. Pero al mismo tiempo hay dinámicas que no conocemos, por ejemplo cómo responderán al cambio climático, o a cierta temperatura del aire o del hielo. Otra gran incógnita es qué pasa en lo que se llama la cama, el contacto entre la roca y el hielo, cómo el glaciar desliza más o menos, según temporada, según agua y lubricación. En los últimos años se obtuvieron más datos globales, tomados de satélites, que permiten un mapeo global de los glaciares del mundo. Es un problema del que sabemos un poco, pero falta la imagen completa del mecanismo. Con datos y modelos nuevos de IA y machine learning se facilita el proceso de estas observaciones y teorías para ver cómo hacer para que se igualen.

–¿La idea es mejorar los modelos para tener buenas predicciones?

–Hay partes que se ajustan con las predicciones y otras no. Por eso es preciso que sean más flexibles. Cada glaciar es particular y en ocasiones se hace modelados individuales, pero mi trabajo es global. Con datos de 3000 glaciares con características distintas se puede entender, por ejemplo, si están distinta altura, cómo reaccionan ante el clima, si la roca sobre la que se apoya es distinta. Ese es el tipo de preguntas que trato de resolver. Esa variabilidad entre glaciares con modelos dinámicos.

–¿Qué hace un sistema de machine learning que un humano no puede hacer?

–En principio, el paradigma es parecido. Queremos encontrar parámetros de que lo que observás sea bueno. Optimizar el mecanismo para que las observaciones se ajusten a la predicción. Con ese entrenamiento se espera que la predicción se encuentre en las observaciones. Que esto sea explicativo e interpretable desde la física, tratar de ver el mecanismo físico que controla esto.

–¿Cuántos glaciares hay y qué puede pasar con ellos en las próximas décadas?

–Unos 220.000, alrededor de ese número; por supuesto, con distintos tamaños y ubicaciones. Son bastantes datos para agregar en el sistema de análisis. Los trabajos que se han hecho son con escenarios a 2100 por lo general. Y muestran que incluso con reducción en las emisiones de gases de efecto invernadero, cosa que no está sucediendo, en los Alpes por ejemplo se perdería más del 70% del hielo. Eso va a pasar. Se podrían regenerar, pero llevan un tiempo porque son sistemas difíciles de modelar y no se recuperan después de un verano fuerte, cuesta que se adapten. Así que eso se va a ver.

–¿Se trata de sistemas caóticos (más difíciles de predecir)?

–Es un sistema que no es caótico, pero igual es difícil la predicción porque es sensible y si cambia por decir algo un poco la propiedad del hielo fluye más rápido o más lento. De hecho, desde la física lo describimos como fluido, pero es un fluido lento a diferencia del mar o de la atmósfera. Si lo grabás ves que se desliza como un fluido en cámara lenta. El hielo fluye de manera no lineal. Si algo afecta al clima y a la temperatura el glaciar responde de cierta manera.

–¿Cómo termina un matemático estudiando glaciares?

–En la Argentina estudié física y matemática, pero siempre el corazón estuvo con naturales y el modelado matemático. Así que apliqué al doctorado, había hecho estadística quería ver cómo aplicarla a las ciencias naturales. Y mi director me sugirió el tema de glaciares así que conecté con glaciólogos y arrancamos el trabajo. Es un objeto de estudio interesante, pero es trágico porque cualquier predicción que hagas no será muy buena. Pero son hermosos y saber cómo funcionan es genial. Y las herramientas de estos sistemas complejos se facilitan con la tecnología y la ciencia de datos. No es simplemente resolver el problema matemático sino también el software, por eso se interesa también en la computación científica para que estas herramientas funcionen correctamente.

–Más allá de las abstracciones y algoritmos, ¿vas a glaciares?

–Sí, organizamos desde hace un par de años un taller de machine learning en glaciares en una base al lado de un glaciar en Noruega. Hay mucho interés en la comunidad para aplicar nuestras herramientas. Así que fui y caminé los glaciares, pero como matemático no propiamente un glaciólogo [ríe]. Pero está buena esa interacción con glaciólogos que trabajan in situ. Está muy bueno combinar los distintos campos. Después de un par de año convergés a un punto en común y hablás el mismo vocabulario con gente con otra formación, esa la esencia de la interdisciplina, hay aprendizajes mutuos.

This content was originally published here.

La inteligencia artificial se entrena con el trabajo robado a millones de artistas  | Violaciones a los derechos de autor | Página|12

“Queremos luchar por que el trabajo de un actor lo haga siempre un ser humano”, sentencia Raúl Lara, presidente del Sindicato de Artistas de Doblaje de Madrid (Adoma).

Su cruzada comenzó esta primavera, cuando un estudio de grabación español organizó una “convocatoria de emociones“, por encargo de una multinacional. En ella, se pedía a actores que expresaran distintas entonaciones y sentimientos con su voz.

“Al principio, no sabíamos para qué era. Hasta que nos dieron un documento de cesión de derechos que decía que era para entrenar a una red neuronal. En cuanto nos enteramos, paramos la convocatoria. Era la definición de pan para hoy y hambre para mañana”, cuenta Lara a Público.

Los actores se movilizaron y se pusieron en contacto con otros sindicatos hermanos en distintos puntos de España: València, Sevilla, Galicia, Euskadi, Barcelona…

“Todos los compañeros estábamos de acuerdo. Queremos parar esto hasta que no esté regulado y haya unas reglas del juego”, señala. Con este fin, crearon la plataforma de Asociaciones y Sindicatos de Artistas de Voz de España (PASAVE), que lanza un “mensaje de unidad” delante de las empresas tecnológicas.

“Hemos pedido a los estudios de grabación que se incluya una cláusula específica en nuestros contratos donde especifique que no se pueden usar nuestras voces para entrenar a inteligencia artificial“, recalca Lara.

Por el momento, están esperando que los clientes de los estudios de grabación, compañías gigantescas como Netflix, Disney y Warner, den una respuesta.

Lo mismo se está haciendo a nivel europeo con la plataforma United Voice Artists, que también acoge a sindicatos de Latinoamérica y EEUU e hizo público un manifiesto en el último festival de Cannes, pidiendo que se detenga el “entrenamiento y clonado ilegal de sus voces”.

Alimento humano para la IA

Raúl Lara: “La inteligencia artificial se entrena con el trabajo robado a millones de artistas”

Porque para que la inteligencia artificial generativa produzca voces con la mayor naturalidad posible, necesita entrenarse primero con materia prima de origen humano.

“Toda esta tecnología está muy avanzada en inglés y en el español de Latinoamérica, pero no en el de España“, señala Raúl Lara. “Detrás de esto hay multinacionales que buscan ofrecer paquetes de IA generativa de audio en todos los idiomas de la Unión Europea”, añade.

Por eso, están a la busca y captura de alimento –voces reales– para educar a sus algoritmos. Y qué mejor que utilizar actores de doblaje profesionales. “La inteligencia artificial se entrena con el trabajo robado a millones de artistas”, denuncia Lara.

Hartas de esta situación, en enero, un grupo de pintoras e ilustradoras estadounidenses demandó a tres compañías de IA generativa, Midjourney, Stable Difussion y DreamUp, por usar las imágenes de sus obras en el proceso de minería de datos y entrenamiento de los algoritmos.

Sin su consentimiento, sin compensarles económicamente por su aportación –aunque las plataformas sí cobran por el uso de sus herramientas– y sin citarlas en los créditos.

“Estos generadores de imágenes presentan su producto como si estuviera libre de copyright. Pero, en realidad, lo que ofrecen en un trabajo derivado de otras obras que tienen propiedad intelectual”, afirmaba hace unas semanas uno de los abogados que lleva el caso, Matthrew Butterick, en The New Yorker.

Derechos de autor relegados por la tecnología

Una demanda como la suya, sin embargo, no podría prosperar hoy por hoy en la Unión Europea, ya que, dentro de las excepciones a la Ley de propiedad intelectual que se redactaron en 2019 está la de “pastiche”, donde se ha incluido a la IA generativa, según explica a Público el abogado experto en derechos de autor Santiago Mediano, presidente de la Sección de Robótica, Inteligencia Artificial, Realidad Virtual y Aumentada Colegio de Abogados de Madrid.

“La Directiva de Mercado Único Digital dictamina que el uso de todo el acerbo cultural de la humanidad para entrenar a la inteligencia artificial no requiere del consentimiento del propietario de esa propiedad intelectual. De acuerdo con la legislación europea, los derechos de autor no pueden ser un obstáculo para el desarrollo de la tecnología”, nos dice.

Por defecto, todas las obras publicadas pueden ser empleadas libremente para dar de comer a los hambrientos algoritmos. A no ser que su autor haya indicado expresamente su negativa.

Sin embargo, “el opt-out es un sistema poco realista y eficiente. Es muy difícil marcar todas las creaciones con una reserva de derechos a efectos de la minería de datos”, advierte Santiago Mediano.

“Preveo grandes tensiones con el tema de la propiedad intelectual. Estamos viviendo un proceso de low-costización, con una enorme pérdida de valor en los bienes culturales. Las plataformas audiovisuales han depreciado la difusión de contenidos artísticos y, ahora, la tecnología también quiere intervenir en su creación”, observa Mediano.

El arte, humano por definición

Así las cosas, “todo apunta a que la UE será la primera en legislar respecto a IA y derechos de propiedad intelectual”, apunta Lara. Por el momento, el sindicato Adoma se ha reunido con el Ministerio de Cultura para aportar su visión sobre cómo tiene que ser esta nueva ley de inteligencia artificial respecto a la cultura.

“Pedimos que haya transparencia: que se sepa con qué actores ha sido entrenada la IA, para poder cobrar derechos de propiedad intelectual. También, que siempre haya una marca de agua que identifique cuando una voz no es humana, sino sintética. Y que se abra un debate sobre si se puede permitir que una máquina haga de forma autónoma una simulación de arte”, indica.

En opinión de este actor, “el arte es lo que nos diferencia como especie. Sería terrible reconocerle derechos de autor a una máquina“. Aún en entrevista telefónica, el sentimiento acentúa sus palabras y nos contagia cuando añade: “Los artistas son seres humanos y el arte, por definición, es algo que nace del alma humana. Una IA puede hacer algo muy perfecto técnicamente, pero no puede replicar una emoción genuina”.

This content was originally published here.

Inteligencia artificial: humanizaron a los personajes de Dragon Ball Z y quedaron iguales al animé

La inteligencia artificial lo hizo de nuevo. Y esta vez le tocó a los recordados personajes de una de las series de animé más populares de la historia: Dragon Ball Z.

Un usuario de Reddit con el nick @mortecouille92 pensó en cómo se verían si fueran humanos los protagonistas de la saga y le pidió a Midjourney que se imagine las versiones hiperrealistas de Goku, Vegeta y compañía. Y el resultado dejó con la boca abierta a muchos.

Leé también: La inteligencia artificial imaginó a Mafalda, Hijitus y Anteojito como si fueran nenes reales

Así se verían en la vida real los personajes de Dragon Ball Z

  • Vegeta
Vegeta - Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
Vegeta – Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
  • Nappa
Nappa - Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
Nappa – Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92

Leé también: Así se vería Lionel Messi si hubiera nacido en otros países, según la inteligencia artificial

  • Bulma
Bulma - Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
Bulma – Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
  • Pan
Pan - Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
Pan – Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
  • Goku
Goku- Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
Goku- Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92

Qué es Dragon Ball

Dragon Ballse publicó como manga por primera vez el 20 de noviembre de 1984, en la revista semanal Shōnen Jump. Enseguida se adaptó a la televisión, con una serie que marcó a varias generaciones y llevó el arte animado japonés a otro nivel.

Fue el propio Akira Toriyama, creador de la serie, el encargado de supervisar la adaptación, en especial en la selección de la voz de los personajes, que salió al aire en Fuji TV en 1986.

La serie tuvo tanto éxito y era tan compleja su realización que para poder cumplir con la entrega semanal, hasta cuatro compañías diferentes colaboraron en la animación bajo la producción de Toei, el estudio que se encargó del animé.

Leé también: Así se verían los hijos de parejas de famosos, según la inteligencia artificial

Dragon Ball estuvo compuesto de 153 capítulos basados en los primeros 16 tomos de los 42 que tuvo el manga hasta que dejó de publicarse en 1995.

La historia cautivó inmediatamente. La tierna picardía de Goku, y su encuentro con Bulma, en la búsqueda de las Esferas del Dragón hicieron vivir una serie de aventuras fantásticas que alimentaron el espíritu del pequeño guerrero, apoyado en la novela clásica china de Sun Wukong, el “Rey Mono”, en su viaje que duró años y alimentó la imaginación de jóvenes en todo el mundo.

La serie original concluyó en enero de 1996, después de que el autor decidiese no seguir dibujando las historias de Goku, sus amigos y descendientes. Sin embargo, Dragon Ball ya se había convertido en una franquicia mega rentable y los responsables de la serie de televisión no querían matar a la gallina de los huevos de oro.

This content was originally published here.

Los genios de la computación y la matemática evaluaron cómo será la vida con la inteligencia artificial

HEIDELBERG, Alemania.– Por razones estratégicas, o quizá por azar, la ciudad de Heidelberg no fue bombardeada por los Aliados durante la Segunda Guerra Mundial. Por eso en esta zona del sur de Alemania todavía se ven edificios e iglesias de varios siglos de antigüedad. Heidelberg es también una de las ciudades universitarias por excelencia de Europa, con una tradición dignamente medieval. Aquí, precisamente en la ribera derecha del río Neckar, se llevó a cabo la décima edición del Heidelberg Laureate Forum, donde genios de la matemática (que ganaron premios como el Turing, el Abel o la medalla Fields) se reunieron durante una semana de intensas actividades con jóvenes científicos de todo el mundo para compartir conocimientos y recomendaciones para las carreras. Este año llegaron de unos 60 países, incluyendo una decena de argentinos que estudian en el país (Universidades de Córdoba, Rosario y del Sur, en Bahía Blanca) y en el extranjero.

Como no podía ser de otra manera, uno de los tópicos centrales de las discusiones fue el de la inteligencia artificial, cuya versión generativa, por ejemplo a través del Chat GPT, ha hecho renacer el miedo de que la tecnología se escape del control humano y a la vez que muchos gobiernos traten de buscar algún tipo de regulación, hasta ahora sin mayor éxito.

Si bien la mayoría de los expertos que trabajan en el campo computacional o afines, en universidades o empresas, abrazan la idea de que se trata de cambios positivos o imposibles de evitar –como si la tecnología fuera una fuerza de la naturaleza–, hubo algunos que manifestaron cuán problemático puede ser dejar semejante poder de computación en manos selectas. Y cómo puede asimismo cambiar completamente la manera en que se organizan las sociedades y se disponen los trabajos. Algo que parece demasiado importante como para dejar en manos de unos pocos humanos que las programan, con intereses comerciales, o incluso de las mismas máquinas.

A todo motor

La posición fuerte respecto de las consecuencias del uso cada vez mayor de la Inteligencia Artificial (IA) se representa en las ideas de Alexei Efros, ganador del premio de la Association for Computing Machinery (ACM) en 2016, que ve en la IA una continuidad tecnológica apenas, no un salto al vacío, lo mismo que cuando aparecieron las películas o la TV y se dijo que la gente ya no leería, o incluso antes, cuando se pensaba que leer libros conspiraría contra vivir la vida. “No me preocuparía por esto en particular. Es una evolución, libro, radio, tv, videojuegos y ahora IA”, señaló en rueda de prensa.

Es un cambio suficientemente lento como para no temerle. Aunque la IA tiene riesgos, para mí están bien abajo en la lista de temores. La guerra y el peligro para la democracia que es Rusia, por ejemplo, ranquea más alto, junto con el cambio climático o el bioterrorismo. Cualquiera de esos temas es mucho más peligroso que la IA”, agregó.

De todos modos, Efros, quien creció en la Unión Soviética y ahora trabaja en los Estados Unidos, ni siquiera se atreve a predecir qué sucederá en los próximos meses, ya no años, dada la velocidad en que todo sucede. Para él, las máquinas no van a tener nada comparable a la conciencia –sea cual fuere su definición– en los próximos siglos.

Otro tema que se discutió es si la inteligencia artificial puede ser creativa

Por su parte Avi Widgerson, ganador del Abel Prize en 2021, admite que habrá enormes cambios, que mucha gente perderá su trabajo por el avance de las tecnologías exponenciales, sobre todo en áreas de la medicina –con el análisis de imágenes en primer lugar– y de los conductores de vehículos. Pero no lo ve muy problemático, aunque señaló que “los gobiernos deben preparar a la gente para eso” y que existe una necesidad de generar una ética de la misma IA que esté presente en universidades y empresas.

“Si bien es un tema complejo y difícil de predecir, como en su momento el poder nuclear o la dinamita, nada lo va a parar. Siempre se encuentran buenas maneras de usar las herramientas, lo mismo que un cuchillo, sustancias químicas, lo que sea. La gente puede usar la tecnología para muchos propósitos, buenos o malos. Lo concreto es que serán cambios enormes, pero no les temo”, dijo Wigderson.

El bando precavido

Algo más precavido, Joseph Sifakis, ganador del Turing Award en 2007, sin oponerse a la tecnología de IA, pidió que “exista una base nueva desde donde empezar, que tenga explicabilidad”.

“Debemos construir la confianza en los sistemas. Hay soluciones técnicas posibles”, dijo en una de las conferencias centrales, donde explicó por qué existe esa preocupación de las autoridades y los gobiernos y la necesidad de un marco regulatorio.

La explicabilidad, dijo Sifakis, está relacionada con que muchas veces los sistemas de IA son “cajas negras”, es decir, lugares en los que se ingresa determinada cantidad de datos y se obtiene una respuesta, pero no hay mayor idea respecto de qué sucedió ahí adentro y por qué se dio determinada respuesta.

Del congreso participaron estudiantes de todo el mundo

“Hace falta especificar formalmente los parámetros involucrados y luego desarrollar una metodología. Hay muchos desafíos, en particular en lo que respecta a las inteligencias artificiales generativas, como el Chat GPT. Necesitamos mejores estándares”, dijo.

Y concluyó: “El futuro de la IA es monitorear y hacer controles de sistemas autónomos, por eso hacer predicciones de su comportamiento es muy importante”.

“Son tiempos de revolución científica”, agregó a la discusión Yael Kalai, premio ACM en 2022, también en conferencia de prensa. “Estamos todos estamos preocupados por la ética, por la desaparición de los trabajos, no tenemos idea de cómo será el mundo dentro diez años, y me da mucha curiosidad saber qué pasará”.

Y agregó que hay una conciencia de los desafíos éticos dentro de sus dos lugares de trabajos (en el MIT de Boston y en Microsoft), donde “son muy conscientes del peligro, del uso controversial, de que debe haber un montón de discusión y decisiones a tomar entre científicos y quienes hacen las leyes”.

Neruda GTP

Otro tema por discutir es la creatividad. El Chat GTP, por ejemplo, ¿es o puede ser creativo? Muchos dicen simplemente que no, y cambian de tema. Pero Sebastien Bubeck, ex profesor en Princeton (Estados Unidos) y en la actualidad investigador de Microsoft, cree lo contrario. Y puso dos ejemplos, ya que fue uno de los primeros en probarlo antes de que estuviera disponible para el público en general y escribió con colegas un largo paper (150 páginas) al respecto. Bubeck le pidió al Chat GPT4 un poema sobre la infinitud de los números primos y “en diez segundos volvió con un poema genial”.

El segundo ejemplo: su hija, fanática de los unicornios, siempre le pedía a la IA cuentos sobre unicornios. Hasta que un día le pidió que dibujara uno, algo difícil porque se trata de un sistema que genera lenguaje. Y sin embargo devolvió un dibujo que no existía antes, un unicornio que se parece, si bien vagamente, a un unicornio con las características propias de ese animal de fantasía (Bubeck llevaba la remera con el dibujo en la conferencia). “Es medio una porquería, pero es algo que creó el chat, pudo conectar las cosas que sabía y armar algo. Sintetizó la información y esa es la esencia de la inteligencia, lo que hacemos como matemáticos”, dijo. “Nadie en el mundo sabe a dónde llevará esto, nadie”, finalizó.

Uno de los tópicos centrales de las discusiones fue el de la inteligencia artificial

Para Efros, en cambio, estamos “muy muy muy lejos” de la poesía artificial. “Hay mucha excitación alrededor de la IA generativa. Mi visión es que no es suficiente lo que tenemos como para que haya deseo, o la posibilidad de escribir poesía. Primero hay que atravesar hambre, bronca, tristeza, eso necesita un acercamiento diferente, a generar desde una única célula otra versión de nuestra propia evolución biológica, algo que está muy lejos. El poder computacional necesario para semejante cosa es enorme”, remarcó.

Lo cierto es que parece haber una especie de regocijada alarma incluso entre los tecnofílicos. En la deriva quizá termine siendo, como dijo Vinton Cerf (premio Turing 2004 y uno de los creadores del protocolo de la red de redes), un problema para el modelo de negocios de internet, si es que toda la gente termina yendo hacia allá en lugar de usar por ejemplo Google. La reflexión final de Cerf fue que “hay que tener cuidado porque si es verdad que la historia la escriben los que ganan, es posible que la próxima historia la termine escribiendo una inteligencia artificial”, según comentó. Lo dijo como con una media sonrisa, pero no todos se reían en el público.

This content was originally published here.

María del Mar Sánchez: Los docentes no podemos abrazar la IA (inteligencia artificial) a lo loco

La pedagoga y experta en tecnología educativa sostiene que los docentes deben tener la formación adecuada para enfrentarse a la IA y reivindica que se tenga en cuenta su punto de vista: “Tradicionalmente en las investigaciones sobre IA apenas se cuenta con la opinión del profesorado; es importante que todos podamos participar y construir el mundo que está por venir”.

La inteligencia artificial (más conocida ya por sus siglas, IA) ha venido para quedarse, aunque María del Mar Sánchez, pedagoga y experta en tecnología educativa, advierte: «Es frecuente que surjan herramientas que parece que lo van a cambiar todo, pero luego no transforman realmente el sistema porque el papel del docente sigue siendo fundamental para que tengan sentido». «Sentido» es el término que más se repite entre quienes abogan por una introducción sosegada y paulatina de la tecnología en el aula. No se trata, recuerda María del Mar, de rivalizar contra la máquina, sino de reivindicar lo que la máquina no puede (ni debe) hacer sin la intervención del docente.

Pregunta. Sin embargo, María del Mar, muchos todavía no saben qué es exactamente la IA…

La IA lleva tiempo conviviendo con nosotros. La podemos encontrar en nuestros móviles o en los sistemas de recomendación de las aplicaciones. Hay mucho debate sobre el concepto porque el propio término “inteligencia” puede ser controvertido en función de lo que se considere “inteligente”. Creo que la definición más aceptada sería la que explica que son sistemas capaces de realizar tareas que, tradicionalmente, requieren de la inteligencia humana.

¿Por eso nos sorprende tanto?

Sí, porque pueden tomar decisiones, establecer conversaciones y resolver problemas complejos. La llegada de ChatGPT, por ejemplo, ha hecho que hablemos de “inteligencia artificial generativa”, que es un tipo de aplicaciones de IA específicas que nos permiten generar contenido como texto, imagen y vídeos. Yo lo equiparo con la llegada de la web 2.0: Internet ya existía, pero los blogs y las redes sociales nos permitieron participar y crear en red. Pues bien, la IA ya existía, pero la IA generativa nos permite participar y crear con IA. Somos más conscientes de que está ahí.

¿Pasará de moda o ha venido para quedarse?

Es frecuente que surjan herramientas que parece que lo van a cambiar todo (las pizarras digitales, la robótica, los MOOC), pero luego no transforman realmente el sistema, porque el papel del docente sigue siendo fundamental para que tengan sentido. No obstante, hay algunas herramientas que son tan disruptivas y transforman tanto el mundo que la escuela no puede mirar para otro lado. Lo fue la llegada de internet y ahora lo es el boom de la IA. Pero que se use bien o no seguirá dependiendo de lo que hagamos con ella. Las bases de la didáctica y la tecnología educativa siguen ahí.

ChatGPT, al igual que otros modelos de lenguaje basados en aprendizaje automático, puede tener sesgos inherentes debido a la naturaleza de los datos con los que fue entrenado.

¿A qué ha venido entonces la IA?

La IA pone sobre la mesa la necesidad de la alfabetización digital y el desarrollo del pensamiento computacional; no porque tengamos que ser todos programadores, sino porque tenemos que entender cómo funcionan estos sistemas. Es necesario que sean transparentes respecto a los datos con los que se entrenan, porque podemos favorecer determinadas ideologías o visiones del mundo. Por ejemplo, ChatGPT, al igual que otros modelos de lenguaje basados en aprendizaje automático, puede tener sesgos inherentes debido a la naturaleza de los datos con los que fue entrenado, dado que gran parte del contenido en línea está en inglés y proviene de países occidentales.

Hay que ser entonces cautos…

Es importante saber y reclamar información sobre lo que hacen estos sistemas con nuestros datos. En este caso, la UE está haciendo un esfuerzo por regular y revisar este hecho. Hay aplicaciones de IA que aún no tenemos accesibles en nuestro país porque se está revisando el tema de la gestión de los datos y la privacidad. También está el sesgo de la brecha digital, que implica que reflexionemos acerca de si todos tenemos acceso a estos sistemas y si sabemos usarlos adecuadamente, de ahí la importancia de formarnos. El modelo de negocio que se está generando con las IA me hace preguntarme si habrá brecha entre quienes puedan permitirse una buena IA que les ayude y quien no podrá hacerlo. O si estos sistemas contribuirán a reproducir modelos educativos que no sean inclusivos. En nuestra mano está el futuro que queramos conseguir con la IA.

¿Podrá ser realmente ética y segura?

Es posible, pero requiere que haya consenso e interés por parte de investigadores, desarrolladores y políticos. Dentro de la red también hay posturas ideológicas y filosóficas. El movimiento del software libre, por ejemplo, no solo promueve liberar los programas informáticos, sino toda una cultura y una visión sobre lo que tiene que ser el ciberespacio. Sobre la IA también hay visiones, debates y posturas ideológicas.

¿Y los políticos qué pueden hacer?

La IA debería ser una prioridad política y regularse adecuadamente. Las administraciones educativas tienen que poner recursos, no solo para formar al profesorado, sino para darles tiempo y espacios en los que aprender y desarrollarse profesionalmente. El pensamiento computacional es parte de la Lomloe, pero enviar kits de robótica a los centros no es suficiente. ¿Damos oportunidades de aprendizaje reales? ¿Les damos tiempo para prepararse?

La IA ha puesto sobre la mesa el debate de los deberes y la evaluación en la educación; me parece positivo que afrontemos esas cuestiones, que hace tiempo deberíamos haber abordado

¿Y da la IA oportunidades reales?

Nos abre un abanico de posibilidades enorme. Por un lado, los sistemas de IA pueden ayudar a incrementar nuestra productividad de forma increíble si sabemos usarla adecuadamente. Por otro, pueden ayudar al aprendizaje personalizado y desarrollar sistemas con un potencial enorme para transformar, por ejemplo, la educación online. Y finalmente también se nos plantea un gran abanico de herramientas que podemos integrar en nuestra práctica docente en el marco de metodologías adecuadas. Además, ha puesto sobre la mesa el debate de los deberes y la evaluación en la educación y, aunque pueda parecer problemático, a mí me parece algo positivo que afrontemos esas cuestiones, que hace tiempo deberíamos haber abordado.

Dicen que la IA permitirá un aprendizaje a la carta.

Los sistemas de IA pueden analizar las respuestas y comportamientos de los estudiantes en tiempo real, adaptando el contenido y los recursos proporcionados según sus necesidades. Por ejemplo, si un estudiante tiene problemas con un concepto en particular, el sistema puede ofrecer material adicional o presentar la información de una manera diferente para tratar de que lo entienda mejor. Pueden también proporcionar feedback inmediato, así como ayudar a diseñar itinerarios de aprendizaje personalizado. Esto lo hacen los sistemas a partir de los datos. A medida que un estudiante interactúa con una plataforma de aprendizaje, genera una serie de información: qué respuestas elige, cuánto tiempo pasa en ciertas tareas, cómo navega a través del contenido, etc. La IA analiza estos datos para identificar patrones de comportamiento y aprendizaje.

¿Esta personalización se traduce en una educación más inclusiva?

Todo dependerá de cómo la utilicemos. Por ejemplo, los sistemas de IA pueden analizar el comportamiento y el rendimiento de los estudiantes para identificar a aquellos que pueden estar en riesgo de abandonar la escuela o que enfrentan dificultades educativas, dando información útil al profesorado para poder intervenir. También hay traductores automáticos y aplicaciones para personas con discapacidad, que pueden hacer que el contenido educativo sea más accesible. Pero también podríamos encontrar sistemas que perpetúen los sesgos presentes en los datos con los que fueron entrenados. Esto puede llevar a que se favorezca a ciertos grupos de estudiantes sobre otros, reforzando estereotipos y desigualdades. Por lo tanto, va a depender de las decisiones que tomemos y de los sistemas de IA que diseñemos.

El pensamiento computacional es parte de la Lomloe, pero enviar ‘kits’ de robótica a los centros no es suficiente. ¿Damos oportunidades de aprendizaje reales?

Los detractores vaticinan que la IA acabará con la cultura del esfuerzo.

Eso es un mito. Bien utilizada, la IA ayuda a incrementar nuestra productividad y esto nos puede permitir hacer tareas más complejas. Por ejemplo, la calculadora nos ayuda a no perder tiempo para poder resolver problemas más complejos. Pues bien, la IA puede funcionar de forma similar, siempre y cuando la incorporemos de forma adecuada.

¿Resta autonomía al alumnado?

Otro mito. Dependerá del sistema de IA, el contexto y los algoritmos que haya detrás. Ya existe debate sobre si tomamos nosotros las decisiones en red (y en la vida) o estamos condicionados por los algoritmos de las grandes multinacionales tecnológicas, por lo que sí es posible que exista un modelo de aprendizaje personalizado que tome las decisiones sobre el aprendizaje del alumnado. De ahí la importancia de entender estos sistemas y reclamar diseños éticos y justos socialmente.

¿Y rebajará la calidad de la enseñanza?

Dependerá de nuestro trabajo como docentes.

Hay quien dice que peligra…

El papel del docente se hace más importante que nunca, siempre y cuando entendamos que su rol no es solo el de transmisor de contenidos, sino el de facilitador de experiencias de aprendizaje.

¿De dónde surge entonces tanto catastrofismo?

Creo que es parte de la naturaleza humana, cuando llega un desarrollo tecnológico avanzado, cuestionar y afrontarlo con temor. Puede ser hasta positivo porque nos hace plantearnos los problemas que puede tener y es bueno que debatamos sobre ello. No obstante, al igual que no hay que abrazar estos sistemas sin reflexionar, tampoco podemos negar, y menos en la educación, la importancia de abordarlos desde la escuela, ya que la IA está aquí y tenemos que prepararnos todos para ello.

La pregunta no es ‘¿cómo hago mi tarea de siempre en el mundo de ChatGPT?’, sino ‘¿cómo puedo abordar este tema con otro tipo de tareas?’

Otros aseguran que la IA, más que un enemigo, es un aliado.

Nos ayuda a ser mucho más productivos. Hay herramientas que permiten diseñar planificaciones didácticas, presentaciones, vídeos. Nos pueden ayudar a generar rúbricas de evaluación, generar contenidos. Bien usadas, pueden contribuir al desarrollo profesional docente.

¿De qué manera?

La IA pone en evidencia que tenemos que mejorar nuestro enfoque sobre la competencia digital docente, que no pasa solo por la parte técnica sino por entender el lenguaje de las tecnologías, saber cómo integrarlas de manera didáctica y cómo mejorar su desarrollo profesional como docentes. Las herramientas de IA podrán ayudarnos a aprender y diseñar nuevos recursos, pero creo que lo importante es que cambiemos el enfoque sobre el desarrollo de la competencia digital docente y vayamos más allá de un enfoque meramente técnico.

¿Y se está formando adecuadamente a los docentes para ello?

En cuanto a la formación inicial, los compañeros de tecnología educativa de la Universidad de Murcia, por ejemplo, hemos incorporado estos temas en nuestras asignaturas e incluso tenemos un proyecto de innovación docente sobre el uso de la IA para el aprendizaje. Sé de compañeros de otras universidades que también lo están trabajando. Pero tenemos que tener en cuenta que la IA generativa ha entrado en tromba en la sociedad y los educadores no podemos tampoco abrazarla a lo loco; tenemos que entenderla y reflexionar sobre ella. Y eso requiere de tiempo.

¿Se están dando pasos en ese sentido?

Soy consciente de que muchos intereses formativos de las universidades y de centros de formación de las comunidades autónomas (que tienen las competencias en la formación continua) están puestos en la IA. También el INTEF a nivel ministerial hace tiempo plantea formación en este sentido. Es decir, estamos todos en ello. La clave está en generar espacios y tiempos para que realmente el profesorado pueda entender y abordar este asunto. También el enfoque de la formación me parece clave. A veces nos quedamos en aspectos técnicos y los profesores lo que quieren es saber cómo afrontar la llegada de la IA en su clase de Lengua de 3º de la ESO. Eso requiere comprender las estrategias didácticas y cómo integrar las tecnologías en ellas. A veces la pregunta no es “¿cómo hago mi tarea de siempre en el mundo de ChatGPT?”, sino “¿cómo puedo abordar este tema con otro tipo de tareas?”.

Las familias son las grandes olvidadas; también necesitan entender cómo son los sistemas de IA y cómo influyen en su vida y en la de sus hijos.

Y nos quedan las familias…

Hay que formarlas, por supuesto. A veces son las grandes olvidadas. También necesitan entender cómo son estos sistemas y cómo influyen en su vida y en la de sus hijos.

¿Poner límites verdaderos empieza por prohibir el móvil?

Una cosa es ser crítico con el uso de la tecnología y otra es directamente negar cualquier uso de la misma y atribuirle todos los problemas educativos. Vivimos en un mundo digital, negar la formación en la misma es cometer un error gravísimo. Estaremos abandonando a nuestros alumnos a merced de los intereses que otros puedan tener. La alfabetización mediática y digital es algo fundamental.

¿Qué nos queda por ver?

Ojalá lo supiera. Ahora mismo hay un boom con la IA que se rebajará, pero también creo que, al igual que Internet, ha venido para quedarse. Vamos a ir viendo aplicaciones nuevas un día tras otro y nuevos sistemas que cada vez tendrán más calidad. La clave será que tengamos la formación y los recursos para poder abordarlos adecuadamente desde la educación. También es importante reivindicar la creación de grupos multidisciplinares en la investigación sobre este asunto. Tradicionalmente en las investigaciones sobre IA apenas se cuenta con la opinión del profesorado. Es importante que todos podamos participar y construir el mundo que está por venir.

Este contenido ha sido publicado originalmente por Magisterio en la siguiente dirección: magisnet.com

La entrada María del Mar Sánchez: Los docentes no podemos abrazar la IA (inteligencia artificial) a lo loco se publicó primero en Web del Maestro CMF.

This content was originally published here.

Todos los ciudadanos mexicanos somos responsables y debemos trabajar en la construcción de nuestro futuro y el MÉXICO QUE TODOS QUEREMOS asegurando el constante fortalecimiento de la democracia, el estado de derecho y el bienestar social equitativo y sustentable.

Aviso de Privacidad

es_MXEspañol de México
es_MXEspañol de México