Cómo usar Stable Diffusion XL en cualquier ordenador para crear imágenes por inteligencia artificial

Vamos a explicarte cómo usar gratis Stable Diffusion XL en cualquier ordenador sin importar su potencia. Es la nueva versión de la inteligencia artificial para crear imágenes. Stable Diffusion fue el primer gran modelo de generación de imágenes mediante IA a partir de texto, y aunque en los últimos meses ha habido otros como Midjourney  y Dall-E que se han ganado mucha fama, los creadores de este primero han lanzado una nueva versión muy mejorada.

Estamos hablando de una de las mejores alternativas a Midjourney, que es de código abierto para que cualquiera pueda utilizarla gratis. Este nuevo modelo ofrece mucha más calidad de imagen y mejor resolución, además de otras mejoras en la fase de entrenamiento. También tiene más inteligente para entender los contextos de los prompts.

Para poder usar este modelo en un ordenador sin una poderosa GPU, vamos a utilizar el servicio Google Colab. Se trata de un servicio donde Google te presta hardware de forma remota, para que puedas ejecutar código en él. Lo bueno es que no tendrás límites de potencia para usar Stable Diffusion XL, y lo malo es que cada vez que quieras usarlo tendrás que repetir el proceso que te vamos a decir.

Stable Diffusion XL online en cualquier PC

Abre Colab

Si no tienes un ordenador potente, podrás usar Stable Diffusion XL en cualquiera mediante ESTE ENLACE de Google Colab. Con él irás a una ficha donde ya está el código para instalar y ejecutar Stable Diffusion XL.

Tipo Entorno

Una vez estés dentro de Colab, lo primero que tienes que hacer es pulsar en Entorno de ejecución, y pulsa en Cambiar tipo de entorno de ejecución. En la ventana que se abre, asegúrate de tener seleccionada la opción GPU en Acelerador por hardware. Así, te asegurarás de ejecutar esta IA de forma correcta.

Ejecuta Primero

Una vez lo hayas hecho, tienes que pulsar en el botón de ejecución de la primera celda de datos. Verás que el contenido de la página está dividido en dos grupos, pues pulsa en el botón con el símbolo de reproducción que hay a la izquierda del primero.

Esto ejecutará los códigos para instalar las dependencias de Stable Diffusion en la máquina virtual. Cuando pulses en la opción, te saldrá una advertencia diciéndote que el código no lo ha creado Google, y pulsa en la opción de ejecutar de todos modos. Verás que empiezan a salir letras debajo mientras realiza la tarea, y tienes que esperar a que se termine de instalar. Puede tardar unos minutos.

Ejecuta Segundo

Una vez se termine de ejecutar la primera, tienes que ejecutar la segunda celda. Para eso, pasa el ratón sobre ella hasta que aparezca el botón de ejecución, y pulsa sobre él.

Enlace

Esta celda no se detendrá, seguirá ejecutando la aplicación, y cuando ya no se mueva busca el enlace para acceder a la interfaz en el texto, que te pondrá Your quick Tunnel has been created! Visit it at.

Agree

Al pulsar sobre el enlace, se abrirá una página para ir configurando el modelo. Primero te aparecerán los textos de la licencia, con el nombre Stable Diffusion Model License. Ve abajo del todo y pulsa en Agree.

Interface

Ahora tendrás que ir configurando el modelo en varias páginas. Primero tendrás que elegir el tema de colores, luego tendrás que indicar que solo lo vas a usar tú en tu PC con la opción Just Yourself On This PC. Luego tendrás que elegir la forma en la que se ejecutará Stable Diffusion XL, y en ella tienes que elegir la opción ComfyUI.

Modelos

En el siguiente paso, tienes que elegir qué modelos quieres descargar. Puedes elegirlos todos si quieres, pero lo más importante es activar las dos opciones de Stable Diffusion XL, la base del modelo y la refinada. En la siguiente y última página verás el resumen, y tienes que pulsar en Yes, I’m sure para iniciar la instalación.

Elige Modelo

Cuando se termine la instalación, entrarás automáticamente a la página de Stable Diffusion XL. Antes de empezar a crear imágenes, abajo pulsa en la pestaña Models. En ella, pulsa en los dos puntos que aparecen en la columna de la izquierda, y elige el modelo OficialStableDiffusion. Aquí dentro, selecciona el modelo Stable Diffusion XL 1.0 Base.

Genera Imagen

Una vez elegido el modelo, simplemente tienes que escribir la descripción de lo que quieres en el cuadro de Prompt y pulsar en Generate Image para crear tu imagen a partir de tu descripción. El texto tiene que estar en inglés, y la generación de las imágenes a partir de cada descripción tardará unos segundos. También puedes poner Negative Prompts para añadir elementos que no quieres que aparezcan.

Y a partir de aquí, en la página también tienes otros ajustes para controlar al máximo la creación de la imagen, e incluso para decidir cuántas imágenes creas cada vez. Si también has instalado el modelo Refiner, en las opciones vas a poder activar la opción Refiner y cargar ahí ese modelo. Así, se mejorará todavía más la calidad.

Aquí, debes tener en cuenta que este modo no es infalible, y a veces puede fallar la aplicación, momento en el que puedes pulsar F5 para volver a cargar la página, o detener y volver a cargar el segundo paso de Google Colab.

En Xataka Basics | 18 extensiones basadas en inteligencia artificial y ChatGPT para Chrome, Edge, Firefox o Safari


La noticia

Cómo usar Stable Diffusion XL en cualquier ordenador para crear imágenes por inteligencia artificial

fue publicada originalmente en

Xataka

por
Yúbal Fernández

.

This content was originally published here.

El teclado de Google tendrá Inteligencia Artificial: podrá escribir por ti y crear emojis

Es evidente que Microsoft partió con ventaja en la nueva batalla por la Inteligencia Artificial. Gracias a su inversión en OpenAI, ha sido capaz de usar el mismo modelo de lenguaje que ChatGPT en sus productos, como Bing Chat. Y dentro de nada, Windows 11 tendrá su propia IA, llamada Copilot, que nos ayudará a escribir documentos de Word y responder a correos de Outlook.

La primera reacción de Google fue Bard, su propio ‘chatbot’ al estilo ChatGPT, pero no podía quedarse ahí. Los directivos han ordenado a sus empleados que encuentren maneras de integrar Inteligencia Artificial en todos sus productos, y cómo no, eso también afecta a Android.

Ya vimos que Android 14 tendrá algunas funciones de IA, como un generador de fondos de pantalla, pero eso será sólo el principio; y en los próximos meses, todas las principales apps de Google contarán con alguna función inteligente basada en los modelos creados por Google.

IA en el teclado

El teclado de Google, llamado Gboard, será una de las primeras apps en obtener esa integración. Según han descubierto en 9to5Google, la nueva versión de GBoard ya tiene referencias a funciones de Inteligencia Artificial, algunas de las cuales ya están en versión beta o sólo están disponibles en los Estados Unidos. Es un primer paso, para que en una futura actualización esté todo listo para que estas funciones estén disponibles para el usuario medio.

Tal vez la opción más interesante sea la del corrector automático con Inteligencia Artificial, que será capaz de revisar lo que escribimos en busca de fallos gramaticales y de ortografía. La función se llama, en inglés, ‘Proofread with Gboard’, y el mensaje emergente explica que sólo tendremos que dar un toque para que la IA repase el texto; sin embargo, advierte que al hacer eso tendrá que enviar el texto a los servidores de Google, donde permanecerá almacenado durante 60 días para ofrecer sugerencias y mejorar el servicio. Es algo necesario porque los móviles actuales no tienen el ‘hardware’ necesario para ejecutar servicios de IA de manera local.


La IA del teclado de Google podrá corregir nuestros textos y escribir en diferentes tonos

9to5Google

Aunque Gboard ya es capaz de mostrar sugerencias y correcciones, la función basada en IA dará un paso más allá, presentando varias opciones de corrección, modificando el texto para hacerlo más legible y fácil de entender. Incluso podremos pedir a la IA que escriba por nosotros. Igual que ya es posible en Gmail, Gboard podrá mostrar sugerencias para completar la frase por su cuenta sólo con ver el principio, y podremos elegir entre diferentes ‘tonos’, como uno más informal para hablar con los amigos, o uno más formal para negocios y trabajo.

Por último, Gboard incluso será capaz de generar emojis originales usando IA. De la misma manera que con Midjourney u otros generadores de imágenes, sólo tendremos que explicar el emoji que queremos, y la IA lo creará con el estilo del resto de emojis disponibles en el teclado.

This content was originally published here.

Moody’s y Microsoft utilizarán inteligencia artificial para evaluar el riesgo crediticio

Las compañías Moody’s y Microsoft  anunciaron una asociación estratégica para la utilización de inteligencia artificial servicios para la investigación y evaluación de riesgos basados en Azure OpenAI Service.

De acuerdo con Rob Fauber, presidente de la calificadora, en un mundo de riesgo exponencial, la IA generativa representa una oportunidad única para reunir los dominios de riesgo y ayudarles a las organizaciones a adaptarse y progresar.

“Tras combinar el innovador servicio Azure OpenAI de Microsoft con nuestra gran cantidad de datos, análisis y estudios, obtenemos nuevos productos y conocimientos holísticos para los clientes”, aseguró.

Asimismo, el directivo destacó que integrarán estas potentes capacidades en nuestra organización y las incorporaremos en su gama de productos y soluciones, a fin de proporcionarles a los clientes información a demanda y ayudarlos a identificar, gestionar y mitigar el riesgo de manera más eficaz.

Y es que la plataforma Moody’s CoPilot estará disponible para todos los empleados de la calificadora, la cual combina datos, análisis y estudios de propiedad exclusiva con grandes modelos lingüísticos y tecnología de IA generativa de primera clase de Microsoft, para fomentar la innovación en toda la empresa.

A su vez, Microsoft utiliza la amplia gama de soluciones de Moody’s, incluyendo su base de datos Orbis, para aplicaciones que incluyen datos de referencia de terceros, evaluación de riesgos de contraparte y gestión de la cadena de suministro.

Por su parte, Bill Borden, vicepresidente corporativo de servicios financieros mundiales de Microsoft, dijo que esta asociación reunirá información de clase mundial de Moody’s con las capacidades, la confianza y la amplitud de Microsoft Cloud, incluidos Azure OpenAI Service, Fabric y Teams,

“Esperamos con ansias las nuevas oportunidades y el valor que esto traerá a los empleados y las empresas en la banca, los mercados de capital y los seguros, así como en otras industrias como la fabricación, las telecomunicaciones, el transporte y los servicios públicos”, expresó.

This content was originally published here.

Rebeca Hwang: “La inteligencia artificial no es un tema de tecnología sino de expansión humana”

La inteligencia artificial es uno de los temas del momento. Porque se habla de tecnología, pero también de cómo esta tecnología puede expandir (o perjudicar) las posibilidades de la especie humana.

Rebeca Hwang es una referente de la temática. Nació en Seúl, Corea, vivió su infancia y adolescencia en Argentina, estudió en el Colegio Nacional Buenos Aires y luego siguió su formación en el Massachusetts Institute of Technology (MIT) y en Stanford. Desde 2003 lidera proyectos en Silicon Valley y fue reconocida como una de las Jóvenes Líderes Globales del Foro Económico Mundial y como una de las 35 Innovadores Globales menores de 35 años por el MIT Tech Review. Además es emprendedora y docente.

“En 25 años de estar en Estados Unidos, no vimos una revolución tecnológica como esta. En un día, Chat GPT alcanzó 100 millones de descargas, que a Netflix o Facebook le tomaron años”, puntualizó en una charla abierta organizada por la Fundación OSDE en su auditorio porteño. “La inteligencia artificial no es un tema de tecnología sino de expansión humana”, definió.

Hwang conoce desde dentro la industria de la tecnología y el conocimiento, y eso le permite analizar escenarios y detectar tendencias. “Ha cambiado radicalmente la narrativa. Hace un año hablábamos más de metaverso y criptomonedas, últimamente la tendencia migró hacia IA. En el último tiempo, alrededor de 250 mil ingenieros y programadores despedidos de distintos gigantes de Silicon Valley migraron hacia IA y están abocados a esto. Es un impulso importante. No se trata de que las otras cosas vayan a desaparecer, sino de que cambió la tendencia, este es el sector que capta más talento y más fondos para financiar nuevos desarrollos”.

Como contrapartida, un sector que venía con mucho impulso y experimentó un freno importante es el de la movilidad inteligente. “En EEUU los sindicatos y los seguros son una barrera para la automatización de empleos como el de los camioneros. Por eso, el proceso va a tomar unos años. En consecuencia, ese sector parecería tener cierta continuidad laboral garantizada, que no tendría, por ejemplo, un ingeniero químico de Stanford”, explicó.

Rebeca Hwang, en la charla que dio en el auditorio de la Fundación OSDE.


Rebeca Hwang, en la charla que dio en el auditorio de la Fundación OSDE.

Hwang comparó a ChatGPT con un niño. “Si le dedicamos a ChatGPT un par de horas diarias durante algunos años, va a terminar por conocernos mejor de lo que nos conocemos nosotros mismos. Cada vez que la usamos, la aplicación aprende de nosotros, incluso hasta a manipularnos. De la misma manera que un chico de cinco años sabe qué hacer o decir para obtener dulces de sus padres. Cuando llegan a la adolescencia, la manipulación se hace más sofisticada, y ya no quieren dulces sino tarjetas de crédito. La IA aún no está en ese punto pero llegará”.

La pregunta que sobrevuela es, entonces, por el futuro. “Hemos creado una tecnología con gran potencial para hacer el bien, pero el resultado no está garantizado”, concedió. Y tras recordar que Geoffrey Hinton, considerado “el padrino” de la IA, renunció a Google porque “teme el potencial daño que está tecnología puede hacer en el futuro y no quiere su nombre asociado a algo similar a lo que fue la bomba atómica”, vaticinó que “la tecnología va a terminar haciendo por nosotros lo que le pidamos que haga. En eso juegan mucho las instituciones, las reglas, regulaciones, la ética”.

Hwang contó que se pueden crear, en base a archivos de las personas públicas, clones muy similares a las personas reales, difíciles de distinguir: “La pregunta ética es quién da permiso para desarrollar eso. Piensen en el daño potencial a la democracia, ¿quién puede distinguir si esa declaración la hizo el candidato real o un clon? En esta campaña en EE.UU., la IA va a ser lo que fueron los social media para Obama en 2008. El candidato que tenga mayor dominio de esto, corre con ventaja”. La tecnología, explica, implica la posibilidad de sofisticar aún más las fake news.

Por último, reflexionó sobre las similitudes y diferencias entre la IA y los seres humanos. “La máquina aprende: toca, se quema y no toca más. El ser humano no: se enamora, se emociona, se puede casar ocho veces”, concluyó.

Voicebox: la nueva inteligencia artificial de Meta es tan buena imitando voces que no será liberada al público

Paul McCartney lo deja claro: en la nueva canción de Los Beatles con inteligencia artificial todo es real

This content was originally published here.

Google Assistant con esteroides: por fin la Inteligencia Artificial de Bard llegará al asistente para que dé respuestas personalizadas

Bard como parte del asistente de Google. En el evento de presentación de los nuevos Pixel Watch 2 y Pixel 8, la compañía también mostró las novedades que tendrá su inteligencia artificial generativa.

Según Sissy Hsiao, vicepresidenta y directora general de Google Assistant y Bard, este nuevo “experimento” llamado Assistant with Bard, fusiona las capacidades del asistente con la IA para crear un producto “más intuitivo, inteligente y personalizado“.

Esta nueva herramienta, incorpora las capacidades de la IA generativa y de razonamiento de Bard con la ayuda que puede proporcionar el asistente. La interacción con este sistema puede llevarse a cabo mediante texto, voz o imágenes, permitiendo también solicitar acciones como recordatorios o alarmas.

Las nuevas capacidades del asistente

Google detalla que Assistant with Bard también puede obtener información del usuario desde herramientas como Gmail o Docs o interactuar con otros servicios de la compañía, como Maps.

Durante el evento Made By Google, Hsiao ilustró cómo Assistant with Bard puede enviar mensajes de texto y responder a solicitudes, como la creación de listas de compras para fiestas, indicando qué ingredientes se necesitan para recetas específicas.

Al igual que GPT-4, Bard es multimodal, lo que implica que no solo responde a entradas de audio o texto, sino que también utiliza información de imágenes ingresadas.

Esta capacidad permite a Assistant with Bard analizar fotografías y generar contenido, como texto para acompañar publicaciones en redes sociales, con solo solicitarlo.

Asistente con IA para todos

Google ha anunciado que se podrá acceder a Assistant with Bard en dispositivos móviles, no solo en Android, sino también en iOS.

Dado que se trata de un experimento inicial, se llevarán a cabo pruebas con evaluadores antes de su lanzamiento al público en general. Eso sí, Hsiao insinuó que uno de los primeros dispositivos en recibir esta función será el Pixel 8.


La noticia

Google Assistant con esteroides: por fin la Inteligencia Artificial de Bard llegará al asistente para que dé respuestas personalizadas

fue publicada originalmente en

Xataka México

por
Gonzalo Hernández

.

This content was originally published here.

Según la Inteligencia Artificial, la Virgen de Guadalupe tiene un rostro mestizo – Luis Guillermo Digital

La Inteligencia Artificial sigue asombrado a millones de internautas con las funciones que actualmente puede realizar. Hace unos meses trascendió que cientos de personas han utilizado estas herramientas tecnológicas para crear imágenes falsas. En este contexto, los usuarios de internet han utilizado la tecnología para plasmar cómo sería el rostro de la Virgen de Guadalupe, con base en el lugar en el que nació. De acuerdo con las personas que realizaron el proyecto, la recreación con Inteligencia Artificial (IA) tiene como objetivo dar una imagen mucho más realista de la Virgen de Guadalupe, así como identificar las características étnicas de la figura religiosa y alejarla del retrato que muestran las pinturas actuales. El proyecto inició luego de un análisis detallado a la imagen que se encuentra localizada en la Basílica de Guadalupe, en la Ciudad de México. La iniciativa fue realizada por un grupo de científicos de Anahuac Enciclopedy, quienes emplearon la Inteligencia Artificial para descomponer y estudiar cada rasgo de la figura religiosa, hasta poder darle una estructura y rostro, de acuerdo a las características étnicas de su lugar de origen. Según el equipo que realizó el proyecto, la recreación – realizada con IA- respetó los rasgos faciales de la imagen religiosa original. Lo que hicieron los especialistas fue buscar realismo y no caer en interpretaciones caricaturescas, respetando la etnia y las características de la Virgen de Guadalupe. #Entérate📸 Recrean rostro de la Virgen de Guadalupe con ayuda de la Inteligencia Artifical Científicos de la agrupación Anahuac Enciclopedy, aseguraron que esta imagen, sería la aproximación más fiel que la inteligencia artificial pudo realizar, ya que para observar sus… pic.twitter.com/WW50go2EwE — xevt – xhvt (@xevtfm) December 10, 2023 GENERA DEBATE EN REDES Finalmente, en la imagen, generada con IA, se representa el rostro de la Virgen de Guadalupe mezclando rasgos europeos, asiáticos, africanos, arábigos, hindúes y de indígenas de México. La imagen fue difundida en plataformas de Anahuac Enciclopedy y ocasionó un fuerte debate entre la comunidad religiosa.

This content was originally published here.

Si eres mujer y pobre, corres mayor riesgo de perder tu empleo por la automatización y la inteligencia artificial

Si eres mujer y pobre, corres mayor riesgo de perder tu empleo por la automatización y la inteligencia artificial Desde las colectoras de té en Kenia hasta las trabajadoras del textil en Bangladés, las trabajadoras son las más amenazadas por el uso de la inteligencia artificial y la mecanización, pues ocupan la mayoría de puestos sustituibles por máquinas y se benefician menos de los planes de reconversión Rose Nyunja tenía solo 18 años cuando empezó a trabajar en las plantaciones de té de Kericho, la mayor región productora de esta planta de Kenia y una de las principales fuentes de empleo para las mujeres pobres del país. Durante décadas, se mató a trabajar en las explotaciones, recogiendo las hojas a mano. Después llegaron las máquinas de recolección y millares de mujeres como Nyunja empezaron a perder sus empleos, pues solo una de esas máquinas era capaz de sustituir a más de 100 trabajadores. Una noche de 2020, Nyunja regresó a las viviendas de las empleadas y se encontró la puerta bloqueada con una barrera. La habían despedido. Suplicó al supervisor que salvara su puesto de trabajo y su hogar. En lugar de eso, los agentes de seguridad de la empresa la expulsaron del recinto. “Mis 26 años de servicio no significaban nada para ellos”, se lamenta, luchando por contener las lágrimas. “Me dieron una hora para recoger mis pertenencias y marcharme. Nunca en mi vida había experimentado tanta humillación y vergüenza. He trabajado diligentemente durante más de dos décadas y ¿qué he conseguido? Nada”. El Sindicato de Trabajadores Agrícolas y de Plantaciones de Kenia afirma que 30.000 mujeres han perdido su empleo como consecuencia de la automatización en los últimos cinco años. Alrededor del 60% de los 75.000 trabajadores empleados actualmente en el sector del té son mujeres, frente al 75% estimado en 2017, según Dickson Sang, secretario general del sindicato. A medida que las plantaciones de té de Kenia se automatizan para mejorar la productividad, las trabajadoras como Nyunja representan una tendencia mundial más amplia: las mujeres tienen más probabilidades que los hombres de perder sus empleos. Un estudio británico de 2019 revelaba que el 70% de los puestos de trabajo con alto riesgo de automatización están ocupados por mujeres en el Reino Unido. Y el pasado abril, un estudio de la Universidad de Carolina del Norte halló que casi el 80% de la mano de obra femenina en Estados Unidos se verá afectada por los avances en la inteligencia artificial (IA) generativa, en comparación con el 58% de los hombres. Aunque los recientes avances de la IA generativa han agravado la preocupación por la disminución de puestos de trabajo para los empleados administrativos, las pérdidas de empleo debidas al aumento de la automatización en las empresas llevan años produciéndose, como se ha visto en Kenia. Kweilin Ellingrud, directora del McKinsey Global Institute, afirma que su investigación muestra que es 14 veces más probable que la automatización afecte a los trabajadores con salarios bajos que a los que ganan más. El 80% de la mano de obra femenina en Estados Unidos se verá afectada por los avances en la inteligencia artificial generativa, en comparación con el 58% de los hombres “Creo que la razón por la que acapara titulares es porque también está afectando por primera vez a los empleos con salarios más altos”, afirma Ellingrud. “Me parece que ahora la IA generativa está centrándose en puestos de trabajo de todo tipo: afecta a tu trabajo, afecta a mi trabajo. Algunos de nosotros, yo incluida, no estamos acostumbrados a pensar en cómo tendrá que cambiar mi trabajo o en qué va a cambiar”. La pandemia de covid-19 demostró además que las mujeres tienen más probabilidades de perder su empleo en periodos de agitación económica, y tardan más en reincorporarse a la población activa. “El desempleo femenino dura más”, afirma Ellingrud. Su investigación en McKinsey ha revelado que 12 millones de personas tendrán que cambiar de trabajo de aquí a 2030, y que las trabajadoras tienen 1,5 veces más probabilidades que los hombres de verse obligadas a cambiar de ocupación. En su opinión, esto significa que los gobiernos y las empresas deben adoptar urgentemente medidas específicas para reciclar y mejorar la cualificación de las mujeres. En Kericho, Roselyne Wasike, recolectora de té, cuenta que sus ingresos han caído casi a la mitad, de 150 a 80 dólares al mes (de 140 a 75 euros), a medida que las máquinas se han ido haciendo cargo de más partes del trabajo en la plantación. Ni siquiera los que han conseguido conservar su empleo pueden escapar al impacto de la automatización. “Estas máquinas han perjudicado a las mujeres a las que han despedido, en lugar de darles otras tareas dentro de las explotaciones de té”, afirma Wasike. Muchas de ellas son viudas o madres solteras. El resentimiento hacia las máquinas se tradujo en violencia el pasado mes de mayo, cuando los residentes de Kericho incendiaron nueve máquinas cosechadoras valoradas en 1,2 millones de dólares (1,1 millones de euros) en una plantación propiedad de Ekaterra, el productor de los tés Lipton y TAZO. El enfrentamiento se saldó con dos muertos y la detención del gobernador de Kericho. Ekaterra suspendió sus operaciones durante dos semanas, dejando sin trabajo a más de 16.000 empleados. El 85% de los empleos afectados por la IA generativa se concentrarán en cuatro categorías laborales: servicios de alimentación, atención al cliente y ventas, administración de oficinas y fabricación Uno de los puntos en disputa había sido una disposición del convenio colectivo del sector según la cual se mantendría a los trabajadores, en su mayoría mujeres, como operadores de máquinas. Los dirigentes sindicales afirman que las multinacionales se han “negado en redondo” a aplicarla. “No apruebo la destrucción de la propiedad. Pero ahora estos trabajadores están tomando represalias porque las empresas de té siguen cambiando las reglas del juego”, afirma Sang. Ellingrud explica que el 85% de los empleos afectados por la IA generativa se concentrarán en cuatro categorías laborales: servicios de alimentación, atención al cliente y ventas, administración de oficinas y fabricación. En las tres primeras predominan las mujeres. Incluso en el sector manufacturero, las trabajadoras como Nyunja son más vulnerables en comparación con los hombres, que tienen más posibilidades de ser reciclados para funciones relacionadas con la automatización. Ropa hecha en Bangladés, pero no por humanos La automatización también ha cambiado radicalmente la composición del sector de la confección de Bangladés, antes aclamado por transformar las perspectivas de empleo de las mujeres. En el pasado, las mujeres representaban más del 80% de la mano de obra del sector, mientras que ahora representan menos del 60%. En 2019, el Gobierno preveía que medio millón de trabajadores de la confección, en su mayoría mujeres, perderían su empleo a causa de la automatización. En el Centro de Formación y Confección Moni de Savar, situado al norte de la capital, Dacca, Mizanur Rahman enseña a sus alumnos a manejar las máquinas de tejer y tricotar. Rahman, extrabajador de la confección, explica cómo contratan instructoras para las alumnas y ofrecen horarios flexibles para que las mujeres puedan acudir antes o después de ocuparse de las tareas domésticas. Señala que la confianza que adquieren con su formación puede traducirse en un mayor reconocimiento en el trabajo. En 2019, el Gobierno de Bangladés preveía que medio millón de trabajadores de la confección, en su mayoría mujeres, perderían su empleo a causa de la automatización “Muchas de mis alumnas obtienen buenos resultados y ascienden a puestos de supervisora o jefa de línea”, afirma Rahman. Es probable que las funciones de supervisión y de manejo de tecnología automatizada sean algunos de los empleos clave que sobrevivan en un panorama posautomatización. Pero ambos tienden a estar dominados por los hombres. En la industria de la confección de Bangladés, las mujeres han representado durante mucho tiempo menos del 5% de los supervisores, a pesar de constituir una mayoría significativa de la mano de obra. Ha habido algunas señales de éxito. El proyecto Igualdad de Género y Rendimiento, dirigido por la Corporación Financiera Internacional del Banco Mundial y la Organización Internacional del Trabajo, afirma que el 60% de sus aprendices han sido promovidas a puestos de supervisión, y el número de mujeres supervisoras en la industria ha saltado al 12% desde que comenzó el programa en 2016. Abdullah Hil Rakib, director de la Asociación de Fabricantes y Exportadores de Ropa de Bangladés, la mayor asociación comercial del sector en el país, asegura que el principal obstáculo para que las mujeres prosperen en puestos de supervisión u operadoras de máquinas es psicológico. “Es una barrera mental”, afirma. Señala que la automatización supone un trabajo menos agotador físicamente tanto para hombres como para mujeres, lo que elimina una dificultad que antes habría hecho que algunos puestos de trabajo fueran menos accesibles para las mujeres. “Incluso cuando un hombre maneja una pesada máquina de corte automático, solo tiene que pulsar un interruptor para encenderla y apagarla. No necesita hacer más”, sostiene Rakib. Ellingrud anota que alrededor del 10% de los empleos que se crean cada año suelen ser nuevas funciones que antes no existían, pero las mujeres ocupan estos puestos en menor proporción que los hombres. Las que no sean capaces de adaptarse corren el riesgo de quedarse fuera de la nueva economía. Pero esa adaptación parece una posibilidad lejana en Kericho, donde Nyunja vende verduras en la calle para llegar a fin de mes. “Antes podía cuidar de mi familia y pagar la escuela de mis hijos”, se lamenta. “Ahora mi futuro parece sombrío. Apenas puedo pagar el alquiler, y mucho menos enviar a mi hijo a la escuela”. Puedes seguir a Planeta Futuro en X , , y TikTok y suscribirte aquí a nuestra ‘newsletter’ .

This content was originally published here.

Facundo Sapienza, el argentino de la Universidad de Berkeley que estudia los glaciares con inteligencia artificial

HEIDELBERG, Alemania.– Los glaciares, con sus idas y vueltas, sus ampliaciones y recortes, han formateado la vida de la Tierra desde su mismo comienzo. Y, por supuesto, son más que muy importantes por su contenido de agua dulce (almacenan alrededor del 70% del total existente) tanto como por su incidencia en el nivel del mar. Hoy, en la era del deshielo, el conocimiento acerca de esos campos blancos incluye predicciones tristes y pérdidas. Pero todavía hay algunos huecos en el saber para que llene la ciencia.

A eso se dedica Facundo Sapienza, un argentino de 29 años que trabaja en la Universidad de Berkeley, California, donde busca mejorar sistemas de inteligencia artificial para predecir qué sucederá con el agua congelada del planeta. Formado en física y matemática en la UBA y luego volcado a una de las ramas de la inteligencia artificial, como es el denominado machine learning, Sapienza participó en el sur de Alemania del Heidelberg Laureate Forum, con las principales figuras del campo de la matemática y la computación.

La intención del argentino es generar un mecanismo que tome datos de los sistemas satelitales y de otras formas de medición para hacer estimaciones más precisas de qué puede suceder con esos hielos. “Los glaciares son un objeto de estudio interesante, pero es trágico porque cualquier predicción sobre lo que les va a suceder no será muy buena. Pero son hermosos y saber cómo funcionan es genial”, le dijo a LA NACION.

–¿Qué falta conocer de los glaciares que con esta herramienta tecnología se podría saber?

–Trabajo en modelado de glaciares y otros sistemas de la tierra. Tenemos cierto entendimiento de la geofísica de un glaciar, cuáles son las ecuaciones que gobiernan el flujo del glaciar. Pero al mismo tiempo hay dinámicas que no conocemos, por ejemplo cómo responderán al cambio climático, o a cierta temperatura del aire o del hielo. Otra gran incógnita es qué pasa en lo que se llama la cama, el contacto entre la roca y el hielo, cómo el glaciar desliza más o menos, según temporada, según agua y lubricación. En los últimos años se obtuvieron más datos globales, tomados de satélites, que permiten un mapeo global de los glaciares del mundo. Es un problema del que sabemos un poco, pero falta la imagen completa del mecanismo. Con datos y modelos nuevos de IA y machine learning se facilita el proceso de estas observaciones y teorías para ver cómo hacer para que se igualen.

–¿La idea es mejorar los modelos para tener buenas predicciones?

–Hay partes que se ajustan con las predicciones y otras no. Por eso es preciso que sean más flexibles. Cada glaciar es particular y en ocasiones se hace modelados individuales, pero mi trabajo es global. Con datos de 3000 glaciares con características distintas se puede entender, por ejemplo, si están distinta altura, cómo reaccionan ante el clima, si la roca sobre la que se apoya es distinta. Ese es el tipo de preguntas que trato de resolver. Esa variabilidad entre glaciares con modelos dinámicos.

–¿Qué hace un sistema de machine learning que un humano no puede hacer?

–En principio, el paradigma es parecido. Queremos encontrar parámetros de que lo que observás sea bueno. Optimizar el mecanismo para que las observaciones se ajusten a la predicción. Con ese entrenamiento se espera que la predicción se encuentre en las observaciones. Que esto sea explicativo e interpretable desde la física, tratar de ver el mecanismo físico que controla esto.

–¿Cuántos glaciares hay y qué puede pasar con ellos en las próximas décadas?

–Unos 220.000, alrededor de ese número; por supuesto, con distintos tamaños y ubicaciones. Son bastantes datos para agregar en el sistema de análisis. Los trabajos que se han hecho son con escenarios a 2100 por lo general. Y muestran que incluso con reducción en las emisiones de gases de efecto invernadero, cosa que no está sucediendo, en los Alpes por ejemplo se perdería más del 70% del hielo. Eso va a pasar. Se podrían regenerar, pero llevan un tiempo porque son sistemas difíciles de modelar y no se recuperan después de un verano fuerte, cuesta que se adapten. Así que eso se va a ver.

–¿Se trata de sistemas caóticos (más difíciles de predecir)?

–Es un sistema que no es caótico, pero igual es difícil la predicción porque es sensible y si cambia por decir algo un poco la propiedad del hielo fluye más rápido o más lento. De hecho, desde la física lo describimos como fluido, pero es un fluido lento a diferencia del mar o de la atmósfera. Si lo grabás ves que se desliza como un fluido en cámara lenta. El hielo fluye de manera no lineal. Si algo afecta al clima y a la temperatura el glaciar responde de cierta manera.

–¿Cómo termina un matemático estudiando glaciares?

–En la Argentina estudié física y matemática, pero siempre el corazón estuvo con naturales y el modelado matemático. Así que apliqué al doctorado, había hecho estadística quería ver cómo aplicarla a las ciencias naturales. Y mi director me sugirió el tema de glaciares así que conecté con glaciólogos y arrancamos el trabajo. Es un objeto de estudio interesante, pero es trágico porque cualquier predicción que hagas no será muy buena. Pero son hermosos y saber cómo funcionan es genial. Y las herramientas de estos sistemas complejos se facilitan con la tecnología y la ciencia de datos. No es simplemente resolver el problema matemático sino también el software, por eso se interesa también en la computación científica para que estas herramientas funcionen correctamente.

–Más allá de las abstracciones y algoritmos, ¿vas a glaciares?

–Sí, organizamos desde hace un par de años un taller de machine learning en glaciares en una base al lado de un glaciar en Noruega. Hay mucho interés en la comunidad para aplicar nuestras herramientas. Así que fui y caminé los glaciares, pero como matemático no propiamente un glaciólogo [ríe]. Pero está buena esa interacción con glaciólogos que trabajan in situ. Está muy bueno combinar los distintos campos. Después de un par de año convergés a un punto en común y hablás el mismo vocabulario con gente con otra formación, esa la esencia de la interdisciplina, hay aprendizajes mutuos.

This content was originally published here.

La inteligencia artificial se entrena con el trabajo robado a millones de artistas  | Violaciones a los derechos de autor | Página|12

“Queremos luchar por que el trabajo de un actor lo haga siempre un ser humano”, sentencia Raúl Lara, presidente del Sindicato de Artistas de Doblaje de Madrid (Adoma).

Su cruzada comenzó esta primavera, cuando un estudio de grabación español organizó una “convocatoria de emociones“, por encargo de una multinacional. En ella, se pedía a actores que expresaran distintas entonaciones y sentimientos con su voz.

“Al principio, no sabíamos para qué era. Hasta que nos dieron un documento de cesión de derechos que decía que era para entrenar a una red neuronal. En cuanto nos enteramos, paramos la convocatoria. Era la definición de pan para hoy y hambre para mañana”, cuenta Lara a Público.

Los actores se movilizaron y se pusieron en contacto con otros sindicatos hermanos en distintos puntos de España: València, Sevilla, Galicia, Euskadi, Barcelona…

“Todos los compañeros estábamos de acuerdo. Queremos parar esto hasta que no esté regulado y haya unas reglas del juego”, señala. Con este fin, crearon la plataforma de Asociaciones y Sindicatos de Artistas de Voz de España (PASAVE), que lanza un “mensaje de unidad” delante de las empresas tecnológicas.

“Hemos pedido a los estudios de grabación que se incluya una cláusula específica en nuestros contratos donde especifique que no se pueden usar nuestras voces para entrenar a inteligencia artificial“, recalca Lara.

Por el momento, están esperando que los clientes de los estudios de grabación, compañías gigantescas como Netflix, Disney y Warner, den una respuesta.

Lo mismo se está haciendo a nivel europeo con la plataforma United Voice Artists, que también acoge a sindicatos de Latinoamérica y EEUU e hizo público un manifiesto en el último festival de Cannes, pidiendo que se detenga el “entrenamiento y clonado ilegal de sus voces”.

Alimento humano para la IA

Raúl Lara: “La inteligencia artificial se entrena con el trabajo robado a millones de artistas”

Porque para que la inteligencia artificial generativa produzca voces con la mayor naturalidad posible, necesita entrenarse primero con materia prima de origen humano.

“Toda esta tecnología está muy avanzada en inglés y en el español de Latinoamérica, pero no en el de España“, señala Raúl Lara. “Detrás de esto hay multinacionales que buscan ofrecer paquetes de IA generativa de audio en todos los idiomas de la Unión Europea”, añade.

Por eso, están a la busca y captura de alimento –voces reales– para educar a sus algoritmos. Y qué mejor que utilizar actores de doblaje profesionales. “La inteligencia artificial se entrena con el trabajo robado a millones de artistas”, denuncia Lara.

Hartas de esta situación, en enero, un grupo de pintoras e ilustradoras estadounidenses demandó a tres compañías de IA generativa, Midjourney, Stable Difussion y DreamUp, por usar las imágenes de sus obras en el proceso de minería de datos y entrenamiento de los algoritmos.

Sin su consentimiento, sin compensarles económicamente por su aportación –aunque las plataformas sí cobran por el uso de sus herramientas– y sin citarlas en los créditos.

“Estos generadores de imágenes presentan su producto como si estuviera libre de copyright. Pero, en realidad, lo que ofrecen en un trabajo derivado de otras obras que tienen propiedad intelectual”, afirmaba hace unas semanas uno de los abogados que lleva el caso, Matthrew Butterick, en The New Yorker.

Derechos de autor relegados por la tecnología

Una demanda como la suya, sin embargo, no podría prosperar hoy por hoy en la Unión Europea, ya que, dentro de las excepciones a la Ley de propiedad intelectual que se redactaron en 2019 está la de “pastiche”, donde se ha incluido a la IA generativa, según explica a Público el abogado experto en derechos de autor Santiago Mediano, presidente de la Sección de Robótica, Inteligencia Artificial, Realidad Virtual y Aumentada Colegio de Abogados de Madrid.

“La Directiva de Mercado Único Digital dictamina que el uso de todo el acerbo cultural de la humanidad para entrenar a la inteligencia artificial no requiere del consentimiento del propietario de esa propiedad intelectual. De acuerdo con la legislación europea, los derechos de autor no pueden ser un obstáculo para el desarrollo de la tecnología”, nos dice.

Por defecto, todas las obras publicadas pueden ser empleadas libremente para dar de comer a los hambrientos algoritmos. A no ser que su autor haya indicado expresamente su negativa.

Sin embargo, “el opt-out es un sistema poco realista y eficiente. Es muy difícil marcar todas las creaciones con una reserva de derechos a efectos de la minería de datos”, advierte Santiago Mediano.

“Preveo grandes tensiones con el tema de la propiedad intelectual. Estamos viviendo un proceso de low-costización, con una enorme pérdida de valor en los bienes culturales. Las plataformas audiovisuales han depreciado la difusión de contenidos artísticos y, ahora, la tecnología también quiere intervenir en su creación”, observa Mediano.

El arte, humano por definición

Así las cosas, “todo apunta a que la UE será la primera en legislar respecto a IA y derechos de propiedad intelectual”, apunta Lara. Por el momento, el sindicato Adoma se ha reunido con el Ministerio de Cultura para aportar su visión sobre cómo tiene que ser esta nueva ley de inteligencia artificial respecto a la cultura.

“Pedimos que haya transparencia: que se sepa con qué actores ha sido entrenada la IA, para poder cobrar derechos de propiedad intelectual. También, que siempre haya una marca de agua que identifique cuando una voz no es humana, sino sintética. Y que se abra un debate sobre si se puede permitir que una máquina haga de forma autónoma una simulación de arte”, indica.

En opinión de este actor, “el arte es lo que nos diferencia como especie. Sería terrible reconocerle derechos de autor a una máquina“. Aún en entrevista telefónica, el sentimiento acentúa sus palabras y nos contagia cuando añade: “Los artistas son seres humanos y el arte, por definición, es algo que nace del alma humana. Una IA puede hacer algo muy perfecto técnicamente, pero no puede replicar una emoción genuina”.

This content was originally published here.

Inteligencia artificial: humanizaron a los personajes de Dragon Ball Z y quedaron iguales al animé

La inteligencia artificial lo hizo de nuevo. Y esta vez le tocó a los recordados personajes de una de las series de animé más populares de la historia: Dragon Ball Z.

Un usuario de Reddit con el nick @mortecouille92 pensó en cómo se verían si fueran humanos los protagonistas de la saga y le pidió a Midjourney que se imagine las versiones hiperrealistas de Goku, Vegeta y compañía. Y el resultado dejó con la boca abierta a muchos.

Leé también: La inteligencia artificial imaginó a Mafalda, Hijitus y Anteojito como si fueran nenes reales

Así se verían en la vida real los personajes de Dragon Ball Z

  • Vegeta
Vegeta - Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
Vegeta – Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
  • Nappa
Nappa - Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
Nappa – Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92

Leé también: Así se vería Lionel Messi si hubiera nacido en otros países, según la inteligencia artificial

  • Bulma
Bulma - Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
Bulma – Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
  • Pan
Pan - Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
Pan – Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
  • Goku
Goku- Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92
Goku- Dragon Ball Z. (Capturas: Dragon Ball/Reddit @mortecouille92

Qué es Dragon Ball

Dragon Ballse publicó como manga por primera vez el 20 de noviembre de 1984, en la revista semanal Shōnen Jump. Enseguida se adaptó a la televisión, con una serie que marcó a varias generaciones y llevó el arte animado japonés a otro nivel.

Fue el propio Akira Toriyama, creador de la serie, el encargado de supervisar la adaptación, en especial en la selección de la voz de los personajes, que salió al aire en Fuji TV en 1986.

La serie tuvo tanto éxito y era tan compleja su realización que para poder cumplir con la entrega semanal, hasta cuatro compañías diferentes colaboraron en la animación bajo la producción de Toei, el estudio que se encargó del animé.

Leé también: Así se verían los hijos de parejas de famosos, según la inteligencia artificial

Dragon Ball estuvo compuesto de 153 capítulos basados en los primeros 16 tomos de los 42 que tuvo el manga hasta que dejó de publicarse en 1995.

La historia cautivó inmediatamente. La tierna picardía de Goku, y su encuentro con Bulma, en la búsqueda de las Esferas del Dragón hicieron vivir una serie de aventuras fantásticas que alimentaron el espíritu del pequeño guerrero, apoyado en la novela clásica china de Sun Wukong, el “Rey Mono”, en su viaje que duró años y alimentó la imaginación de jóvenes en todo el mundo.

La serie original concluyó en enero de 1996, después de que el autor decidiese no seguir dibujando las historias de Goku, sus amigos y descendientes. Sin embargo, Dragon Ball ya se había convertido en una franquicia mega rentable y los responsables de la serie de televisión no querían matar a la gallina de los huevos de oro.

This content was originally published here.

Todos los ciudadanos mexicanos somos responsables y debemos trabajar en la construcción de nuestro futuro y el MÉXICO QUE TODOS QUEREMOS asegurando el constante fortalecimiento de la democracia, el estado de derecho y el bienestar social equitativo y sustentable.

Aviso de Privacidad

es_MXEspañol de México
es_MXEspañol de México