Swift anuncia pruebas para explorar cómo la inteligencia artificial podría ayudar a combatir el fraude en los pagos transfronterizos.
Swift, la red de comunicación internacional entre bancos, anunció dos pruebas basadas en Inteligencia Artificial (IA) en colaboración con sus miembros, para explorar cómo la tecnología podría ayudar a combatir el fraude en los pagos transfronterizos y ahorrar al sector miles de millones en costos relacionados con el fraude.
De acuerdo con la institución, tan solo en 2023 el fraude costó al sector financiero 485,000 millones de dólares, por lo que la IA tiene un importante papel que desempeñar en la reducción de estos costos y, al mismo tiempo, abordar el problema ayudará significativamente al sector a alcanzar el objetivo del G20 de aumentar la velocidad de los pagos transfronterizos.
“Swift se encuentra en una posición privilegiada para encabezar los esfuerzos del sector contra el fraude debido a su papel como entidad de confianza en el corazón del ecosistema financiero y, por la amplitud y el alcance de los datos que viajan a través de su red”, informó.
“Swift se encuentra en una posición privilegiada para encabezar los esfuerzos del sector contra el fraude debido a su papel como entidad de confianza en el corazón del ecosistema financiero y, por la amplitud y el alcance de los datos que viajan a través de su red”, informó.
Además, la compañía trabajará con los clientes de Control de Pagos para perfeccionar las mejoras, y la prueba utilizará los propios datos de tráfico de los clientes, lo que brindará la posibilidad de ser aplicado en el mundo real.
En un experimento separado, Swift convocó a 10 instituciones financieras líderes para probar cómo se puede utilizar tecnología avanzada de IA para analizar datos compartidos anónimamente de diferentes fuentes, con la finalidad de reforzar el ecosistema financiero mundial.
La capacidad de la IA para compartir datos confidenciales podría cambiar las reglas del juego del sector. Las pruebas podrían conducir a un uso más amplio del intercambio de información en la detección del fraude, aprovechando su éxito en la evaluación de las amenazas a la ciberseguridad.
El grupo, en el que participan bancos líderes de todo el mundo como BNY Mellon, Deutsche Bank, DNB, HSBC, Intesa Sanpaolo y Standard Bank, pondrá a prueba el uso de tecnologías seguras de colaboración de datos y aprendizaje regulado.
Además, aprovechará una infraestructura segura que permitirá a las instituciones financieras intercambiar información relevante con fuertes controles de preservación de la privacidad. El modelo de detección de anomalías de Inteligencia Artificial de Swift podrá recopilar información e identificar posibles patrones de fraude a partir de un conjunto de datos mucho más rico.
La inteligencia artificial está creando nuevos puestos de trabajo y las empresas ya tienen todo el talento técnico disponible, el siguiente paso es contratar perfiles sin formación especializada, pero con habilidades relacionadas a esta tecnología.
La inteligencia artificial (IA) y su impacto en el mundo del trabajo ha creado una paradoja: las personas están preocupadas por la potencial pérdida de empleo; y al mismo tiempo, los jefes temen que no encuentren el talento suficiente para cubrir las vacantes que se están creando con la adopción de esta tecnología.
De acuerdo con el Índice de Tendencias Laborales 2024 de Microsoft y LinkedIn, el 55% de los líderes está preocupado por no encontrar perfiles suficientes para las oportunidades laborales que está creando la IA, mientras que un 45% de los trabajadores afirma tener incertidumbre por el desplazamiento de empleos.
“Si bien la IA y la pérdida de empleo son lo más importante para muchos, los datos ofrecen una visión más matizada: una escasez de talento oculta, empleados ansiosos por un cambio de carrera y enormes oportunidades para aquellos que estén dispuestos a mejorar sus habilidades en IA”, señalan Microsoft y LinkedIn en su reporte.
En medio de esto, la realidad es que el avance de la inteligencia artificial está generando nuevas posiciones a rápida velocidad y hay pocos perfiles especializados disponibles. La investigación evidencia que las empresas ya se apoderaron del talento técnico, y ahora deben voltear a ver a profesionistas con poca experiencia, pero con habilidades que puedan facilitar su inserción.
El 71% de los ejecutivos encuestados muestra apertura a contratar candidatos con baja experiencia, pero con habilidades vinculadas con la inteligencia artificial, prefieren estos perfiles que profesionistas con amplia trayectoria, pero que carece de estas competencias.
Y aunque la fuerza laboral tiene temores por la posible eliminación de puestos de trabajo, está consciente de la importancia de desarrollar nuevas habilidades para mantenerse competitivos en un entorno con mayor digitalización y automatización; una postura con la cual se reconoce que la inteligencia artificial también generará nuevas oportunidades de trabajo.
Los datos de LinkedIn indican que los cursos de aptitudes relacionadas con la IA han tenido un crecimiento de 160% en la demanda de usuarios que no tienen la formación técnica. Gerentes de proyecto, directores generales, arquitectos, diseñadores gráficos, gerentes de cuentas, gerentes de operaciones o especialistas en marketing, son algunos ejemplos de profesionales no técnicos que buscan cada vez más desarrollar competencias relacionadas con inteligencia artificial.
Es probable que el impacto de la IA sea mayor en creación de nuevos empleos que en destrucción de puestos laborales, pero sí es un hecho que muchas de las oportunidades de trabajo aún no se han creado.
“Estas son señales de que la IA podría ser una marea creciente que eleva las habilidades en todos los roles e industrias. Los trabajadores de nivel inicial asumirán proyectos más estratégicos, mientras que habilidades exclusivamente humanas como la gestión, la construcción de relaciones, la negociación y el pensamiento crítico pasarán a primer plano para los empleados de todos los niveles”, se destaca en el informe.
La deuda digital se mantiene
Otro de los hallazgos, es que la deuda digital sigue alta; es decir, la hiperconexión y el exceso de horas destinadas a responder correos electrónicos, mensajes o reuniones virtuales. “El trabajo se ha acelerado más rápido que la capacidad de los empleados para mantenerse al día”, advierten Microsoft y LinkedIn.
En este contexto, el 46% de los trabajadores se siente agotado. Y esto obedece a una saturación digital, la sobrecarga de correos electrónicos se mantiene, el 60% del tiempo se destina a responder estos mensajes y a las reuniones virtuales.
Esta hiperconectividad está rezagando el tiempo destinado a procesos creativos, sólo el 40% del tiempo se destina a la creatividad e innovación. En este escenario, la inteligencia artificial se posiciona como una alternativa para disminuir la carga digital. El 90% de los trabajadores asegura que esta tecnología le ayuda a reducir tiempo y otro 85% menciona que la creatividad es el mayor beneficio de la IA en su trabajo.
Cuatro proyectos pioneros investigan el desarrollo del cerebro, capturan datos brutos con la inteligencia artificial, innovan en ordenadores cuánticos y desarrollan nuevos modelos para cartografiar supernovas.
Desde 2018, las becas Aramont reconocen la innovación científica de vanguardia. Es notoriamente difícil para los investigadores que inician su carrera recibir financiación para proyectos de alto riesgo, y muchos científicos a menudo pierden valiosas oportunidades de impulsar su investigación. La Fundación Benéfica Aramont concede los Premios del Fondo de Becas Aramont a la Investigación Científica Emergente a un grupo cuidadosamente seleccionado de postdoctorales y profesores en los primeros años de su carrera cuyo trabajo es muy prometedor. Los galardonados de este año abordan temas muy variados en sus proyectos financiados, desde la informática cuántica hasta la investigación de la degradación de proteínas en el cerebro.
“Me sigue inspirando el calibre de nuestro grupo de candidatos al programa de becas Aramont, y estoy muy entusiasmado con este conjunto de premiados”, afirma el Vicerrector de Investigación John Shaw. “Estos investigadores han propuesto proyectos que ampliarán los límites de sus campos, y tenemos mucho que aprender del trabajo que se financia”.
Modulación de las funciones cerebrales mediante una nueva vía de degradación de proteínas.
Estímulos sensoriales que activan el desarrollo y la adaptabilidad del cerebro inducen la expresión de un conjunto de genes denominados genes tempranos inmediatos (IEG). Aunque son esenciales para la función cerebral, los mecanismos que controlan la expresión de las proteínas IEG han permanecido esquivos durante más de cuarenta años. Gu descubrió una proteína inducida por estímulos llamada midnolina que se cree que tiene amplias funciones en la fisiología neuronal.
Este descubrimiento puede inspirar nuevas líneas de investigación, como la exploración del funcionamiento mecánico de la midnolina. El trabajo de Gu también ha descubierto que un complejo en el que participa la midnolina es atraído por la cromatina, un componente clave de los cromosomas humanos y animales. Gu estudiará los efectos de la midnolina en la cromatina y sus funciones fisiológicas, para lo cual ha generado un modelo de ratón que se utilizará para investigar su papel en el aprendizaje y la memoria.
Aceleración de la investigación científica con grandes modelos multimodales de IA.
Descubrimientos científicos modernos se basan en conocimientos extraídos de grandes cantidades de datos experimentales complejos y multiformatos, y el procesamiento y análisis de estos datos es un proceso laborioso que podría verse facilitado por la IA. Los grandes modelos lingüísticos (LLM), con sus impresionantes capacidades de agregación y recuperación de conocimientos, resultan especialmente atractivos para esta tarea.
El conocimiento científico de los LLM actuales es anticuado e inalterable y se basa sobre todo en fuentes textuales. El laboratorio de Melis cree que es poco probable que esto baste para impulsar el próximo avance científico. Lo más probable es que los nuevos descubrimientos se realicen a partir de datos experimentales que aún se están analizando o generando en un observatorio, un laboratorio húmedo o un acelerador de partículas.
Permitir que los LLM aprovechen ese tesoro de datos podría ayudar a lograr avances, pero exigiría replantear su forma, función y uso; en concreto, aprovechar las capacidades de “razonamiento” de los LLM y mejorarlas con la capacidad de ingerir y procesar grandes cantidades de datos multiformato “frescos”, como imágenes, gráficos o tablas, de modo que los LLM puedan detectar patrones y sugerir experimentos futuros para acelerar radicalmente el ritmo de la investigación científica.
Un modelo básico para la astrofísica en el dominio del tiempo.
El estudio de la muerte explosiva de las estrellas permite a los astrónomos comprender la física de altas energías, probar los modelos evolutivos de las estrellas y medir la expansión del universo.
Actualmente, se descubren unos 10.000 eventos cósmicos explosivos al año, y el ritmo de los descubrimientos no hará sino acelerarse a medida que en los próximos años vayan apareciendo tecnologías más avanzadas. Los investigadores necesitan nuevas técnicas para clasificar eficazmente estos fenómenos e identificar nuevos fenómenos de física de altas energías. El proyecto de Villar integrará curvas de luz de banda ancha, espectroscopia de alta fidelidad e imágenes en un modelo unificado para el análisis en tiempo real de nuestro cielo nocturno variable.
Su trabajo tiene como objetivo producir el primer modelo astrofísico basado en el dominio del tiempo, un algoritmo que utiliza IA y datos brutos para realizar una serie de tareas, que luego se utilizarán para clasificar nuevos eventos, identificar física novedosa e inferir rápidamente parámetros físicos para fenómenos conocidos en tiempo real.
En el tercer episodio de este especial que realizamos con Meta, conversamos con Rodolfo Vargas,director de Marketing & Growth de TaDa, la aplicación de reparto a domicilio de Grupo Modelo.
El directivo nos platicó cómo gracias a soluciones impulsadas por IA, como Advantage+, han logrado posicionar la app de delivery como una opción relevante de compra de cerveza y otros productos entre los consumidores mexicanos mayores de edad.
También habló de cómo la “cultura de macro emprendimiento” de Grupo Modelo ha permitido que la tecnología sea parte central del crecimiento y sostenibilidad del negocio.
“Tenemos que abrazar la IA para siempre estar en punta de lanza… el siguiente paso se logra abrazando el riesgo y las oportunidades”, fue un poco de lo que Rodolfo compartió.
“Advantage+ permite llegar a muchas personas de una manera rentable (IA de Meta), así como mejoras de adquisiciones, de una forma de estar más presentes, creando una experiencia de usuario por medio de la IA, teniendo un valor agregado y una mejor personalización de contenido y precios.
Meta Platforms anunció el jueves el lanzamiento de un modelo de inteligencia artificial (IA) diseñado para ayudar a escribir código informático, impulsando su avance hacia la nueva tecnología.
Code Llama, que estará disponible de forma gratuita, puede escribir código a partir de instrucciones de texto humanas y también puede utilizarse para completar y depurar código, dijo el gigante de las redes sociales en una entrada de blog.
Desde el lanzamiento de ChatGPT de OpenAI a finales del año pasado, las empresas y los negocios han acudido en masa al incipiente mercado de la IA generativa para obtener nuevas capacidades y perfeccionar los procesos empresariales.
Programadores en la mira: Meta lanzará modelo de IA para escribir códigos informáticos
Meta, propietaria de Facebook (NASDAQ:META) e Instagram, ha lanzado este año una avalancha de modelos de IA, en su mayoría gratuitos, incluido un modelo de lenguaje de código abierto, llamado Llama, que plantea un serio desafío a los modelos patentados vendidos por OpenAI, respaldada por Microsoft (NASDAQ:MSFT), y Google, de Alphabet (NASDAQ:GOOGL).
El nuevo modelo de IA se basa en el último modelo de lenguaje Llama 2 de Meta y estará disponible en diferentes configuraciones, según la empresa, que se prepara para competir con GitHub Copilot, la herramienta de escritura de código de Microsoft.
Code Llama es compatible con los lenguajes de programación más populares, como Python, Java y C++, y no se recomienda para tareas de texto en general, según Meta.
La plataforma de videoconferencias Zoom se ha visto envuelta en una polémica este lunes por la utilización de datos de sus clientes para entrenar sus herramientas de inteligencia artificial (IA), que se activa de modo voluntario al actualizar sus políticas de uso.
Un análisis detallado de esas políticas publicado por un medio especializado y viralizado en Twitter y foros de internet ha obligado a la empresa a salir a defender su política, a modificar el documento de consentimiento expreso y a asegurar que el usuario puede decidir en todo momento si quiere compartir o no contenido con Zoom para mejorar su IA.
Según los términos de uso, el usuario acepta que Zoom puede recopilar datos para, entre otras cosas, el entrenamiento y ajuste de algoritmos y modelos de inteligencia artificial, como acepta que la empresa tiene licencia perpetua para usar en todo el mundo ese contenido con ese y otros fines.
“Bueno, hora de jubilar @Zoom, que básicamente quiere usarte/abusar de ti para entrenar su IA”, tuiteó Gabriella Coleman, una profesora de la Universidad de Harvard especializada en cuestiones relacionadas con internet.
Su mensaje, que ya había sido compartido hoy más de 2 mil veces, alimentó el debate en la red y llevó a Zoom a publicar una actualización de sus políticas de uso.
“Zoom no usará contenido de clientes de audio, vídeo o chats para entrenar nuestros modelos de inteligencia artificial sin su consentimiento”, señala un párrafo añadido hoy por la empresa.
En un comunicado en su web corporativa, Zoom trató además de explicar los cambios introducidos recientemente a los términos de uso de sus servicios y, en especial, todo lo relativo a las nuevas herramientas de IA.
Zoom ofrece actualmente dos servicios basados en esta tecnología, uno que resume el contenido de reuniones y otro que ayuda a escribir mensajes; según insiste la compañía, son los dueños y administradores de cuentas los que controlan si activarlas o no.
Además, señala, cuando se usan el usuario recibe un “proceso de consentimiento transparente” para autorizar el uso de datos con el fin de entrenar los modelos de IA.
“Tu contenido se usa solamente para mejorar el rendimiento y la precisión de estos servicios de IA. E incluso si eliges compartir tus datos, no se utilizarán para el entrenamiento de ningún modelo de terceros”, añade el texto.
La reciente proliferación de nuevos modelos de inteligencia artificial ha generado en todo el mundo un importante debate sobre las consecuencias que ello puede tener en muchos ámbitos, incluido el de la privacidad y el de los derechos de propiedad intelectual.
México ya empieza a hablar de inteligencia artificial. La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco, por sus siglas en inglés) elaborará un diagnóstico sobre el estado de esta tecnología en el país, mediante el cual el Congreso mexicano obtendrá insights para una eventual regulación y promoción.
Desde el lanzamiento de ChatGPT en noviembre pasado, la inteligencia artificial empieza a abarcar cada vez más espacio en todo tipo de conversaciones.
La Unesco trabajará de la mano con la recién creada Alianza Nacional de Inteligencia Artificial (ANIA), un grupo multisectorial que congrega a los sectores público, privado, académico y civil que aspira a diseñar una estrategia nacional de inteligencia artificial para México.
La organización es presidida por la senadora Alejandra Lagunes, quien durante el sexenio pasado estuvo a cargo de la llamada Estrategia Digital Nacional de la Presidencia.
“Uno de los ejes de trabajo de la ANIA es el acompañamiento técnico de la Unesco para crear una hoja de ruta que permita realizar un diagnóstico sobre el estado e impacto de la inteligencia artificial en el país y que sea uno de los insumos para futuras líneas de acción. Así México se suma a otros 50 países en el mundo que están respondiendo al llamado mundial de la recomendación sobre la ética en la inteligencia artificial”, destacó la legisladora.
“Inteligencia artificial desde enfoque ético y no solo tecnológico”
Durante el anuncio hecho en el Senado, la directora general adjunta para las Ciencias Sociales y Humanas de la Unesco, Gabriela Ramos, aseguró que “este es un debate social, no tecnológico”, para destacar la necesidad de abordar la inteligencia artificial no solo desde el enfoque técnico, sino también ético y humano.
“Es un discurso de cómo normamos estas tecnologías para que nos ayuden a construir un mundo donde el bienestar sea la regla y no la excepción”, expuso.
Afirmó que no existe tema en donde no haya un titular relacionado con la inteligencia artificial, y que el mundo está maravillado, pero también preocupado sobre cómo controlar los retos y riesgos, y cómo maximizar lo positivo que pueden tener estas tecnologías.
“Si el crecimiento es exponencial, la capacidad de respuesta de los gobiernos también tiene que ser exponencial, pero no es posible”, destacó durante su presentación de este miércoles.
Detalló que con este diagnóstico México se unirá a 50 países que ya cuentan con un documento similar, como India, Brasil, Holanda, 15 naciones de África y Chile, entre otros. El documento que resulte del diagnóstico servirá para que el país determine “qué tipo de desarrollo institucional necesita.”
“En Europa están mucho más avanzados con sus AI Act. La Unesco no le va a decir a México qué tiene que hacer, pero sí le vamos a acercar las mejores prácticas para que determine cómo avanza”, añadió.
Riesgos de la inteligencia artificial
Gabriela Ramos enlistó algunas de las preocupaciones que existen en el mundo sobre el acelerado desarrollo y adopción de la inteligencia artificial, como derechos de autor, propiedad de datos, privacidad, reconocimiento fácil, sesgo, discriminación, segregación, concentración de mercados, libertades fundamentales, entre otros.
“No solo abarca todos los sectores, sino la profundidad del impacto que está teniendo en todos los rubros”, destacó.
La senadora Lagunes comentó que el mundo está ante “un cambio civilizatorio” que “obliga a parar y preguntarnos si la inteligencia artificial está fortaleciendo nuestras libertades, derechos fundamentales, derecho a la privacidad, libertad de pensamiento, de tomar decisiones, de elegir, nuestro libre albedrío, si fortalece la democracia, la igualdad y la inclusión”.
“Históricamente nos hemos enfrentado a dilemas éticos como la clonación, las armasbiológicas o la energía nuclear. La pregunta no es a dónde podemos llegar, sino hasta dónde queremos llegar. Lo que hagamos hoy, o no, afectará la vida de generaciones, lo que hagamos hoy, o no, no podrá deshacerse o hacerse después”, advirtió la legisladora.
Como Ramos, la senadora del PVEM dijo que la discusión no debe ser sobre liderazgo tecnológico, o económico, sino que debe ser social, con el ser humano y su bienestar al centro.
“Estos desarrollos deben ayudarnos a construir sociedades justas y equitativas. Debemos garantizar que se utilice para el bien común y el desarrollo sostenible, con respeto a los derechos y la dignidad humana, la protección del medio ambiente, los valores democráticos y la inclusión social”, expuso.
“Hoy ya existen enormes retos: una alta concentración de los mercados que resulta en una distorsión del mundo. Los desarrollos de inteligencia artificial son principalmente por Estados Unidos o China, hay una falta de diversidad y representatividad cultural, de raza, de lenguas, de género, de ideas”, añadió.
Otras preocupaciones que expresó la senadora fueron sobre la calidad de las bases de datos y los sesgos de los sistemas de decisión, la ciberseguridad y la confianza digital, brechas de acceso, inclusión, educación, habilidades digitales y capacidades.
El presidente del Instituto Federal de Telecomunicaciones (IFT), Javier Juárez, señaló que “en la medida en la que construyamos o no esta infraestructura, no solamente red 5G, redes de fibra óptica, centros de datos, capacidad de cómputo, es que vamos a ver si en el futuro México será un país generador o importador de algoritmos”.
El senador Gustavo Madero agregó que la inteligencia artificial puede exacerbar las “disfunciones civilizatorias” que se tienen hoy, como la violencia, la guerra, la desigualdad, el individualismo o la concentración del poder, y que aumentarán: “Esto es una ola, no se puede parar. En México no nos agarra bien parados, porque no somos un país en el que la ciencia o la tecnología sea un pilar de nuestra cultura”.
Así como un martillo en las manos correctas puede ayudar a construir una casa y en las manos equivocadas puede atentar contra la vida de una persona, la inteligencia artificial tiene tanto un poder positivo como negativo para todo el mundo.
En las manos equivocadas esta tecnología puede servir para generar sesgos y discriminación, manipulación y desinformación, violación de la privacidad, ciberataques sofisticados, desplazamiento laboral, entre otros propósitos que conllevarían un riesgo global.
A medida que las grandes compañías tecnológicas como Microsoft, Google o Amazon intensifican su ritmo en la carrera por la inteligencia artificial, también crece el interés por comprender los riesgos asociados a esta tecnología y abordarlos de forma responsable.
De hecho, el 21 de julio el presidente de Estados Unidos, Joe Biden, logró que siete empresas que participan en la carrera por la IA se comprometieran al desarrollo responsable, ya que es un tema prioritario para el mundo.
“Me complace anunciar que estas siete empresas han aceptado compromisos voluntarios para la innovación responsable. Estos compromisos, que las empresas implementarán de inmediato, subrayan tres principios fundamentales: seguridad, protección y confianza (…) Las redes sociales nos han mostrado el daño que la tecnología poderosa puede causar sin las medidas de seguridad adecuadas”, destacó en esa ocasión el presidente estadounidense en un tema que ameritó una conferencia de prensa en su agenda.
Una de las compañías que se reunieron con Biden fue Amazon, que en abril entró de lleno a la carrera por la inteligencia artificial con el lanzamiento de Bedrock, un conjunto de herramientas de IA generativa desarrolladas por terceros.
Para hablar de las preocupaciones entorno a la tecnología que está agitando al mundo, se conversó en exclusiva con la líder de Inteligencia Artificial Responsable de AWS, Diya Wynn.
“La realidad es que, con cualquier cosa, sea inteligencia artificial y otra herramienta, existe la posibilidad de que las personas te dañen o la usen para que sepas algo que no es bueno. Al igual que pudo comprar un martillo para construir una casa, también lo puedo comprar para golpear a alguien en la cabeza. Lo que quiero decir es que (con esta tecnología) hay un potencial enorme para lo bueno y lo malo, y nosotros queremos asegurarnos de que estamos construyendo para lo bueno, por eso es importante la regulación”, admitió Wynn.
La directiva de AWS reconoció que el uso irresponsable de la inteligencia artificial generativa podría exacerbar el sesgo informativo o de inclusión, y eso sería especialmente dañino para comunidades subrepresentadas o marginadas.
“No queremos continuar perpetuando daños para ellos. También existe el riesgo de deep fakes y la proliferación de la desinformación, algo perjudicial para nuestras democracias. Todos esos son ejemplos de las razones por las que es importante contar con una regulación”, apuntó Wynn.
Diya Wynn lidera el equipo de AWS que supervisa que el desarrollo de la inteligencia artificial generativa sea responsable.
“Ya hemos visto algunos ejemplos en los que existe el riesgo de no tener una regulación de IA, una regulación es absolutamente importante para poder tener el beneficio de usar la tecnología de manera que no perjudique a las personas y a la sociedad, y somos un firme defensor de la regulación, pero de la regulación inteligente que nos permitirá innovar y proporcionar barreras de seguridad necesarias”.
El gigante tecnológico estadounidense Meta, matriz de aplicaciones como Facebook, Instagram o WhatsApp, considera que la Inteligencia Artificial (IA) es una tecnología “omnipresente” que “afectará a todo el mundo”.
“El metaverso no funciona sin IA, están unidos por un cordón umbilical. No puedes construir un mundo virtual, no puedes construir realidad aumentada, no se puede construir una realidad mixta, no puedes construir plataformas de redes sociales, sin IA”, destaca en una entrevista con EFE por videoconferencia Nick Clegg, ex viceprimer ministro del Reino Unido y ahora presidente de asuntos globales de Meta.
“La IA está ya integrada en la experiencia de producto. Eso supone que podemos hacer las cosas mejor y más rápido para construir aplicaciones útiles que aporten contenido útil y accesible para usuarios que quieran tener experiencias de realidad virtual aumentada”, destaca.
Precisamente en la víspera, Meta lanzó de la mano de Microsoft un nuevo modelo de código abierto para desarrolladores basado en la inteligencia artificial y lenguaje predictivo al que han puesto el nombre de Llama 2. Un código que para Clegg es “el modelo lingüístico más sofisticado del mundo”.
Llama utiliza secuencias de palabras como entrada para generar texto de forma predictiva con contenido seleccionado de entre más de 27 idiomas y con más de 70 mil millones de parámetros para ofrecer mejores resultados y un lenguaje más natural.
Un código abierto que deja la pelota en el tejado de las empresas: “Todo depende ahora de la forma en que los innovadores, desarrolladores, empresarios, académicos e investigadores elijan usar estos modelos. Esa es la magia del código abierto. No se sabe exactamente cómo la gente va a usarlo”, detalla.
La inteligencia artificial es omnipresente y afectará a todo el mundo: Meta
Llama fue presentado en febrero de este año y en su desarrollo han participado cerca de 350 personas realizando pruebas “para asegurarse de que pueden ser utilizados de manera responsable y segura”, apunta.
Para el directivo de Meta, se trata de un código de inteligencia artificial que puede resultar en cientos de aplicaciones para la vida diaria tan dispares como los chatbot de empresa (herramientas en las que la IA mantiene conversacionescon los usuarios), una ayuda para redactar un discurso para boda o para analizar datos y generar información útil.
“Va a impulsar la innovación. Hará mucho más fácil tareas como la detección del fraude por parte de los bancos a través de la IA o que los médicos hagan un diagnóstico”, detalla.
Eso sí, no descarta el uso inadecuado de la tecnología: “Los usuarios pueden intentar generar desinformación, fake news y otro tipo de contenido mucho más rápido”, apunta.
Para combatir este tipo de actividades, la empresa liderada por Mark Zuckberberg aborda también con inteligencia artificial el deepfake, las fakenews o la desinformación “independientemente de si ha sido generada por un hombre o una máquina. De hecho es una de las herramientas más eficaces para identificar y eliminar este contenido”.
En este sentido, Clegg destaca cómo han logrado que el contenido sobre discursos de odio en Facebook se sitúen en tan solo un 0.02%, una caída de más del 50% en apenas 24 meses.
“La IA generativa (como es Llama2) es una herramienta aún más poderosa para detener la distribución (de contenido malicioso) y restringir este contenido sin importar quién lo haga”, destaca.
En cuanto al futuro, Clegg considera que habrá dos campos en los que mirar: las aplicaciones de mensajería y la realidad aumentada y virtual.
“Las aplicaciones de mensajería se usarán cada vez más y de manera más versátil. En India más de 400 millones de personas usan WhatsApp de forma más versátil de la que lo hacemos en España o en el Reino Unido”, concluye.
Después de haber pedido una moratoria para el desarrollo e implementación de inteligencia artificial, el multimillonario de la industria de la tecnología, Elon Musk, cedió a la seducción de un tema que está en boca de todos y anunció la creación de su nueva compañía: xAI.
Elon Musk ha sido uno de los principales críticos de OpenAI, una compañía en la que invirtió inicialmente y que en noviembre pasado lanzó ChatGPT, un chatbot que ha revolucionado el sector de la inteligencia artificial generativa que atrajo varios miles de millones de dólares de Microsoft.
Announcing formation of @xAI to understand reality
Durante meses Elon Musk insinuó la posibilidad de construir una alternativa a ChatGPT, pero es hasta ahora que lo da a conocer, con un pretensioso mensaje publicado en su cuenta de Twitter: el objetivo de xAI es “comprender la verdadera naturaleza del universo”.
Además de dirigir sus otras compañías (Tesla, SpaceX, Twitter), Elon Musk ahora entrará de lleno a la carrera por la inteligencia artificial. Estará acompañado en este viaje de “ejecutivos que trabajaron anteriormente en una amplia gama de empresas a la vanguardia de la inteligencia artificial, incluidas DeepMind de Google, Microsoft y Tesla, así como académicos”.
Meses atrás el periódico estadounidense The Wall Street Journal ya había dado a conocer que Musk y Jared Birchall, que opera la oficina familiar de Musk, registraron un negocio llamado X.AI en marzo, según una presentación del estado de Nevada.
Por otro lado, el periódico Financial Times dio a conocer que Elon Musk adquirió miles de procesadores de Nvidia Corp. para su recién creada empresa de inteligencia artificial xAI.
En su portal web, todavía muy minimalista, la nueva compañía de Elon Musk detalla que el equipo “está asesorado por Dan Hendrycks, quien actualmente se desempeña como director del Centro para la Seguridad de la IA”.
“Somos una empresa separada de X Corp, pero trabajaremos en estrecha colaboración con X (Twitter), Tesla y otras empresas para avanzar hacia nuestra misión”, detalla xAI en su sitio web, donde revela que actualmente está reclutando activamente ingenieros e investigadores experimentados para que se unan a nuestro equipo como miembros de nuestro personal técnico en el Área de la Bahía”. Por favor complete este formulario para aplicar”.
El equipo inicial que acompaña a Elon Musk ha contribuido antes en el desarrollo de inteligencia artificial. “Hemos trabajado y liderado el desarrollo de algunos de los mayores avances en el campo, incluidos AlphaStar, AlphaCode, Inception, Minerva, GPT-3.5 y GPT-4”, se lee en el portal.