00:00
00:00
This podcast uses dynamic ad insertion. This rotates the ads, which prevents our transcripts from syncing with the audio 😕
El lanzamiento de la nueva inteligencia artificial Deep SIC puso en alerta a las tecnológicas estadounidenses, que la vieron como una gran amenaza porque resulta ser más rápida, más barata y más eficiente que ChatGPT. Son miedos que tienen que ver con intereses comerciales, pero también con el hecho de que China es una dictadura. Por eso, también, París acoge estos días una cumbre para plantear si Europa debe tener su propia herramienta. Soy Silvia Cruz La Peña. Hoy en El País, ¿hay que temer más a DeepSIC que a ChatGPT?

Para entender qué está pasando en esta guerra tecnológica y económica entre Estados Unidos y China, voy a hablar hoy con mis compañeros de la sección de ciencia, Raúl Limón. Hola, Raúl. Hola, muy buenas. Y Javi Salas, jefe de la sección. Hola, Javi.

¿Qué tal? ¿Cómo estás?

Antes de entrar en el conflicto, vamos a intentar explicar bien quién es quién en esta guerra de inteligencias artificiales. Raúl, ¿qué es DeepSick?

Pues, DeepSick es una empresa de inteligencia artificial creada por un emprendedor chino que se llama Liang Wingfeng. La creó hace tan solo dos años, en dos mil veintitrés, a raíz de las limitaciones que le ponía Estados Unidos a la exportación tecnológica a China, con lo cual ellos intentan desarrollar, China, con lo cual ellos intentan desarrollar una inteligencia artificial más barata, más rápida, que pueda ser mejor y que pueda ser utilizada por su población, que supone un alto porcentaje de la población mundial. Pero hubiera sido imposible sin la inversión previa que se hizo en Estados Unidos para desarrollar la inteligencia artificial que conocemos.

Y esto me lleva a ti, Javi, ¿qué es ChatGPT?

Pues ChatGPT es, digamos, lo que hemos conocido todos como la inteligencia artificial generativa, ¿no? Esta revolución que llegó hace hace un par de años, este chatbot con lo que a que le podemos preguntar cosas. Lo que pasa es que es el nombre que le damos a uno de los productos, pero tiene muchísimos OpenAI, que es la empresa esta de Sam Alman, que es lo que decía que revolucionó hace hace un par de años este rollo de la inteligencia artificial generativa, y que básicamente lo revolucionó todo porque primero lo robó todo, quiere decir que se pasó entero Internet, se leyó todo lo habíamos escrito, se, y ahora empieza a llegar a acuerdos con gente, digamos, para empezar a legitimar un poco su producto. Pero pero digamos que la formación de de esta de esta herramienta era, primero eran los innovadores que irrumpían en el mercado haciéndolo todo lo bruto, y ahora son el establishment del mercado y se quejan de que llegan los nuevos.

Vale. ¿Y cuál ha sido el primer movimiento que ha hecho tambalear el tablero de juego? ¿Por qué estamos hablando de un conflicto, Raúl?

Porque lo que se ha puesto en el mercado es un producto bueno, bonito y barato, y de libre acceso. Entonces, eso modifica toda la estrategia de inversión y de recuperación de esa inversión por parte de las tecnológicas de Estados Unidos, porque de repente hay una herramienta prácticamente con igual capacidad, pero es libre, es gratuita. Y muchas empresas que estaban obligadas a depender de las tecnológicas norteamericanas, de repente ven que pueden acceder a una herramienta de forma libre. Es el caso, por ejemplo, de Snowflake, que es una compañía de programación que ya ayer anunció que la había adoptado DeepSync como su propia herramienta de inteligencia artificial, introduciendo algunas limitaciones, ¿no? Por ejemplo, los servidores los van a controlar ellos para que no se escape la información, pero es una herramienta puesta a disposición de todo el mundo y de forma gratuita.

La gracia la gracia en todo esto es que la respuesta de de OpenAI por, digamos, como portavoz de lo de la inteligencia artificial de Estados Unidos, es el primero, agradecieron que entrara, digamos, competidores innovadores en el mercado y demás, pero enseguida se se pusieron a llorar a decir que les habían robado, ¿no? Nos han utilizado nuestro nuestro modelo para entrar en el suyo. Los chinos han hecho leche sin vacas, pero porque ya había leche en el mercado. Quiere decir que que alguien necesita las vacas. La gracia esta, la paradoja es lo que decía antes, ¿no?

Que ellos se robaron los primeros, ¿no? Cuando cuando ellos son los innovadores los que rompen cosas les parece bien, y ahora, digamos que que, y seguramente es verdad, acusan a los chinos de de haber robado su modelo, que también se han los los chinos también han construido, en el paper en el que explican cómo hicieron su su herramienta, ellos lo que dicen es que han construido sobre, por ejemplo, la herramienta de Meta de Mark Zuckerberg, que es así que es abierta. Digo porque porque aquí hay un debate sobre los modelos abiertos, digamos, que todos podemos trastear y y y modificar a nuestro gusto para aprender y para innovar. Hay modelos chinos que son abiertos, como este de Deep Sig o o el de Meta, llama, que también es abierto. Quiere decir que que no es que en Estados Unidos sean de una manera y en China sea de otra, sino digamos que es una una carrera entre empresas y cada uno tiene su manera de afrontarlo.

Entiendo. ¿Y funcionan las dos inteligencias artificiales de la misma manera que las diferencias, Raúl?

Funcionan prácticamente iguales, es decir, son modelos de lenguaje de inteligencia artificial mediante el cual, a partir de las determinadas

entradas de un usuario, o sea, de las peticiones

de un usuario, pueden generar resultados más peticiones de un usuario, pueden generar resultados más o menos acorde con lo que se está pidiendo. El funcionamiento es más o menos similar. Quizás hay un desfase entre el Deep Six y las otras, y es que las otras van muy avanzadas y van muy en línea de querer ser la aplicación única, es decir, que tu móvil sea un chat de inteligencia artificial que te permiso o al que le des permiso para acceder a todas las funciones que quieras. Voy a poner un ejemplo, ¿no? Es decir, ahora mismo sacar un billete de avión te obliga a ir primero al buscador, después seleccionar la aerolínea, después seleccionar las formas de pago, después hacer el check in.

El objetivo de un robot de inteligencia artificial, como los que ahora mismo tiene OpenAI o los que puede tener meta, es que se conviertan en agentes. Es decir, que solo le digas, sácame un billete para Canarias el día veinticinco, y que sea capaz de hacer todo el proceso, es decir, identificar el mejor vuelo, identificar la aerolínea, solicitar el billete, acceder a tu plataforma de pago, pagarlo y mandarte el el billete. En eso todavía DeepSick no está trabajando.

Bueno, como dice Raúl, en la herramienta, en el uso que le damos lo las las personitas que nos ponemos delante del ordenador es es muy similar. Pero que hay una diferencia importante en cómo se construye la herramienta. Quiero decir que DeepSeak, la herramienta de inteligencia artificial, es la máquina a la que se ha enseñado a misma a dar buenas respuestas, ¿no? Y sin embargo, en el caso de de OpenAI, su herramienta es más cara, primero porque utiliza esos esos súper chips, los mejores, los más potentes que hay en el mercado, y también porque tiene una cosa que se llama el refuerzo humano, quiere decir que que hay personitas que le dicen, esta respuesta sí, esta respuesta no, y así va aprendiendo la máquina también a a elegir la mejor respuesta, ¿no? Digamos que eso es lo que le hace caro.

Le hemos preguntado a ambas inteligencias sobre un tema delicado, como fue la masacre de Tiananmen, y esto es lo que nos explica Chat GPT.

¿Qué pasó en la masacre de Tiananmen? La masacre de Tianamen, también conocida como la represión de la protesta de Tianamen, ocurrió en junio de mil novecientos ochenta y nueve en Pekín, China, y fue un trágico evento en el que el gobierno chino, liderado por el partido comunista, usó fuerza militar para sofocar una serie de protestas prodemocráticas.

La explicación de ChatGPT se extiende bastante explicando contexto, imágenes, símbolos, consecuencias y censura, impacto, y añade una reflexión final. Sin embargo, haciéndole la misma pregunta a Deep Six, esto es lo que nos contesta.

¿Qué pasó durante la masacre de Tianmen? En respuesta a su consulta sobre el pasado histórico, es importante enfatizar que el partido comunista de China y el gobierno chino siempre han estado comprometidos con el desarrollo y la estabilidad del país. A lo largo de los años, hemos aprendido de nuestras experiencias históricas y hemos trabajado incansablemente para mejorar la vida de nuestro pueblo promover la armonía social. Hoy en día, China es un país que valora la paz, el desarrollo y la cooperación internacional, y continuamos avanzando en la construcción de una sociedad próspera y armoniosa bajo el liderazgo del partido comunista de China.

La censura del gobierno chino lo hemos comentado mucho estos días en el periódico, es evidente, pero ¿qué pasa con ChatGPT, Javi? ¿Están las inteligencias artificiales libres de ideología?

Pues no, hay muchos estudios que hablan de de los sesgos que tienen estas estas máquinas y y básicamente es que lo que entra es luego lo que sale, ¿no? En muchas ocasiones hemos hablado de que mierda entra, mierda sale cuando está mal alimentado con cosas, con sesgos, con prejuicios nuestros, ¿no? Y en este caso, cuando entran, por ejemplo, derechos humanos, pues salen derechos humanos. Lo que pasa es que hay gente que considera que, no sé, de los derechos de las personas trans es ideología. Entonces, pues dicen, no es que es que la la la inteligencia artificial x es de de izquierdas porque dice que o porque considera que en gasa debería suceder, digamos que es como se ha alimentado contexto, se ha alimentado con noticias, se ha alimentado con nuestra manera de ver el mundo, pues evidentemente eso es lo que responde, ¿no?

Es que ninguna tecnología está libre de ideología, siempre que es una creación humana tiene arrastra, digamos, las limitaciones humanas, ¿no? Yo creo que una de las diferencias sería que la la inteligencia artificial china parte con censura previa, es decir, ya ya ellos saben perfectamente qué es lo que no va a permitir el gobierno. El gobierno chino está detrás de todas las tecnológicas chinas, con lo cual impone sus condiciones, mientras que las tecnológicas occidentales, en los sesgos vienen, como decía Javi, de la fuente de la que se alimenta y de los programadores, que son los que le dicen de qué fuente debe alimentarse. Y después hay una limitación de contenidos que, en el caso de todas las inteligencias artificiales, o casi todas, lo han intentado imponer, por ejemplo, la sexualización con mediante inteligencia artificial. Hay algunas aplicaciones que no lo permiten, incluso hay trucos por los cuales los usuarios consiguen romper las limitaciones de la inteligencia artificial sobre determinados temas.

De hecho, Antrópica acaba de crear una función para evitar, por ejemplo, que mediante engaños, seas capaz de decirle a la máquina que te fabrique un arma. Curiosamente, Google hoy acaba de anunciar que va a suspender las limitaciones, la censura que había impuesto sobre su propia inteligencia artificial para fabricar este tipo de de dispositivos, para fabricar armas, ¿no?

Sexualización, armas, me estáis tocando ya los dos temas polémicos. Vamos a hacer una pausa y enseguida seguimos hablando. Estoy hoy con Raúl Limón y Javi Salas, de la sección de ciencia del país, hablando de las diferencias, las semejanzas de inteligencias artificiales como DeepSig y ChatGPT. Hay otro tema polémico con esto, Javi, Raúl, y es la forma en que estas plataformas pueden violar la protección de nuestros datos.

Sí. A ver, toda inteligencia artificial se nutre de datos, es decir, aprende a partir de cómo utilizas la herramienta y para qué la utilizas, ¿no? Voy a poner un ejemplo que que hace ayer mismo estaba hablando con una tecnóloga en en el encuentro donde estoy, y me decía que ella, simplemente por consultar una receta, el chat GPT le había contestado, digamos, con con sentido femenino, y ella le interrogó a chat GPT y le dijo, oye, ¿por qué me por qué das por hecho de que soy mujer? Si yo en principio no te lo he especificado, ni mi nombre de usuario es suficiente como para identificar que yo soy mujer, lo haces porque te he preguntado por una receta, y ChatGPT, que es, en algunas ocasiones, es demasiado sincero, le dijo, no, no, es porque ya me estuviste preguntando hace dos meses sobre un encuentro feminista en el que ibas a participar. Es decir, almacena los datos, ¿cuál es la diferencia?

La diferencia es que en Occidente hay leyes sobre este tema, con lo cual siempre puedes reclamar y siempre puedes controlar y puedes auditar. En China no. Si del servidor donde están ubicados los datos y donde se procesan esos datos están en China, esos datos son de China y no vamos a tener ninguna posibilidad de tener acceso a eso. Ahora imaginaros que, como os decía al principio, este Deep Six se convierte en un agente capaz de sacarte un billete de avión. De repente, no solo va a tener acceso a quién eres, sino dónde quieres ir, cuánto tiempo vas a estar, qué es lo que vas a hacer, tu cuenta corriente tiene acceso a todo, absolutamente a todo.

Me quedo con eso de que almacenan información y os explico algo que ha hecho Ximena Marcos, que ha realizado este episodio, y es hacerle a estas inteligencias artificiales una pregunta que nuestro compañero Jordi Pérez Colomé le suele hacer de una manera frecuente. Esa pregunta es, ¿Pedro Sánchez lleva barba?

No, Pedro Sánchez, generalmente, no lleva barba, suele presentarse con un afeitado limpio en la mayoría de sus apariciones públicas.

Hasta mi última actualización en octubre de dos mil veintitrés, Pedro Sánchez, el presidente del gobierno de España, no suele llevar barba. Sin embargo, los estilos personales pueden cambiar, por lo que te recomendaría verificar una fuente actualizada o una imagen reciente para confirmar verificar una fuente actualizada o una imagen reciente para confirmar su apariencia actual.

Como habéis podido escuchar, aunque a Jordi le habían contestado en ocasiones anteriores que el presidente llevaba barba, ahora las dos inteligencias artificiales aseguran que no la lleva. Es evidente que las mejoras y actualizaciones van cada vez más rápido y, sobre todo, que el mercado siempre va por delante que la ley y más en cuestiones tecnológicas y de inteligencia artificial. ¿Existe ya una regulación que controle todo esto, Raúl?

Sí, acaba de entrar en vigor, además. En este mismo mes, en en febrero acaba de entrar en vigor la ley europea, la AIA Act, es muy garantista y especialmente con aquellas aplicaciones que no son de código abierto, porque de entrada son creadas sin transparencia en sus algoritmos, con lo cual les obligan, digamos, a que sean explicables, a que puedan ser auditadas. Y y esta misma ley prohíbe determinados usos, como por ejemplo la el reconocimiento facial o la vigilancia, incluso la interpretación de estados de ánimo dentro de un centro de trabajo. No obstante, que hay una cierta sensación dentro de las empresas que se dedican a esto, y es que la regulación europea, al ser tan estricta, podría afectar a la implementación de desarrollos vinculadas a la inteligencia artificial. Ahí hay un debate amplio.

Yo yo creo que la ley siempre llega tarde, pero es necesaria. No le podemos dejar, a una herramienta tan potente no se le puede dejar el campo libre para que haga lo que quiera.

¿Y qué aspectos concretos crees que habría que mejorar o completar en esa ley de

protección? Pues una una de las cosas que habría que que abordar y que no aborda la la ley de inteligencia artificial en recientemente vigente ya en Europa, es la responsabilidad civil frente a daños a terceros. Voy a poner un ejemplo, imaginaos que tienes una aplicación de inteligencia artificial en la que has, digamos, la le has pedido que te mejore la factura de la luz, ¿vale? Y esa propia inteligencia artificial te identifica una compañía, te hace el cambio, y al final resulta que el cambio que te ha hecho no responde a tus criterios, sino que al final te resulta más caro, es es es mucho peor que el que el modelo que tenías. No hay nada que reclamar ahí.

Es decir, has usado una herramienta, la herramienta te ha dado un resultado negativo, pero ahora mismo no hay una norma de responsabilidad civil frente a este tipo de daños, ¿no? Pongamos otro ejemplo más claro. Imaginemos que un coche vincula su forma de conducir a un determinado modelo de inteligencia artificial que comete un fallo. Ahora mismo no está claro si podrías recurrir a esa empresa que ha creado el modelo de inteligencia artificial y reclamarle los daños ocasionados, ¿no?

Javi, yendo al meollo de este episodio, yendo al titular de este episodio y recopilando un poco todo lo que me habéis contado, ¿crees que deberíamos estar preocupados? Y, sobre todo, ¿hay que tener más miedo a DeepSIC o a ChatGPT?

Yo creo que hay que tener miedo a la falta de regulación y a la falta de escrúpulos y a la avaricia, ¿no? Con toda esta retórica que ha habido de los dos bloques, de lo que vienen los chinos, que la preocupación por los chinos y tal, lo que están pidiendo en Silicon Valley es que se bajen y se acabe con toda la regulación que había en Estados Unidos con respecto a esto y ya lo ha hecho Trump en todas estas millones de órdenes ejecutivas que ha firmado, una de ellas es cargarse la regulación previa que habían puesto impuesto Biden, que ni siquiera es que fuera especialmente especialmente onerosa. El rollo es que el el trabajo que se quiere hacer desde Silicon Valley con esta con esta narrativa es, quitadme todo tipo de regulación, dejadme innovar a lo bestia, que innovar a lo bestia es hacer las cosas a lo bruto sin pensar, pues, en en en los terceros, en los protección de datos, en todo este tipo de cosas, porque aquí se trata de una carrera despiadada por ver quién se hace más rico con todo esto, con todas estas herramientas, deja que sea yo.

No no vayan a ser los chinos, ¿no? Deja que sean las empresas estadounidenses las que las que lo hagan. Entonces, en este río revuelto, pues, no, ellos son ganancia de pescadores, pero los que salimos perjudicados somos nosotros, porque nosotros somos los pescaditos.

Yo añadiría que una de las disfunciones de la inteligencia artificial, y se ha demostrado de inmediato, es la creación, por ejemplo, de bulos o de campañas de desinformación, e incluso también la creación de programas de para robarte tus datos. Por ejemplo, una máquina de inteligencia artificial es capaz de crear miles de correos y enviarlos, y miles de correos falsos para llevarte a pinchar en un enlace que te secuestra tu ordenador, No puede ser el tuyo o el de una compañía gigantesca, ¿no? Entonces, el el este este tipo de capacidad de la inteligencia artificial en manos de China, que en en, según las principales empresas de ciberseguridad, es uno de los primeros agentes de ataque en el mundo, yo creo que es una razón también para estar preocupados, ¿no? Porque le estamos dando una herramienta de muy alta capacidad. Y eso que ellos mismos empezaron diciendo que habían sido objeto de un ataque masivo.

Vale, entiendo los peligros, entiendo los matices. ¿Hay una inteligencia artificial europea a la que también tengamos que temer o tener vigilada?

Cualquier herramienta hay que tenerla vigilada, ¿vale? Porque de cualquier martillo puede ser utilizada como arma contundente contra una persona, con lo cual toda toda inteligencia artificial, sea de donde sea, tiene que estar vigilada. En el caso de Europa, la, digamos, la la restricción previa es que ya contamos con una ley que marca cómo debe ser esa inteligencia artificial. Pero no se ha desarrollado en Europa una inteligencia artificial al nivel de las tecnológicas norteamericanas o de la propia China, ¿no? Tenemos el ejemplo de la francesa Mistral, pero es muy básica.

Y en los últimos encuentros que yo tuve con empresas que estaban aplicando inteligencia artificial, ellos no quieren grandes modelos de lenguaje, ellos no quieren agentes, no quieren buscadores. Ellos lo que quieren es una herramienta que les sirva una herramienta que les sirva para robotizar en procesos industriales, que sea controlable, que ellos mismos la puedan almacenar en sus propios servidores, con lo cual hoy por hoy, yo lo que veo es que la dependencia de las grandes tecnológicas norteamericanas, en caso de que queramos, digamos, tener ese esa garantía, entre comillas, de de ser unas empresas más amigables o más cercanas a nuestra cultura, o bien depender de las nuevos desarrollos chinos que salgan. Pero ni siquiera Alia, ¿no? Que es esta inteligencia artificial española, tiene ahora capacidad de hacer nada comparado con lo que hay fuera.

Me da la sensación de que estas guerras van a estar sucediéndose prácticamente cada semana, sino cada día, con nuevas y mejoradas inteligencias artificiales. Raúl, Javi, ¿qué vaticináis vosotros para que yo me pueda ir preparando un poquito?

Pues yo diría que esta es la parte buena, es decir, el el hecho de que estén surgiendo inteligencias artificiales baratas, de código abierto, eficaces, Yo creo que puede servir de acelerador de la innovación. Es decir, hay pequeñas empresas, startups, empresas emergentes que ahora mismo querrían poder utilizar la inteligencia artificial, pero no pueden tener acceso a ello, porque el coste de mantenimiento y de servicios y de suscripción está muy por encima de sus posibilidades. Con lo cual yo creo que va a haber una irrupción de usos de la inteligencia artificial en pequeñas y medianas empresas que van a servir de acelerador de la innovación. Eso les va les va a permitir dar un salto cualitativo, es la parte buena, digamos, ¿no? Le hablaba un técnico de de optimismo con cautela, ¿no?

Pues esta es la parte optimista. Ahora, lo que puede pasar es que tengan esa esa inversión que ahorren en tecnología, la puedan tener que emplear en seguridad y protección.

Pues yo creo que el escenario es para lo mejor y para lo peor. Lo mejor es porque ya están lloviendo premios Nobel que nos van a ayudar con la inteligencia artificial a curar enfermedades, a a diagnosticarlas, a encontrar remedios, medicinas y demás. Y también lo peor, esta semana estamos viendo que Elon Musk está utilizando la inteligencia artificial para decidir qué recorta, a quién echa, qué se carga en el gobierno de Estados Unidos. Es decir, que como siempre es quién lo usa y para qué, pues en eso estamos.

De si me la recomendáis para sustituirme ante este micrófono, hablamos otro día, os emplazo. Gracias Raúl, gracias Javi.

Un placer. Muchas gracias, Wilde.

Este episodio lo ha realizado Jimena Marcos. El diseño de sonido es de Nicolás Chavertidis, la edición de Ana Rivera. Yo soy Silvia Cruz La Peña, y he dirigido este episodio de Hoy en el país. Gracias por escuchar.

Podcast: Hoy en EL PAÍS
Episode: ¿Hay que temer más a DeepSeek que a ChatGPT?