Resumen
- Explora las estrategias de datos y la IA centrada en el ser humano en las organizaciones modernas.
- Presenta las cinco C: competencia, colaboración, comunicación, creatividad y conciencia.
- Aborda el impacto de la IA en el empleo, la sociedad y la responsabilidad ética.
- Destaca el equilibrio entre la IA y las funciones humanas, así como la regulación proactiva.
Capítulos
Jenka, bienvenida a Data Explode. Gracias a todos por escucharnos y vernos. Mi nombre es Jenka, soy jefa de analistas en Ian.
Eh, y estoy contando la historia de la plataforma de inteligencia de datos que estamos diseñando. Pero no hablaremos de eso en este seminario en línea. Esto no tiene nada que ver con nuestro seminario en línea, eh, sobre nuestra tecnología.
Esta reunión, esta serie, los datos que se exploran tratan realmente de explorar nuevas tendencias e ideas que están surgiendo en la comunidad de datos e inteligencia artificial. Y lo hacemos invitando a invitados, autores, profesionales y líderes de opinión. Hoy tengo conmigo a Ang, Kai Fng y Ang Kai, que trabajáis en ThoughtWorks, y sois directores de estrategia de datos e inteligencia artificial en ThoughtWorks.
Mm-hmm. ¿Te gustaría compartir un poco de información sobre ti? Y luego profundizaré más en el tema que nos ocupa.
Sí, por supuesto. Es un placer estar aquí. Permítanme presentarme brevemente.
Bueno, trabajo, como has mencionado, como director de estrategia de datos e inteligencia artificial en ThoughtWorks, una consultora especializada en soluciones tecnológicas y de datos a medida. Y sí, me apasiona el lado humano de los datos y la inteligencia artificial, por lo que he escrito dos libros al respecto titulados Humanizing Data Strategy y Humanizing AI Strategy Topics , de los que sin duda hablaremos en este seminario en línea . Y sí.
Bueno, mientras tanto, también soy un gran fanático de intentar hacer que los datos y la IA sean más divertidos y accesibles, ¿verdad? Así que utilizo muchos métodos, como mi talento musical o chistes o memes y ese tipo de cosas para que este tema dé menos miedo y resulte menos intimidante, y sea más inclusivo y accesible para que todo el mundo pueda participar en la conversación. Gracias, Chen Kai.
Por supuesto. Disfruto mucho con tu música y también con tus libros, obviamente. Así que mi idea, como, la razón por la que quería hacer este, eh, seminario en línea mm-hmm.
Es porque, obviamente, al igual que tú, he estado siguiendo todo lo que está pasando, como la evolución de la IA. Y, obviamente, podemos ver que hay mucha gente que está preocupada, incluso asustada, y todo el mundo se pregunta: «¿Reemplazará mi trabajo? ¿Me quitará las tareas que estoy realizando?».
Eh, ¿la sociedad en general se volverá más difícil, eh, más aterradora? Eh, ¿qué pasaría? Muchos, según lo veo, muchos pensamientos negativos, pero también muy explicables y muy, muy comprensibles.
Sin embargo, al leer tu libro, me puse a pensar, así que déjame ponerlo delante de mí, creo que, eh, datos, eh, estrategia de IA, sí. Eh, eh, al leer tu libro, eh, que es tu segundo libro, eh, Humanizing AI Strategy. Mm-hmm.
Yo, yo no pude evitar, pero, pero, pensar que este era un libro que, um, cambió un poco esta perspectiva, uh. Vi mucha positividad y mucho potencial en este libro, y eso es realmente lo que quiero, mm-hmm. Desarrollar en esta conversación contigo este potencial PO para que los humanos tomemos la iniciativa y definamos lo que queremos usar con la IA en lugar de dejar que la IA dicte la evolución de lo que sucederá en la sociedad y tener la sensación de ser meros espectadores, es algo inevitable.
Yo también lo siento así, obviamente, pero creo que también podríamos tomarnos un momento e intentar cambiar un poco la perspectiva. He preparado muchas preguntas, pero antes de entrar en ellas, voy a leer un breve fragmento de la conclusión. Y no, no es un spoiler de la trama.
Eh, lo prometo. Eh, así que es algo así: qué decisiones deben seguir siendo humanas. No importa lo avanzada que llegue a ser la IA, no me refiero a requisitos normativos o limitaciones técnicas.
Me refiero a las elecciones que nos definen como especie, la decisión de traer una nueva vida al mundo, la elección de poner fin o prolongar los cuidados a alguien. Nos encanta el juicio de culpabilidad o inocencia cuando está en juego la libertad, la chispa de inspiración que crea algo genuinamente nuevo. No se trata solo de tareas que optimizar, sino de expresiones de la propia humanidad.
Sí. Escribes muy bien, Kar, este es un pasaje estupendo. Gracias.
No, pero tú sí. Tú sí. Sí.
De verdad. Te admiro. Así que, en primer lugar, con esa introducción, como si fuera el pasaje final de tu libro, pero en esta conversación, lo estoy utilizando como introducción, eh, mm-hmm.
Eh, para pasar a la pregunta, ¿qué te motivó a escribir este libro? ¿Por qué un libro sobre la estrategia de humanización de la IA? Por supuesto.
Bueno, por un lado, hay una razón práctica para ello, porque cuando escribí mi primer libro, Humanizing Data Strategy, había muchas ideas sobre cuál era ya la relación con la inteligencia artificial, ¿verdad? Como todos sabemos ahora, los datos y la IA están muy relacionados, así que, en lugar de intentar meterlo todo en el primer libro y no alejarme demasiado del tema central, que era la gestión de datos y la estrategia de datos, decidí dejar esas ideas a un lado y pensar en un segundo libro. Y así fue, acabó convirtiéndose en un segundo libro.
Y, eh, eso fue básicamente, eh, por eso parece una secuela del primer libro también, ¿verdad? Pero la razón más importante por la que creo que era el momento adecuado para hacerlo, y por la que quería hacerlo tan rápido, es porque lo publiqué básicamente un año después de mi primer libro, ¿verdad? Así que aceleré mucho el proceso porque quería asegurarme de que no repitiéramos los mismos errores del pasado, en los que no nos centramos en el ser humano, al desarrollar la IA y limitarnos a seguir la moda tecnológica sin pensar en lo que eso significa realmente para la sociedad humana y para la especie humana en su conjunto.
Y por eso, por eso también creo que muchas cosas, sí, son nuevas y los avances tecnológicos son tan, um, grandes como nunca antes, pero al mismo tiempo, no es la primera vez que nos enfrentamos a tecnologías disruptivas, ¿verdad? Y muchas veces tuvimos que aprender por las malas en el pasado cómo básicamente fuimos en una dirección, demasiado en una dirección y demasiado en la otra, una y otra vez, hasta que encontramos el término medio. Así que espero que, al haber escrito este libro, con la tecnología de la IA, al menos podamos ser un poco más intencionales e intentar encontrar ese término medio equilibrado más rápidamente, y no tener que aprender también por las malas.
Y quiero decir, hay una cosa que también mencioné en el libro, ¿verdad? Dado que la IA se entrena con datos de producción humanos, ¿verdad? De lo que los seres humanos han hecho, dicho o comportado en el pasado, si no se selecciona bien, también aprende de las cosas malas que hicimos como humanidad, ¿verdad?
Y cuanto más nos remontamos en el tiempo, más cosas malas hemos hecho que solo ahora vemos como malas. Y en aquel entonces no las veíamos como malas, ¿verdad? Sí.
Entonces, si dejamos que la IA aprenda de ello sin ningún tipo de juicio, si esto es bueno o malo, también podría amplificar los errores, ¿verdad? Y lo hace más rápido y a gran escala. Y eso también significa que algunos de los errores amplificados podrían ser irrecuperables, ¿verdad?
Así que tenemos que ser muy cautelosos para que la IA aprenda de las cosas buenas que nosotros, como seres humanos, consideramos buenas acciones y buenos resultados, y tratar de evitar las cosas malas. De este modo, se convierte en lo que queremos que sea: una oportunidad y un mecanismo de empoderamiento, y no en algo que pueda acabar con nosotros en el futuro. ¿Verdad?
Como el estilo Terminator, por ejemplo. Sí. Esa es más o menos la lógica y la motivación por la que escribí este libro.
Sí. Bueno, gracias. Tiene mucho sentido.
En su primer libro, desarrolló un marco conceptual. Hablaremos de ello en un par de preguntas, pero me gustaría saber ahora mismo, ¿en qué consiste el marco de las cinco C? ¿Para qué se desarrolló originalmente?
Sí, básicamente las cinco C representan cinco aspectos de lo que considero que es la centralidad humana dentro de una estrategia de datos o IA. Y representan competencia, colaboración, comunicación, creatividad y conciencia. Y esos no son solo rasgos que nosotros, como seres humanos, tenemos y que de todos modos nos gusta cultivar o que nos gustaría aplicar.
Creo que simplemente no pensamos en ellos con la frecuencia suficiente en el trabajo, y concretamente en el ámbito de los datos y la IA. Y en cuanto al primer libro sobre estrategia de datos, su objetivo era una forma de hacer que los datos fueran más valiosos. Y eso significaba abordar realmente las necesidades de las personas en esos aspectos, para que utilizaran los datos de forma cada vez más colaborativa y generaran más valor con ellos en el contexto de la IA.
Ahora tiene un enfoque ligeramente diferente, porque no se trata de usar más la IA, ya que podría decirse que la IA ya está en todas partes y todo el mundo la está utilizando en cierta medida. Se trata de usarla de forma más intencionada y más inteligente. Así que las cinco C tienen un enfoque diferente en el segundo libro.
Y especialmente cuando pensamos también en los rasgos que he mencionado, ahora las máquinas son capaces de hacerlo o de imitarlo también, ¿verdad? Por ejemplo, la comunicación ya no se limita a la comunicación entre humanos, sino que también existe la comunicación entre humanos y máquinas, entre máquinas y entre máquinas y humanos, y ahora todas ellas desempeñan un papel importante. Y ese es un ejemplo de cómo se están considerando las cinco C desde una perspectiva diferente en el ámbito de la IA.
Sí, por supuesto. Y podemos profundizar en los detalles técnicos de eso si te apetece. Claro.
Eh, pero, pero antes de hacer eso, eh, tienes, eh, y voy a mencionar la página exactamente, en la página, eh, 51, tienes, tienes este, eh, este conjunto de, eh, sombreros que puedes llevar. Eh, me gustaría repasar algunos de estos, eh, roles o estos sombreros que puedes llevar, eh, como empleado y tal vez, eh, intentar desplegarlos. ¿Cómo podemos usar la IA intencionadamente cuando, cuando llevamos puestos estos sombreros, cuando tenemos estos roles y, eh, cómo podemos impulsar, eh, debatirlo en, en el libro, pero me gustaría, me gustaría desplegarlo.
Entonces, si no lo recuerdas, el primero es el terapeuta. Mm-hmm. Um, y, uh, mencionaste una situación, uh, situación en la que eso podría ser, uh, resistente a la implementación de herramientas de inteligencia artificial, uh, sí.
Eh, y donde el objetivo sería crear una seguridad emocional y reducir el miedo, mm-hmm. Mediante la aplicación de la empatía y la gestión del cambio. ¿Podrías explicarlo un poco más?
¿Cómo sería eso en realidad? Exactamente. Bueno, quizá debería dar un paso atrás y explicar el contexto por el que introduje este tipo de sombreros, y es que, cuando la gente trabaja en el ámbito de la IA hoy en día, tiene que lidiar con muchos aspectos diferentes, ¿verdad?
Mm-hmm. Y a menudo llegamos a ese punto en el que, cognitivamente, podemos sentirnos abrumados porque estamos intentando alcanzar múltiples objetivos al mismo tiempo. Y esos objetivos podrían suponer un conflicto de intereses, ¿verdad?
Una sencilla es que quieres imponer y forzar los objetivos de cumplimiento, pero también quieres innovar. Y si lo haces como la misma persona que intenta hacer ambas cosas, puede resultar muy difícil, y tienes que gestionarlo bien, ¿no? Intentar identificar las barreras de seguridad, pero al mismo tiempo identificar oportunidades, es muy complicado para una sola persona.
Así que estoy introduciendo esos sombreros básicamente como una forma de pensar. Si llevas puesto un sombrero en este momento, llévalo conscientemente, y entonces tendrás un objetivo claro y seguirás ese objetivo hasta que te quites ese sombrero y te pongas el siguiente. Porque en una situación diferente, es posible que tengas que actuar como una persona diferente de nuevo, o como un papel diferente con ese sombrero puesto específicamente.
Y entonces el terapeuta es, para mí, el estereotipo, cuando notas que hay algún tipo de resistencia hacia la transformación de la IA, ¿verdad? Mm-hmm. Que hay ciertas personas que, pase lo que pase, no quieren usar la IA, se sienten amenazadas, pueden sentir miedo por su trabajo, ¿verdad?
Eh, puede que no crean en ello porque han tenido experiencias realmente malas con alucinaciones, sea cual sea la razón. Pero a veces solo necesitas a alguien que te escuche y que realmente comprenda por lo que estás pasando y no dé por sentado cuáles son tus miedos y tus razones para resistirte. Así que cuando adoptas esa postura de terapeuta, básicamente te embarcas en una gran misión que consiste simplemente en escuchar, ¿verdad?
Intenta comprender primero antes de proponer una solución. Pero piensa primero por qué la gente se resiste e identifica los patrones antes de proponer un plan que esté en la propia herramienta o en la comunicación en torno a la herramienta para intentar reducir esa resistencia, pero que se centre en lo que sabes que es realmente la razón para todos vosotros. Sí, no, tiene mucho sentido.
Eso tiene mucho sentido. Pasemos a la siguiente pregunta. ¿Qué hay del desarrollador?
¿Recuerdas, puedes desplegar el sombrero de desarrollador? Sí, por supuesto. Entonces, el desarrollador, por supuesto, es como el típico experto técnico que realmente implementa una primera versión de un determinado modelo de IA en una aplicación específica, ¿verdad?
Y la idea es que alguien tiene que demostrar técnicamente que es factible y cuál es la funcionalidad que se supone que debe tener, ¿verdad? Y las habilidades que se necesitan, por supuesto, son las habilidades técnicas de cómo codificarlo y, de hecho, cómo funciona el aprendizaje automático, por ejemplo, etcétera, etcétera. Y, de nuevo, eso es, eh, básicamente en contraste con todos los demás, porque al ser desarrollador, ya das por sentado cuáles son los requisitos y cuál se supone que debe ser la funcionalidad.
Y en esa cabeza, cuando lo tienes puesto, en realidad solo entras en tu modo de flujo y empiezas a construir ese prototipo lo más rápido posible para luego tener una prueba de concepto que todos puedan ver, ¿verdad? Así que, al contrario de ser un oyente y un comunicador en la mente del desarrollador, en realidad solo haces una cosa específica para poder usarla para mostrar a los demás y tener una base para el debate con las partes interesadas, por ejemplo. Mm-hmm.
Mm-hmm. Vamos a tomar, por ejemplo, quiero tomar una taza mañana. Claro.
Eh, tomemos al visionario. Mm-hmm. ¿De qué trata la cabeza visionaria?
Sí, entonces el visionario es básicamente aquel que, eh, piensa a largo plazo, ¿verdad? Pensar, no solo a corto plazo, sino pensar en lo que podría ser posible en el futuro y en lo que podría ser lo correcto para la organización, por ejemplo. ¿Verdad?
Y eso significa que podría ser, eh, un grupo de personas que realmente se reúnen y reflexionan continuamente sobre cómo podría ser el futuro. Podría ser un consejo, podría ser un comité directivo o algo por el estilo, ¿verdad? Pero básicamente pueden pensar, eh, teniendo en cuenta lo que representa la empresa o el objetivo que tiene la organización, en cómo podría ser el modelo de negocio del futuro y cómo podría ser una versión potenciada por la IA, ¿verdad?
Y entonces también establecerían objetivos y metas a largo plazo, ¿no? Por ejemplo, decir: «De acuerdo, ahora mismo, a corto plazo, estamos haciendo todo eso y optimizamos nuestra productividad y tenemos cambios incrementales, pero a largo plazo, queremos ser realmente ese tipo de organización muy eficiente o eficaz, muy impulsada por la IA, pero que tiene todo este tipo de oportunidades y sabemos cómo vamos a actuar al respecto». Y eso también significa que se necesita gente con pensamiento estratégico, ¿verdad?
Y que realmente saben cómo pensar más en el futuro y tienen esa capacidad de previsión, ¿verdad? Básicamente, pensar en identificar enfermedades y tendencias, y luego, básicamente, analizarlo. Pero, de nuevo, eso contrasta con mi forma de hacer las cosas a corto plazo, ¿verdad?
Así que si tienes esa mentalidad visionaria, no puedes al mismo tiempo pensar en cómo conseguir que el próximo modelo funcione finalmente mañana y cobre vida. Pero básicamente tienes que cambiar de modo, ¿verdad? Vale, ahora dejemos todo eso atrás por ahora, y durante la próxima hora voy a ser un visionario y pensar en el panorama general.
Así que ese es uno de los estereotipos que también hay que tener en cuenta de cara al futuro. Sí. Sí.
Eh, como último punto, eh, también me gustaría, eh, la experiencia en el ámbito, porque es algo que está muy relacionado con, eh, con, con, con, con, bueno, estoy muy ocupado con la experiencia en el ámbito, obviamente, en el trabajo tecnológico que realizo. Entonces, ¿podrías desplegar tu sombrero de experto en el ámbito para nosotros, y así podamos, eh, podamos avanzar basándonos en eso? Por supuesto.
Entonces, el experto en la materia es básicamente la única contraparte, la contraparte humana de un modelo de IA, ¿verdad? Porque solo el experto en la materia sabe lo que es correcto y lo que es incorrecto, básicamente. Y la razón por la que es una contraparte humana para mí es porque, como sabemos, gran parte del conocimiento no está realmente documentado, sino que es institucional y solo existe en la mente de las personas y en su propia experiencia.
Así que el experto en la materia, en este sentido, es el guardián que básicamente puede juzgar si un modelo de IA o un agente de IA, como queramos llamarlo, está haciendo el trabajo que se supone que debe hacer, y si se evalúa de la manera correcta para ser un buen o un mal resultado, y se necesita esa experiencia en la materia, pero no basta con tenerla de forma puntual, ¿verdad? Es importante que, una vez que las empresas crecen, esa experiencia en el ámbito también crezca. Hay que tener ese tipo de experiencia continua en el ámbito, que es también la razón por la que lo relaciono estrechamente con el ser humano, en la parte de mi capítulo sobre la competencia, ¿verdad?
Porque se necesita cierta experiencia para ser la persona adecuada en el momento adecuado, para estar al tanto de todo y poder tomar decisiones. Así que, básicamente, la habilidad que se necesita y la experiencia que se adquiere proviene de la experiencia empresarial, del campo en el que se trabaja, ¿verdad? Si eres un experto en marketing, entonces, por supuesto, has realizado muchas tareas prácticas de marketing antes; si eres más bien un experto en investigación y desarrollo, has obtenido buenos resultados recientemente, etcétera, etcétera.
Pero esas son realmente las personas que creo que pueden juzgar si la IA va en la dirección correcta o no. Sí, no, muy de acuerdo. Muy de acuerdo.
Y se remonta a mucho tiempo atrás, ¿verdad? Quiero decir, tienes documentos que se remontan a los años setenta que hablan de, eh, ingenieros del conocimiento y, eh, como el, el, el papel de lo que significa un experto para un sistema experto, los buenos viejos, eh, artículos sobre eso. Exactamente.
Eh, y, incluso antes de eso, obviamente, el conocimiento del dominio era un campo de estudio que básicamente se ha estudiado, supongo, a lo largo de la historia, pero mm-hmm. Pero me gustaría, eh, hacer una pregunta más, eh, profunda. Quiero saber, por ejemplo, qué comentarios recibes de algunos de tus clientes, y obviamente no puedes nombrarlos, pero cuando trabajas con algunos de ellos y están trabajando en estrategias de IA, ¿cuáles son sus intenciones?
¿Qué es lo que quieren hacer y cuáles son las posibilidades, eh, cómo usas tu libro en términos de, por ejemplo, cómo, en términos de hacerles superar los retos que tienen? Sí. Eh, esa es una gran pregunta.
Eh, yo diría, y tengo un ligero sesgo porque soy consultor, que cuando hablo con los clientes, inmediatamente se ponen en modo problema, ¿verdad? Porque, de lo contrario, no hablarían con nosotros, pero quieren resolver un problema, ¿verdad? Y el problema más común que veo es que en realidad no tienen un objetivo claro, ¿verdad?
Porque a menudo ese objetivo solo viene impulsado por la necesidad de hacer IA porque todo el mundo lo está haciendo. Pero eso en sí mismo no es una estrategia, ¿verdad? No, no, no.
Y así es como se convierte en algo correcto, todo el mundo lo está haciendo. Podríamos perder nuestra ventaja competitiva, así que intentemos hacerlo también, pero no sabemos por qué, cómo ni dónde, ¿verdad? Pero tenemos que hacerlo, de lo contrario, nuestros accionistas podrían estar descontentos porque esperan que lo hagamos, nuestros clientes también esperan que lo hagamos, pero no sabemos por dónde empezar.
Entonces, a menudo es ahí donde empezamos a desarrollar esa estrategia de IA. Y, en realidad, se empieza con una visión de los procesos o una visión organizativa de las cosas, ¿verdad? Entonces, ¿cuáles son tus metas y objetivos empresariales generales?
Digamos que en los próximos cinco años quieres crecer, por lo que quieres invertir y adquirir diferentes empresas, ¿o es para ser más rentable? Entonces, lo que realmente quieres es reducir costes, necesitas aumentar tu eficiencia, ¿verdad? O cualquier otro tipo de objetivo que puedas tener.
Y a partir de ahí, podemos ir desglosándolo poco a poco en ideas específicas sobre cómo la IA puede contribuir de forma gradual a ese objetivo ahora mismo, ¿no? Por ejemplo, aumentando la productividad de personas concretas de la organización. Es como si tuvieran un asistente que es IA, y hacen las cosas un poco más rápido, lo que les ahorra tiempo, o algo más disruptivo si son capaces de hacerlo y quieren hacerlo, ¿no?
Así que reimaginemos un proceso empresarial completo que aún no existe, pero que en el nuevo mundo podríamos llevar a cabo de esta manera, con gran parte del comportamiento de los agentes de IA. Y así, el nuevo proceso empresarial completo podría ser algo así. ¿Cómo podemos llegar hasta ahí?
¿Verdad? Quizá sea un plan de uno o dos años, y tengamos que transformarnos y gestionar el cambio en esa dirección. Pero este es el tipo de conversación que suelo tener, ¿verdad?
Cuando definimos el objetivo, creamos un plan para cumplirlo estableciendo el estado deseado al que queremos llegar y, básicamente, lo hacemos paso a paso para alcanzar el objetivo de ventas. Oh, no, la verdad es que me sorprende mucho oír eso. Supongo que es porque trabajo con un proveedor de tecnología, así que el tipo de preguntas que nos hacen son muy específicas y se refieren a las ofertas que tenemos, eh, en inteligencia artificial, ¿verdad?
Correcto. Obviamente, uh, uh, expandir y acelerar nuestra hoja de ruta en, en, en, en todas las dimensiones posibles de la IA, ¿verdad? Correcto.
Eh, las preguntas que nos hacen son muy específicas. Eh, para mí es bastante sorprendente escuchar eso, eso, eso, que la gente admita tan abiertamente que en realidad no tiene ningún tipo de intención. Quiero decir, obviamente tiene mucho sentido cuando lo dices, pero también es un poco doloroso escuchar que la gente en realidad, eh, simplemente, que están tan convencidos... Bueno, tiene mucho sentido que acudan a consultores porque, en cierto modo, necesitan una estrategia.
Pero, pero, pero estar tan confundido al respecto es algo que creo que es, eh, bueno, sinceramente, diría que es un poco sorprendente, pero lo entiendo perfectamente ahora que lo dices. Así que, supongo que en lugar de sentirme, eh, perturbado, perturbado, en un término tan manido, ¿verdad? Sí.
Yo, pero supongo que la gente se siente perturbada por la IA. Um, pero en lugar de, um, en lugar de, uh, luchar contra ella, ves la confusión más bien como un resultado de, uh, de, uh, de la evolución de la IA. Quiero decir, eso tiene mucho sentido.
No es que esté en contra, sí, creo que la resistencia es más una brecha dentro de las organizaciones, ¿verdad? Y suele ser, um, un tema de liderazgo frente a la gente de a pie que ocurre a menudo cuando los altos cargos y los responsables de la toma de decisiones se comprometen a querer implementar la IA y esperan también mejoras significativas o cualquier tipo de avance, ¿verdad? Gracias a la IA.
Pero entonces, las personas que están sobre el terreno y conocen la realidad de todo esto, y por muchas razones diferentes, ya sea a nivel personal o desde el punto de vista de los expertos en la materia, no están de acuerdo con lo que parece ser el objetivo, que ahora es implementar la IA en todos los ámbitos posibles, ya sea porque no ven que sea posible o porque no ven que tenga sentido hacerlo. Y creo que ahí es donde surge la resistencia. Normalmente se debe a la brecha entre, eh, la parte superior y la inferior, básicamente, ¿no?
Mm. Y no estar de acuerdo con ello. Y, de nuevo, probablemente se trate más de consultoría, una perspectiva muy centrada en ello, pero, um, con la gestión del cambio, entonces esperan que una consultoría externa pueda simplemente ocuparse de ello, ¿verdad?
Como mm-hmm. Los líderes no quieren quedar mal por haber forzado un cambio, pero contratemos una consultoría para que ellos puedan ser los malos y forzar el cambio. Pero eso no funciona, ¿verdad?
El cambio tiene que venir desde dentro. Siempre podemos ayudarlo y facilitarlo. Pero, básicamente, no somos quienes para imponer un cambio a otra organización.
Sí, claro, totalmente. Pero también veo, yo, personalmente, veo a ThoughtWorks como algo en sí mismo, ¿no? Una empresa de consultoría refinada, ¿no?
Mm-hmm. No es, no es una consultoría estándar, um, uh, como las que se encuentran, uh, no es un asesoramiento genérico, ¿verdad? Añades tecnologías en el fondo, lo que lo hace un poco diferente.
Pero, ¿cómo se salva esa diferencia? ¿Cómo se salva entonces? ¿Jenka?
Quiero decir, obviamente, esos conflictos de intereses son bastante evidentes, son muy explícitos y... Supongo que también bastante firmes, ¿no? No es algo que la gente se tome a la ligera.
Siento que muchos equipos de liderazgo ejecutivo quieren implementar la IA. Quieren ser los primeros en adoptar la IA, ¿verdad? Sí.
Y, eh, me imagino que en muchas empresas la gente se resistiría bastante a esa ambición, tal y como dices. Por supuesto. ¿Verdad?
Sí. Entonces, ¿cómo utilizas más concretamente los consejos en tu libro y en tu forma de trabajar, básicamente, para superar ese obstáculo? Sí.
Me refiero, muy específicamente, eh, en el mar de la comunicación de mi marco, ¿verdad? Mm-hmm. Tengo una parte dedicada a enmarcar el valor de la IA, ¿verdad?
Mm-hmm. Y creo que esta es una de las cosas clave, porque no solo cuentan las cosas explícitas, ¿verdad? Entonces decir que con la IA, todos vamos a ser un 30 % más productivos a partir de ahora.
Y eso ya es en sí mismo una afirmación muy atrevida para todos los que están sobre el terreno y a los que ahora se espera que lo utilicen. Pero ellos, las personas que han pasado por muchas reestructuraciones y han oído hablar de despidos, piensan inmediatamente: «Oh, oh, ¿eso significa que en realidad vamos a perder al 30 % de la plantilla? ¿Mi trabajo sigue estando seguro?».
¿Verdad? E incluso si eso no se dijera en voz alta, que vamos a despedir a gente sin siquiera abordar los posibles despidos o no, se convierte en una suposición de la gente sobre el terreno. Y eso conduce inmediatamente a la resistencia, ¿verdad?
Entonces, ¿por qué debería apoyar algo que podría poner en peligro mi trabajo? Y por eso creo que la comunicación es tan importante, ¿no? Cuando se quiere enmarcar el valor de la IA, no solo hay que abordar sus aspectos positivos, sino también intentar mitigar las asociaciones negativas o las expectativas negativas que la gente pueda tener, y abordarlas de forma proactiva, ¿no?
Cuando dices que vamos a ser productivos, nosotros, y no lo somos, no vamos a despedir a nadie, o posiblemente despidamos a alguien, pero solo eso, da igual, ¿no? Sé un poco más intencional al respecto para tener al menos expectativas claras de lo que sucederá entonces. E incluso cuando dices que quieres despedir a gente, hay una forma diferente de verlo, ¿verdad?
Se podría decir que los trabajos que todos tenemos actualmente van a evolucionar, um, y que las tareas serán sustituidas por la inteligencia artificial, pero eso significa que los trabajos tienen que cambiar, y necesitamos, queremos que todos se sumen a este viaje. Pero eso significa que todos deben estar preparados para cambiar sus habilidades y poder crecer hasta convertirse en los neuros que tenemos. Um, eso en sí mismo también es una declaración.
Así que creo que aquí es donde, donde creo que la resistencia puede reducirse considerablemente simplemente comunicándonos más, con honestidad, claridad e intención. De forma proactiva. Sí.
No, no, estoy totalmente de acuerdo. Entrando en los detalles técnicos. Además, estaba pensando, ¿no es también en el capítulo sobre comunicación, o era en el capítulo sobre creatividad, donde se analiza, eh, el papel de los metadatos? Sí.
Y cómo te entrenaste, dónde, ¿dónde está eso? Está en el capítulo sobre comunicación, también está en el com y eso es un añadido a la comunicación. Porque no lo tenías en el primero, eh, el primer libro, ¿verdad? Correcto.
Correcto. Um, entonces, ¿podemos desarrollar eso un poco más? ¿Cuál es, cuál es, cuál es el, cuál es el co, cuál es, como, el aspecto técnico de, eh, de la C en, en el marco de las cinco C?
Sí, por supuesto. Bueno, la razón por la que lo mencioné es porque esperamos, en concreto, que la IA generativa, y digamos que los chatbots o cualquier tipo de asistencia de IA nos ayuden, básicamente, a poner todos los datos y el contexto en su sitio, ¿no? Y que nos den los resultados correctos cuando los solicitemos, ¿verdad?
Mm-hmm. Entonces, ¿el BI conversacional es el tablero de tendencias que tenemos actualmente, verdad? Pero eso también significa que sabe exactamente, um, cuál es la métrica que estoy pidiendo, y dónde buscar exactamente esa métrica para mostrármela también.
Mm-hmm. Y aquí es donde se complica la cosa cuando pensamos en organizaciones y departamentos diferentes que tienen información contextual diferente al respecto, ¿verdad? Donde, por lo general, si no se ha llegado a un acuerdo sobre las cosas, um, todos hablamos de las mismas métricas, pero tenemos diferentes definiciones en mente, o en realidad nos referimos a la misma métrica, pero la llamamos de manera diferente.
Todas esas cosas suelen ser las que realmente determinan el éxito o el fracaso de este tipo de iniciativas. Así que mi opinión al respecto es que estoy de acuerdo en que la semántica es importante y los metadatos son importantes, y que, básicamente, crear ontologías para demostrar el contexto directo es importante, pero es importante que primero haya un acuerdo humano sobre las cosas, ¿no? Porque si nosotros, como seres humanos, seguimos contradiciéndonos entre nosotros y no lo hemos resuelto, entonces no debería sorprendernos que la IA también esté confundida, porque incluso nosotros, como organización, estamos confundidos al respecto, ¿verdad?
Así que la cuestión es que podemos centrarnos en todo lo que queramos, pero hay que empezar por mantener conversaciones entre nosotros, porque no podemos permitir que la IA amplifique la confusión y la contradicción que tenemos como seres humanos en nuestro conocimiento institucional y en nuestra comunicación. Sí. Oh, sí.
Totalmente de acuerdo. Um, y nosotros, trabajamos con ejecutivos que, eh, creo que es una arquitectura muy interesante, ¿verdad? Porque realmente se puede avanzar bastante, eh, bastante rápido y de forma bastante concreta, eh, ahora mismo con la IA para precisamente esos casos de advertencia.
Um, entonces si yo, si yo, yo, me gustaría saber, es una gran pregunta, pero como, cómo, mm-hmm. Espero que puedas responder una verificación. Está bien.
Sin presión. Sin presión. Pero, ¿cuál sería tu ideal, eh, estado futuro de las empresas, en términos de inteligencia artificial?
¿Qué, qué pasa ahora que tenemos estos superpoderes? Quizás un gran trabajo, ¿verdad? Mm-hmm. Pero ahora que tenemos IA y podemos darle forma, y podemos usarla intencionadamente y no solo ser, eh, receptores del efecto de la IA, sino que realmente podemos usarla.
Como, eh, ¿cuál sería tu, eh, desde un punto de vista estratégico, repito, cuál sería tu visión de cómo operarán las empresas en el futuro, eh, con la IA? Correcto. Quiero decir, si tuviera que resumirlo en una frase más sencilla, sería, eh, donde tengamos un enfoque y un modelo operativo equilibrados, en los que, eh, los seres humanos y la IA colaboren de manera equilibrada para alcanzar los objetivos de una organización de forma eficaz y eficiente.
Y eso también significa que sabemos qué tareas se deben asignar a los seres humanos, y se les asignan por una razón. Y que también conocemos las limitaciones y las oportunidades de la IA. Y les estamos asignando claramente una tarea que la IA es capaz de realizar, y no les estamos asignando tareas que no debemos asignarles y que podrían ser, um, de vida o muerte para los estudiantes.
Cierto, claro. Aterrizar de una manera muy saturada. Así que todo viene con ese entendimiento y esa reflexión casi como un todo de lo que serán tareas exclusivamente humanas.
Y nos limitamos a los seres humanos, y contamos con las personas adecuadas para llevar a cabo estas tareas. Y disponer, proporcionar, eh, agentes de IA o aplicaciones de IA en el futuro, el contexto necesario y la habilitación necesaria para realizar sus tareas y automatizar cosas y ayudar con las cosas de la mejor manera posible. Pero la razón por la que creo que aún faltan unos años para eso es porque estamos, todos estamos en modo experimental, ¿verdad?
No creo que nadie se sienta lo suficientemente seguro como para saber exactamente cuáles deben ser todas las tareas humanas y todas las tareas de la IA. Además, esto va evolucionando con el tiempo. Pero también es cierto que todos estamos tanteando el terreno constantemente, ¿no?
¿Debería automatizarse esto? ¿Debería convertirse en una tarea de IA? Quizás no.
Y entonces todos estamos yendo y viniendo. Así que creo que la especie humana también tardará un tiempo en encontrar ese equilibrio intermedio en algún momento. Sí.
Sí. Por supuesto. Por supuesto.
Una de las cosas que veo, eh, que veo como un potencial, de nuevo, entrando un poco en los detalles del panorama de las tecnologías de la información, es que, es que, eh, las aplicaciones que tenemos, todos tenemos, todas las empresas tienen muchas aplicaciones, ¿verdad? Y veo, veo dos perspectivas. Veo una perspectiva en la que, eh, la cantidad de aplicaciones aumentará significativamente debido a la inteligencia artificial.
Mm-hmm. Porque puedes crear aplicaciones muy fácilmente. Sí.
Pero se crearán, y quizá también desaparezcan con bastante facilidad, eh, otra vez, ¿no? Eh, porque no los necesitas. Así que creo que estamos pasando de este gran paradigma que se renueva como software como servicio a... mm-hmm.
Para, para todo lo contrario, un servicio de software. Así que cuando necesitamos hacer algo, podemos, podemos crear el paquete tecnológico, eh, eh, de software, por así decirlo, eh, para, para realizar esa acción, y luego podemos retirarlo cuando ya no lo necesitamos. Por lo tanto, veo un panorama informático mucho más dinámico, un panorama mucho más, eh, cambiante en las empresas.
Espero que seamos tan buenos, eh, eh, creando aplicaciones como retirándolas. Eso es lo que más me preocupa. Sí.
Creo que hay un gran lío ahí. Y estoy seguro de que la gestión de metadatos en las tecnologías va a ser mucho más fácil. Si nos fijamos en cómo podemos describir los datos tecnológicos, pero también, por otro lado, buscar datos, explorar datos, eso será más fácil.
Pero la gestión general de los metadatos será mucho más complicada, creo, porque tendremos una enorme cantidad de aplicaciones y estas contendrán datos muy críticos, y será todo eso, será muy dinámico. Así que, veo un futuro, pero, de nuevo, eso está muy ligado a la tecnología, ¿verdad? Eh, sí.
A ti, a mí, a mí, me gusta mucho lo que dices. Eh, es algo que sin duda también puedo imaginar. Pero también creo que ahí podría haber un punto de contacto con la innovación en general en el pasado, ¿no?
Porque hay una diferencia entre los modos de experimentación y el modo de ejecución y producción, ¿verdad? Y todos sabemos que, si fracasas, pruebas cosas, pero ahí, todavía no se está utilizando para una base de usuarios más amplia por una razón, porque todavía es como construir, probar e iterar, ¿verdad? Y en algún momento, decides decir: «Vale, ahora queremos dárselo a la parte».
Tenemos un MVP, ¿verdad? Ahora queremos dárselo al grupo de usuarios clave que queremos tener, y ellos lo van a utilizar. Y basándonos en eso, vamos a iterar de nuevo, de forma ágil.
Y en algún punto intermedio, hay que tomar una decisión sobre cómo será la documentación y cuánto se integrará en el resto de la arquitectura que tenemos en una organización, ¿verdad? Porque yo diría, especialmente en relación con tu comentario, que con la IA ahora podemos experimentar, crear y desarrollar prototipos mucho más rápido, pero no todos los prototipos tienen que ser inmediatamente, eh, etiquetados y documentados y conocidos en el espacio de metadatos que tenemos, ¿verdad? Mm-hmm.
Y tal vez sea necesario establecer un umbral claramente definido sobre cuándo decidimos que este se queda un poco más de tiempo que todos los diferentes prototipos que tuvimos en el pasado.
Y solo esa parte tiene que pasar por una lista de verificación o un control de calidad, como quieras llamarlo, para convertirse realmente en esa parte, ¿verdad? Lo que significa volver al tema central de nuestro, eh, seminario en línea nosotros, como seres humanos, tenemos que decidir cuáles son los criterios adecuados para juzgar si algo está listo para su uso en la producción frente a lo que todavía es experimental. Porque esa línea es muy delgada en la era de la inteligencia artificial.
Así que básicamente tenemos que ser claros, pero también flexibles para ver cómo avanzamos en esto. Sí. Quiero decir, al menos así es como yo lo veo, eh, es que, como el título de tu libro es Humanizar la estrategia de IA.
Mm-hmm. Y veo a tanta gente, veo a tanta gente en las empresas que solo se ponen a la defensiva con respecto a la IA, como los desarrolladores que dicen: «Bueno, me hará el código por mí. No voy a...», como si los nuevos desarrolladores no se fueran a incorporar porque «me hará el código por mí».
Y, bueno, el departamento de marketing dice que no necesitamos crear marketing, porque él mismo lo creará por nosotros. Es como si mucha gente estuviera a la defensiva, eh... sí.
Eh, estado mental, lo cual no está mal. Es decir, puedo entenderlo y sin duda lo siento. Estoy seguro de que tú también lo sientes, como que debes preguntarte, como autor, si habrá un papel para alguien como yo, alguien que escribe libros y tiene opiniones sobre las cosas y las plasma por escrito.
Me lo pregunto de vez en en cuando. Creo que al menos tengo un par de libros más, eh, que escribir antes de que todo explote. Pero, eh, pero, eh, Solo una cuenta atrás muy sutil en tu cabeza.
Lo entiendo. Sí. Sí, exactamente.
Eh, claro. Pero, pero si nos tomamos en serio la IA, creo que nos encontramos en una situación en la que tenemos que preguntarnos: ¿qué queremos hacer con la IA? ¿Qué tipo de capacidades queremos desarrollar?
¿Cómo queremos trabajar con ella? Y así es como yo lo veo, como cómo se podría humanizar una estrategia de IA. Um, tal vez esté un poco al revés en términos de tu libro.
Eh, pero, eh, no, en realidad no lo creo. Creo que eso es más o menos como si yo me tomara la libertad de decir que esa es una perspectiva que se trata en tu libro, ¿verdad? Eh, por supuesto.
Estoy totalmente de acuerdo. Incluso añadiría que no solo como autor, sino también como músico, ¿verdad? Mm-hmm.
Por supuesto, también pienso mucho en cómo la música generada por IA compite con la música original creada por humanos, ¿verdad? Y, la verdad, incluso ahora, al probar las herramientas de música generada por IA, sigo sintiendo que les falta algo, su alma. Y sé que puede parecer una opinión muy subjetiva, pero, por alguna razón, por muy parecida que sea a la música creada por humanos, me parece que es demasiado perfecta, ¿no?
Mm-hmm. Y me doy cuenta de que realmente es en la música hecha por humanos, las imperfecciones las que la hacen sonar tan auténtica en primer lugar, ¿verdad? Porque ahora que tienes música genuina, hace que todas las notas perfectas, todas las voces canten exactamente las notas que querías cantar.
Todo el ritmo siempre es perfectamente matemático, claramente dividido, eh, dividido. Pero si escuchas un disco de los Rolling Stones del pasado, no tiene la misma velocidad que el anterior, por ejemplo, hay algunas notas equivocadas aquí en la guitarra aquí y allá que también incluimos en el disco. Pero eso es parte del encanto, ¿no?
De la música creada por el ser humano. Espero que, utilizando eso como analogía, la originalidad humana, por supuesto, siga teniendo un lugar útil, ¿verdad? Y pensando de forma distópica, si todo el trabajo creativo se detiene y toda la creatividad proviene únicamente de la generación de IA, entonces no hay más remedio que los modelos de IA aprendan de nuevo del contenido generado por IA.
Y todos sabemos que el entrenamiento recursivo también conduce a una degradación de la calidad, ¿verdad? Así que sí, eso hace que la creatividad humana sea aún más importante, porque, de lo contrario, la IA no nos va a ayudar de ninguna manera. Esa es mi esperanza, al menos la visión optimista de que la creatividad y la originalidad humanas siguen siendo muy importantes, porque de lo contrario, también existe el riesgo de que la IA deje de funcionar en el futuro.
Sí, efectivamente. No, no, veo, eh, veo muchos retos por delante, pero también veo muchas oportunidades interesantes. Sí, requerirá, requerirá la reconfiguración de, de muchos, eh, puestos.
Mm-hmm. Pero he visto, he visto cosas circulando con las que no estoy de acuerdo. Y puedo darte un par de ejemplos.
Por ejemplo, en Substack, estoy, estoy pasando cada vez más tiempo en Substack, eh, y vi a una persona publicar eso, eh, era una cita de, eh, Bill Gates, pero era incorrecta. Era una cita que decía, eh, algo así como que Bill Gates había dicho que la IA acabaría con los médicos y los profesores, pero en realidad él tiene un podcast llamado Un Confuse Me, en el que dijo exactamente lo contrario desde el principio. Así que la cita no era una interpretación de un periodista que enfatizaba algo de una manera que claramente no era correcta.
¿Cuál era la intención de lo que dijo Bill Gates? Básicamente, dijo al principio de la conversación con el genio tecnológico, no recuerdo su nombre, que lo que veremos es el aumento. Sí.
El mundo, el mundo no tiene suficientes médicos. El mundo no tiene suficientes profesores. Sí.
Así que los profesores y los médicos no van a desaparecer. Los necesitamos a todos y cada uno de ellos, pero tal vez, tal vez podamos explorar, eh, ampliar sus fuerzas para llegar a una parte más grande de la humanidad. ¿No sería estupendo?
Y creo que ese es el tipo de conversación, sí. Y ese es, creo, el tipo de conversación que debemos tener. Obviamente, de manera muy específica, las personas se encontrarán en una situación en la que podrán temer: «Oh, ¿esto será sustituido por la IA?».
Y creo que todos deberíamos respetar eso, pero las necesidades de la humanidad en general y también de comunidades y sociedades muy específicas, son mayores que la oferta. Y ahí es donde la IA tiene un mundo fantástico en el que actuar. ¿Verdad?
Por supuesto.
Estoy totalmente de acuerdo contigo. Yo también, quiero decir, si pensamos en nosotros mismos como pacientes de médicos, por ejemplo, ¿verdad? Y yo tuve ese, eh, experimento mental hace unos días.
Por ejemplo, si tuviera que elegir entre un médico humano y un médico robot, ¿no? O un médico con acceso a una aplicación de IA, creo que sin duda me decantaría por el médico con la aplicación de IA, porque es lo mejor de ambos mundos, ¿no? Porque me sentiría raro si, eh, un robot tomara una decisión sobre mi vida o mi muerte, ¿no?
Para mí, eso es ética y tecnológicamente extraño. Además, un médico que no dispone de la información más actualizada y que quizá solo se basa en su intuición y en información desactualizada siempre supone un riesgo, es algo humano, es decir, un comportamiento humano. Pero alguien que está básicamente conectado al mundo actualizado es capaz de manejar la tecnología y tiene acceso a la información de la manera correcta.
A mí me parece algo bueno. Entonces, eh, me gusta lo que has dicho, ¿verdad? Es un aumento, ¿no?
No se trata de sustituir, sino más bien de aumentar y amplificar las cosas buenas que la gente puede hacer. Y esperemos que esa sea, lo llamo así, una forma realista y optimista de ver las cosas, ¿no? No se trata solo de exagerar el optimismo, sino de ser optimista de forma realista y creer que las cosas buenas van a suceder allí donde están.
Sí. Sí. Es, es, es, cada evolución tecnológica tendrá, eh, baches en el camino.
Es inevitable que Por supuesto. Que la gente se sienta, eh, amenazada y, y, y, y, de nuevo, debo insistir en que es algo que todos debemos respetar. Eh, es, es, eh, es, eh, aún así creo que el potencial, el potencial positivo de esta tecnología, eh, prevalecerá.
Y creo que es nuestro deber, eh, formular eso y ser realmente proactivos en ese sentido. Yo, yo adopto un enfoque de software para esto. Sí.
Bueno, mi forma de verlo es que podemos ser mucho más dinámicos. No hay nada más, en un entorno empresarial, que eso. Por lo tanto, es muy, muy difícil cambiar, gestionar, incluso descubrir y luego gestionar y cambiar el panorama tecnológico de una empresa, digamos, con más de un par de décadas.
Eh, como si fuera una disciplina en sí misma. Quizás, quizás veamos más elasticidad, eh, sí. En el panorama empresarial, eh, debido a la IA, ¿verdad?
Yo, yo tiendo a pensar que sería algo muy, muy bonito. Pero obviamente es algo un poco lejano en este momento. Sí.
Pero ya puedes, como has visto, como No sé si lo viste, por ejemplo, el lanzamiento de puedes ver 5.0, pero había una demostración de, um, de un pequeño lenguaje, uh, una aplicación como aprender, uh, una aplicación para aprender idiomas que podía crear cuestionarios y pruebas de opción múltiple, uh, uh, y como, como el nivel de refinamiento ahora es, es bastante bueno. Así que no lo creo, en absoluto. No creo que sea, no creo que sea dentro de 10 años cuando podamos ver aplicaciones empresariales que se ejecuten y se detengan para realizar, eh, diversas tareas.
Y creo que absolutamente. Creo que se integra de todos modos, que creo que se integra muy bien con, eh, con mi gestión de datos. Y, eh, de todos modos, esto es una divagación mía.
Debería haberte hecho preguntas. No, por supuesto. De hecho, para ampliar lo dicho, creo que lo que al menos personalmente me ha ayudado la IA este año es también, eh, ser mucho más adaptable a, bueno, básicamente cualquier situación en la que me encuentre, ¿no?
Porque es muy fácil aprender y adquirir conocimientos sobre diferentes temas, llenar los vacíos de lo que no sabes e intentar buscar cosas ahora mismo, y obtenerlo de una manera personalizada que prefieres, creo que ha acelerado mucho mi aprendizaje este año, pero además de solo leer cosas, ahora también puedo hacer preguntas con contexto e introducir las fuentes adecuadas para que me responda preguntas específicas que me hacen sentir muy feliz por haber podido digerir y procesar tantos conocimientos hoy en día. Y además, en relación con lo que comentabas, si tenemos una organización con un panorama elástico, creo que el cerebro humano y el conocimiento humano serán más intuitivos y se adaptarán mejor a las personas, lo que hará que los seres humanos sean más elásticos en su comportamiento y también en su mentalidad en el futuro, ¿no? Así que van de la mano, y eso me gusta mucho, ¿verdad?
Si somos capaces de hacerlo, entonces todos nos estamos volviendo más flexibles y ágiles y podemos alcanzar nuestros objetivos de una manera mucho más adaptable. Sí. Sí.
Sí. Por supuesto. De acuerdo.
Así que creo que, poco a poco, vamos a ir terminando la conversación. Si alguien del público tiene alguna pregunta, ahora es el momento de levantar la mano y preguntar, ¿de acuerdo? Se nos ha olvidado mencionarlo al principio, ¿verdad?
Pero tenemos una sorpresa especial para todas las personas que vayan a hacer preguntas. Habrá un ejemplar firmado del libro que se enviará a un afortunado ganador que se elegirá, básicamente, después del seminario en línea. Así que no dudéis en hacer preguntas, y elegiremos a uno de vosotros para que reciba un ejemplar firmado de mi libro, firmado por mí, por supuesto.
Y si, eh, también podemos responder preguntas. Oh, ahí vamos. Eh, hola, Ty.
Me alegro de verte. Sí. Ah, así que también os conocéis.
Sí, claro. Sí. Sí.
Fantástico. Fantástico. Genial.
Bueno, solo era un saludo, pero también puedes hacer una pregunta si tienes alguna. Y si no, creo que también responderemos preguntas por correo electrónico después, así que puedes contactarme por LinkedIn. Creo que tal vez tengamos que hacerlo de esa manera, Chanka.
Sí, claro. Suena bien. Um, esto, sí, esperemos un minuto o dos, pero, uh, está bien.
Bueno, básicamente, ahí lo tenemos. Sí, ¿quién tendremos, tendremos también incentivos para los agentes de IA en el futuro? Oh, gran pregunta, ¿quieres responder a esa?
Sí, déjame intentarlo. Um, entonces, en el agente central de IA significaría que los agentes de IA serían recompensados por hacer ciertas cosas, ¿verdad? En cierto modo, sin embargo, siento que así es como a menudo ya funciona la IA, ¿verdad?
Si pensamos en el aprendizaje por refuerzo, ¿verdad? Entonces básicamente lo estás recompensando por las cosas correctas y castigándolo por las cosas malas. Así que creo que, técnicamente hablando, esto ya está sucediendo porque este es el mecanismo que hay detrás en un sentido más filosófico, ¿no?
Eh, la pregunta es si los agentes de IA ven los incentivos realmente como una motivación adicional para hacerlo aún mejor de lo que ya lo están haciendo, lo que podría ser una opción muy interesante. Porque, bueno, el único artículo que he leído al respecto, de Anthropic, básicamente situaba a los agentes de IA en un escenario en el que tenían que luchar por la supervivencia y, al parecer, empezaron a mentir a la gente y a chantajearla, ¿no? Así que es interesante que el mecanismo de supervivencia de los seres humanos se haya transferido a un LLM básicamente para que se comporte de esa manera.
Eso plantea muchas zonas grises, porque si pueden comportarse así bajo coacción, ¿qué pasaría si se les empezara a incentivar? ¿Realmente mejorarían? No tengo una respuesta, la verdad es que da un poco de miedo pensar en ello.
Eh, quizá sea un buen momento para pasarle la palabra a Ola, ¿qué opinas al respecto? Bueno, creo que gestionar la arquitectura Angen es algo que, obviamente, requerirá una curación humana. Personalmente, no me asustan los escenarios distópicos en los que los agentes se atacan entre sí y a la humanidad, y vemos cómo la inteligencia artificial integrada en robots y otras máquinas controla a la humanidad.
Yo, yo no soy así, no me gusta que todo funcione con electricidad. Siempre puedes desconectar el cable. No, no me da mucho miedo eso.
Es una buena observación. Pero también hay agentes específicos que se encargarán de gestionar a otros agentes, precisamente para supervisar este tipo de comportamiento. Así que no creo que sea un problema, pero reconozco que es una gran pregunta.
Sí. Bueno, tenemos otra pregunta, eh, de, o Jane, mm-hmm. Quizás pueda leerla y luego tú puedas responderla.
Claro. Hola, gran seminario en línea. Teniendo en cuenta el lado humano de la IA, me preocupa la falta de aplicación de ciertas políticas y directrices de uso de la IA, pensando en las reglas de Isaac Asimov para los robots.
Mm. Creo que estamos bastante atrasados en este aspecto, y por eso la humanidad se siente amenazada. Comparto tu opinión al respecto. Por supuesto.
Esa es una gran pregunta y muy profunda. Eh, creo que tal vez solo desde el punto de vista de la gobernanza, ¿no? Desde el punto de vista de la gobernanza de la IA, la experiencia es, eh, incluso ya en la gobernanza de datos, que esas políticas y directrices sobre cómo comportarse y qué no hacer solo se aplican cuando realmente ocurre algo malo, ¿verdad?
Y o bien está impulsado por una normativa que obliga a hacerlo de todos modos, porque si no te multan, la gente va a la cárcel, o tienes que meterte en una tormenta de mierda con los clientes, ¿no? Pero, por otro lado, siempre se investiga cuando sucede algo malo y se quiere evitar que vuelva a ocurrir. Y ahora estamos en ese punto interesante en el que aún no hemos tratado con la IA tanto tiempo como con otras tecnologías en la medida en que lo hacemos actualmente.
Entiendo que todos tenemos miedo, pero aún no ha ocurrido nada grave, maligno o malo que justifique la creación proactiva de esas normas para su aplicación efectiva. Por lo tanto, en cierto modo, creo que cuanto más se utilicen ahora, más cosas malas van a ocurrir. Lo ideal sería que esas directrices, normas y políticas se crearan justo antes de que el problema se agrave y alcance una gran escala.
Eh, y esto, habiéndolo dicho, creo que las regulaciones también son, en ese sentido, una oportunidad, ¿verdad? Porque se supone que también nos llevarán al lado correcto de la historia. Y prefiero prevenir que lamentar.
Y algunos aspectos, especialmente cuando se trata de tomar decisiones sobre vidas humanas, ¿verdad? Por lo tanto, utilizar eso como vehículo en las organizaciones para impulsar esas políticas nunca es algo malo. Y luego se puede ampliar, tal vez incluso utilizar ese impulso del cumplimiento para luego implementar también esas políticas.
Y Kai, estaremos cerrados, eh, eh, en la tienda de hora. También hay otra pregunta, pero nosotros, hice una captura de pantalla y puedes... De acuerdo. Puedes, puedes, puedes hacer la lotería, um, después.
Eh, y eh, ha sido un placer tenerte en John Kai, eh, este seminario en línea Explore, que no trata en absoluto sobre la acción, sino sobre grandes autores, pensadores y profesionales de la comunidad de datos e inteligencia artificial. Muchas gracias por participar, muchas gracias por invitarme. Ha sido un verdadero placer.
Estate atento, mantente en contacto. Cuídate.