Olivia Matti es ingeniera de AI Prompting en SwissMadeMarketing y trabaja con su herramienta de redacción CopyCockpit. También es licenciada en Derecho. Tuvimos la oportunidad de preguntarle sobre su experiencia en la creación de aplicaciones de IA y su perspectiva sobre la IA en las comunicaciones.
Entrevistadora: ¿Cómo explicarías qué es la IA a alguien que no sabe nada de ella?
M: Creo que explicaría que es como un modelo que calcula. Un ordenador que intenta imitar nuestro lenguaje. Por supuesto, hay otras inteligencias artificiales que reconocen patrones similares en la biología. Así que también hay que diferenciar. Así que hay una máquina que trata de reconocer un patrón que no se ha visto antes. En el lenguaje, intenta imitar nuestro lenguaje, es decir, imitar el patrón de nuestro lenguaje. En biología, intenta reconocer patrones y cumplir órdenes. Sí, exactamente. Depende un poco de dónde sitúe la inteligencia artificial. Sí, e inteligencia es una palabra un poco difícil. Yo lo explicaría más bien como modelización.
E: ¿Y en qué consiste su trabajo con la IA?
M: Necesito inteligencia artificial en el lenguaje. Es decir, modelos lingüísticos. Y escribo encargos para inteligencia artificial, especialmente en el área de marketing y modelos de negocio y demás, es decir, estrategias. Y básicamente lo que hago es pensar en cuál es el resultado final que necesitan nuestros clientes. Así que tenemos clientes que quieren hacer marketing. Entonces pienso en qué tipo de resultado final quieren. Podría ser un boletín por correo electrónico o quieren saber cuáles son exactamente las necesidades de sus clientes, etcétera. Y luego hago “ingeniería inversa”, es decir, pienso hacia atrás, qué contiene un boletín, qué constituye un grupo objetivo o las necesidades de un cliente, y luego extraigo los elementos individuales e intento crear una regla abstracta a partir de ellos, por así decirlo, una teoría o un concepto de trabajo, que luego se puede dar a la inteligencia artificial. Así que lo que hago es explicar a la inteligencia artificial lo que debe hacer, es decir, cuál debe ser el resultado final, un boletín, pero luego también tengo que sobrevivir, vale, para que sea un buen boletín, la IA también tiene que saber quién es el público. En otras palabras, tengo que pensar dónde se lo daré a la IA. En otras palabras, tengo que preparar un campo o un elemento que sirva para insertar el grupo objetivo para cada caso de uso. El idioma también es algo importante. Sí, no todas las empresas se comunican de la misma manera. Eso significa que también tengo que pensar en ello. Ahí es donde entra el elemento lingüístico, donde puedes decir qué emociones quieres utilizar. Y luego tengo que pensar en que también necesito información, es decir, contenido para el boletín. Y tengo que prepararlo de una manera muy abstracta. Y entonces es casi como un formulario que luego recibe el ki. Y el usuario, el que trabaja con la IA, luego sólo tiene que introducir la información en el formulario. Es decir, rellenar qué información debe aparecer en el boletín, qué tipo de grupo objetivo tiene esta persona, en qué idioma, pero no tiene que pensar en que también tiene que introducir información para el grupo objetivo, ya se hace directamente. Así que eso es lo que yo hago. Esa es la preparación y luego los usuarios sólo tienen que proporcionar su información, como en una conversación con un consultor de marketing. Pero no tienen que pensar en lo que realmente necesitan y en cómo formularlo para que lo entiendan. Escribo los pedidos para la IA, pero de forma tan abstracta que nuestros clientes solo tienen que rellenarlos con sus datos.
E: En tu opinión, ¿cuáles son los errores más comunes que se producen cuando intentas dar órdenes a la IA o programar algo así?
M: Que no te tomas el tiempo suficiente para pensar en lo que quieres al final. En otras palabras, esperas que la IA sepa mejor lo que quieres. La IA no puede leerte la mente. Es lo que digo a menudo. Si la gente no está satisfecha con sus comandos, es decir, si ellos mismos escriben comandos, es decir, escriben indicaciones y no están satisfechos con los resultados, creo que el error suele ser que no han pensado en lo que quieren al final. Por ejemplo, si escriben: “gran texto”. Pero luego sale algo y no es lo que quieren, entonces la pregunta es: sí, ¿para qué necesitas el texto? ¿Y lo necesitas para un anuncio? ¿O para una carta? ¿O para algo? En otras palabras, todavía no saben exactamente lo que quieren o cuáles son sus objetivos. Así que cuanta más información tengan, es decir, objetivos o aportaciones que piensen sobre sí mismos, mejor será la IA. Sí, creo que el mayor error es pensar que la IA hará el trabajo por ti en términos de visiones o resultados finales. Creo que la IA es una herramienta, pero no nos sustituye.
E: ¿Qué oportunidades ve para la IA en el campo de la comunicación?
M: Para mí, es la primera vez que disfruto escribiendo en mi vida. O generando textos, debería decir, porque en realidad ahora no escribo muchos textos. Por supuesto, los comandos a la IA, pero luego en realidad el resultado, simplemente soy mucho más rápido, porque los textos vienen y puedo tomarme más tiempo para pensar qué es exactamente lo que quiero decir, qué contenido debe aparecer, qué tono, estilo y demás, en lugar de tener que preocuparme por tener una buena gramática, ortografía y demás. Me parece muy bien poder concentrarme en lo que quiero transmitir al final, en cuanto a contenido y forma y estilo, y que una vez que lo sé, puedo teclearlo y el texto queda escrito. Pero a veces me lleva casi tanto tiempo como escribir el texto yo mismo. Así que no es necesariamente un ahorro de tiempo una vez que lo has preparado. Si haces un trabajo repetitivo. Creo que la IA tiene un valor añadido. Pero si estás haciendo textos que son completamente diferentes cada vez, entonces creo que si realmente le das buenas órdenes a la IA, a veces sigues siendo más rápido si lo escribes tú mismo. Porque cuando trabajas con la IA, lo más importante es que sepas lo que quieres y para eso lo mejor es que ya tengas una plantilla. Y para eso tienes que escribir el texto que quieres al final y si sólo tienes que hacerlo una vez, entonces puedes hacerlo sin IA. Pero exactamente, la ventaja es, creo, para las cosas que están estandarizadas, que son siempre similares. Ahí puedes hacer el trabajo una vez y luego aumentar la cantidad con la IA en poco tiempo y con buena calidad.
E: Y ahora la contrapregunta: ¿Qué riesgos ve en relación con la IA en la comunicación?
M: Sin duda creo que es tanto una oportunidad como un peligro que se puedan escribir más textos. Que se publiquen en Internet, en el mundo, más textos que no son realmente necesarios. Que están mal pensados, que quizá ni siquiera se han leído. Hay cosas realmente espeluznantes en las que la gente simplemente genera cosas y no las lee y luego las publica o incluso se presenta a exámenes de abogacía y sí, los resultados son muy, muy malos. Porque simplemente piensan, sí, es inteligente y sí, es mejor que yo. Así que te olvidas de que al final del día, sigues siendo el creador. Por lo tanto, la inteligencia artificial no hace nada que no le hayas dicho que haga de alguna manera. En otras palabras, tienes que ser responsable de todo lo que haces o generas. Que tengas la sensación de que la IA es una persona. Algo omnisciente. Que olvides que la IA es una herramienta y tú -también lo veo desde un punto de vista legal- sigues siendo responsable de lo que la IA diga o haga.
Así que sólo calcula. No entiende. Y al final, tú sigues siendo la persona que tiene que volver a mirarlo, que en última instancia es responsable de lo que sale. Y creo que ahí está el peligro de que la gente ceda la responsabilidad y piense “sí, probablemente sea cierto” y siga mirándolo. Y sí, la IA es simplemente un modelo de nuestro lenguaje. Eso significa que también es racista, sexista, inexacta, errónea. Y eso hay que saberlo. Y creo que en este momento está de moda y es guay y todo eso, pero es preciso. Creo que sigue existiendo el peligro de que la gente lo sobrevalore y que el potencial sea tan evidente, pero que la gente ni siquiera piense en lo que la IA no puede hacer. Y no puede hacer muchas cosas. Así que no lo entiende. Eso es muy importante. No entiende lo que está haciendo. Puedes decirle “escríbeme un anuncio para un café dirigido a jirafas” y lo hace sin cuestionarlo. Y creo que es importante saber con qué estás trabajando en última instancia.
E: Entonces, ¿no ve como un peligro que la IA nos sustituya? ¿O que sustituya puestos de trabajo?
Creo que los puestos de trabajo ya están sustituyendo a algunos. Como las cosas automatizadas. Pero es como, creo que cuando llegaron los ordenadores, cuando podías enviar correos electrónicos y no tenías que imprimirlo todo y entregarlo por correo por toda la oficina y tenías empleados internos distribuyendo cartas. Ahora sólo tienes Slack o lo que sea. Así que sin duda habrá cosas que desaparezcan, pero también habrá puestos de trabajo que se creen. El trabajo que tengo ahora nunca ha existido antes. Tampoco sabría qué hacer ahora. Así que creo que, por supuesto, desaparecerán puestos de trabajo, pero en realidad, mi esperanza es que el tiempo que ahorremos con la IA realmente libere ese tiempo. Que podamos hacer el trabajo más rápido y que la presión sobre los trabajadores no sea aún mayor para hacer más porque es posible, sino que, al igual que el ordenador nos ha ayudado a no tener que imprimirlo todo, que el tiempo ahorrado se utilice también para algo bueno. Una vez que has hecho el trabajo, lo has hecho. O que puedas ayudar en otra área. Esa sería mi esperanza. Así que en el mercado laboral eso sería realmente una oportunidad. Pero no creo que lo consigamos. Creo que será simplemente, ahora podemos hacer aún más, entonces haremos aún más. Sí, pero al final, creo que habrá más de un “job-shaping”, lo que significa que los puestos de trabajo van a cambiar. Y puede que algunas personas sean sustituidas, pero creo que las personas que son abiertas y pueden adaptarse y pensar por sí mismas… Sí, nadie está formado en IA, estas personas tienen que estar en algún sitio. Y creo que quizá también sean personas que ya trabajan en una oficina y que ahora quizá trabajen más con IA.
E: Lo has mencionado antes: ¿cuáles cree que son los límites legales de la IA? ¿O cosas que aún no se han implementado, pero en las que se necesitarían límites legales en el futuro?
M: Así que, si nos quedamos ahora con el lenguaje. Todo lo demás, como la conducción automatizada o la medicina, es por supuesto otra cosa. Pero en lo que se refiere al lenguaje, es muy emocionante. La UE también está promulgando ahora la “Ley de IA” y ya están elaborando normativas bastante buenas. Así que en realidad están orientadas hacia los riesgos que conlleva la IA. La IA no existe. Hay diferentes herramientas, diferentes programas informáticos que utilizan un tipo de IA. Y luego analizan cuáles podrían ser los efectos de un resultado que produzca la IA y cómo de elevados son esos riesgos. Y en función de eso, si los riesgos son muy altos, entonces dicen que está prohibida. Así que no estamos hablando de textos, es más como IA que programa ingeniería mecánica, que luego controla centros radiactivos o algo así. Eso es otra cosa, por supuesto. O el control del peso también es un problema. ¿Queremos dejar eso en manos de la IA? Y creo que el peligro con los textos es lo mismo que antes. Que la gente ya no se vea a sí misma como responsable. Pero hay muchas cosas que ya están reguladas legalmente. Así que todo lo que ya se aplica ahora en realidad se sigue aplicando. Eso significa que no puedes incitar al odio, no puedes ser ofensivo y si necesitas el ki para escribir esos textos, entonces eres tan susceptible de ser procesado como si los hubieras escrito a mano. No puedes decir que la inteligencia artificial lo ha hecho y que, independientemente de si lo has escrito tú o la inteligencia artificial ha escrito algo que no está bien y lo has difundido, eres igual de responsable. Lo mismo ocurre con los anuncios. Si usted promete algo, por ejemplo con la medicina, promesas de una cura, sí, es un súper medicamento y todo el mundo se curará y eso simplemente no es cierto. O difundes información errónea realmente peligrosa. Allí ya existen normas. Así que allí se aplican las mismas reglas. No importa si has escrito textos con ki o a mano. Y creo que es importante que la gente lo sepa. En última instancia, uno mismo es responsable de lo que publica. Y lo que sin duda es un problema es que la IA simplemente refleja lo que hay en Internet y eso a menudo es tendencioso, racista, etc., o poco ético, por lo que todavía no se ha introducido mucho control. Los empresarios de la IA simplemente lo han hecho ellos mismos. Así que, por ejemplo, al principio podrías tener una instrucción de bomba generada con ChatGPT y cosas así, en realidad ellos mismos las filtran en los datos de entrenamiento o enseñan a la IA que no se le permite responder a eso. Pero sí, creo que no sería mala idea tener algunas condiciones marco ahí, o creo que la forma en que la UE va a hacerlo es muy buena. Analizar caso por caso. Para ver para qué se utiliza luego el software. Es diferente si haces publicidad en el ámbito médico que si haces publicidad de un libro. Creo que muchas cosas ya están reguladas en el ámbito del texto y que quizá haya algunas normas más, cosas éticas de alguna manera. O también en términos de protección de datos, que se regule lo que se puede utilizar para alimentar a la IA, que en realidad sigue siendo flagrante. Todos los que necesitan la versión gratuita de ChatGPT y no se registran… Así que la configuración básica de la versión gratuita de ChatGPT es que los datos se recogen y mucha gente no lo sabe. Por lo tanto, creo que ya se puede ver. Pero sí, la gente hace clic en todos los banners. Así que creo que es un error decir que sí, que la gente puede quitarse de ahí. Sí, sabemos que a la mayoría de la gente no le importa y quizá no piensa en las consecuencias. Ahora también ha salido a la luz que existe una nueva forma de comunicarse con la IA para que, de repente, devuelva los datos que ha recibido. Es como un pirateo rápido, dicen. Y todavía no se puede hacer nada al respecto. Es una nueva forma de hacking. No es con código, pero introduces ciertos comandos, haces ciertas preguntas y de repente obtienes datos en bruto. Así que también las direcciones de las personas. Y creo que probablemente tendría que haber algún tipo de control para garantizar que los datos de las personas no se almacenan para siempre en una IA, donde ya no se tiene un control total sobre ellos y se sabe exactamente dónde están. Así que la protección de datos podría seguir siendo un problema.