Puedes ver el gran problema con la IA cuando usas Alexa, dicen preocupados profesores de Harvard. Solo pregúntale si Amazon es un monopolio.

Según profesores de Harvard, la IA presenta un gran problema al usar Alexa. Pregunta si Amazon es un monopolio.

Cuando Alexa responde de esta manera, es obvio que está poniendo los intereses de su desarrollador por encima de los tuyos. Por lo general, sin embargo, no es tan obvio a quién está sirviendo un sistema de IA. Para evitar ser explotados por estos sistemas, las personas deberán aprender a acercarse a la IA con escepticismo. Eso significa construir deliberadamente la entrada que le das y pensar críticamente en su resultado.

Las nuevas generaciones de modelos de IA, con sus respuestas más sofisticadas y menos rutinarias, están dificultando determinar quién se beneficia cuando hablan. La manipulación de las compañías de Internet para mostrar lo que ves y servir a sus propios intereses no es nada nuevo. Los resultados de búsqueda de Google y tu feed de Facebook están llenos de entradas pagadas. Facebook, TikTok y otros manipulan tus feeds para maximizar el tiempo que pasas en la plataforma, lo que significa más vistas de anuncios, en detrimento de tu bienestar.

Lo que distingue a los sistemas de IA de estos otros servicios de Internet es lo interactivos que son y cómo estas interacciones se convertirán cada vez más en relaciones. No se necesita mucha extrapolación de las tecnologías actuales para imaginar IA que planificarán viajes para ti, negociarán en tu nombre o actuarán como terapeutas y entrenadores de vida.

Es probable que estén contigo las 24 horas del día, te conozcan íntimamente y sean capaces de anticipar tus necesidades. Este tipo de interfaz conversacional con la vasta red de servicios y recursos en la web está dentro de las capacidades de las IA generativas existentes como ChatGPT. Están en camino de convertirse en asistentes digitales personalizados.

Como expertos en seguridad y científicos de datos, creemos que las personas que lleguen a depender de estas IA tendrán que confiar en ellas implícitamente para navegar por la vida diaria. Eso significa que tendrán que estar seguros de que las IA no están trabajando secretamente para otra persona. En Internet, los dispositivos y servicios que parecen funcionar para ti ya trabajan secretamente en tu contra. Las Smart TVs te espían. Las aplicaciones de teléfono recopilan y venden tus datos. Muchas aplicaciones y sitios web te manipulan a través de patrones oscuros, elementos de diseño que engañan, coercen o engañan deliberadamente a los visitantes del sitio web. Esto es el capitalismo de vigilancia, y la IA está en camino de formar parte de ello.

A oscuras

Es posible que con la IA sea mucho peor. Para que ese asistente digital de IA sea realmente útil, tendrá que conocerte de verdad. Mejor que tu teléfono te conoce. Mejor que la búsqueda de Google te conoce. Mejor, tal vez, que tus amigos cercanos, parejas íntimas y terapeutas te conocen.

No tienes razón para confiar en las principales herramientas de IA generativa de hoy en día. Deja de lado las alucinaciones, los “hechos” inventados que producen GPT y otros modelos de lenguaje grandes. Esperamos que eso se solucione en gran medida a medida que la tecnología mejore en los próximos años.

Pero no sabes cómo están configuradas las IA: cómo han sido entrenadas, qué información se les ha dado y qué instrucciones se les ha ordenado seguir. Por ejemplo, los investigadores descubrieron las reglas secretas que rigen el comportamiento del chatbot de Microsoft Bing. Son en su mayoría benignas, pero pueden cambiar en cualquier momento.

Ganar dinero

Muchas de estas IA son creadas y entrenadas a un costo enorme por algunos de los mayores monopolios tecnológicos. Se ofrecen a las personas de forma gratuita o a muy bajo costo. Estas compañías tendrán que monetizarlas de alguna manera. Y, al igual que con el resto de Internet, es probable que eso incluya vigilancia y manipulación.

Imagina pedirle a tu chatbot que planifique tus próximas vacaciones. ¿Eligió una aerolínea, una cadena de hoteles o un restaurante en particular porque era lo mejor para ti o porque su fabricante recibió un soborno de los negocios? Al igual que los resultados pagados en la búsqueda de Google, los anuncios del newsfeed en Facebook y los lugares pagados en las consultas de Amazon, estas influencias pagadas probablemente se vuelvan más furtivas con el tiempo.

Si le estás pidiendo a tu chatbot información política, ¿los resultados están sesgados por la política de la corporación que posee el chatbot? ¿O el candidato que le pagó más dinero? ¿O incluso las opiniones del grupo demográfico de las personas cuyos datos se utilizaron para entrenar el modelo? ¿Es tu agente de IA un doble agente en secreto? En este momento, no hay forma de saberlo.

Digno de confianza por ley

Creemos que las personas deberían esperar más de la tecnología y que las empresas de tecnología y las IA pueden volverse más dignas de confianza. La propuesta de Ley de IA de la Unión Europea da algunos pasos importantes, exigiendo transparencia sobre los datos utilizados para entrenar modelos de IA, mitigación de posibles sesgos, divulgación de riesgos previsibles e informes sobre pruebas de estándares de la industria.

La mayoría de las IA existentes no cumplen con este mandato emergente en Europa y, a pesar de los recientes estímulos del líder de la mayoría del Senado Chuck Schumer, Estados Unidos está muy rezagado en cuanto a esta regulación.

Los AIs del futuro deberían ser confiables. A menos que y hasta que el gobierno implemente protecciones sólidas para los productos de IA, las personas estarán solas para adivinar los posibles riesgos y sesgos de la IA, y para mitigar sus peores efectos en las experiencias de las personas con ellas.

Entonces, cuando obtengas una recomendación de viaje o información política de una herramienta de IA, acércate a ella con el mismo ojo escéptico con el que lo harías con un anuncio en un cartel o un voluntario de campaña. A pesar de toda su ingeniería tecnológica, la herramienta de IA puede ser poco más que lo mismo.

Bruce Schneier, Profesor Adjunto de Políticas Públicas, Escuela Kennedy de Gobierno de Harvard y Nathan Sanders, Afiliado, Centro Berkman Klein para Internet y Sociedad, Universidad de Harvard

Este artículo se republica de The Conversation bajo una licencia de Creative Commons. Lee el artículo original.