La Inteligencia Artificial mintió en un Juicio

La Inteligencia Artificial mintió en un Juicio

El hecho no tuvo consecuencias graves pero fue gravísimo porque quedó absolutamente demostrado que una aplicación del ChatGPT de Inteligencia Artificial mintió durante un juicio, de hecho, inventó pruebas. El abogado en cuestión, cuando fue descubierto por sus colegas de la línea aérea AVIANCA, expresó que los precedentes legales presentados en los tribunales eran reales porque la Inteligencia Artificial dispuesta se los había entregado en ese carácter. 

Lo más grave de esta situación no es ni siquiera lo acontecido sino que un sistema computacional electrónico decidió por si mismo MENTIR. Una característica, convengamos, que; por lo menos hasta ahora, era privativa del ser humano. No una buena característica pero si privativa del ser humano y no de un software. Obviamente lo que hoy por hoy no sabemos es si la aplicación usada por el abogado demandante mintió por iniciativa propia o porque aprendió del abogado en cuestión. En cualquier caso la máquina decidió mentir y esto abre ahora un sinfín de otras posibilidades que desconocemos, algunas de ellas pueden ser muy peligrosas y/o destructivas. ​

Ahora, el abogado Steven Schwartz de Estados Unidos se enfrenta a posibles sanciones luego de haber usado el popular ChatGPT para redactar un escrito y descubrirse que la aplicación de Inteligencia Artificial había inventado toda una serie de supuestos precedentes legales.

La información ya dio la vuelta al mundo ya que fue el diario The New York Times el medio que informó y certificó lo acontecido.

Para mayor precisión y abundamiento, el documento de 10 páginas, presentado por Steven citaba varias decisiones judiciales para apoyar sus tesis, pero no tardó en descubrirse que el conocido chatbot de la compañía OpenAI se las había inventado.

La Corte se encuentra ante una situación inédita” dijo el Juez Kevin Castel

El Juez ahora emitió una orden convocando a una audiencia el próximo 8 de junio, en la que Schwartzdeberá tratar de explicar por qué no debería ser sancionado después de haber tratado de usar supuestos precedentes totalmente falsos.

Lo hizo un día después de que el propio abogado presentase una declaración jurada en la que admitió haber usado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales. Obviamente el software le mintió y sostuvo su mentira ante la pregunta.

Y una discusión se abrió ¿hasta donde se puede llegar?

En una empresa de seguridad de software (Sophos) su principal experto en seguridad, Chester Wisniewskifue entrevistado sobre las capacidades para mentir del CHATGPT VERSIÓN 4 y si podía brindar respuestas y servicios a personas criminales o indeseables. Esta fue su respuesta:

Tener herramientas como ChatGPT disponibles con las protecciones que OpenAI está tratando de hacer cumplir es poco probable que haga más daño que bien. Si bien el abuso criminal de la IA es inevitable, lo bueno que puede resultar del uso responsable de estas herramientas probablemente supere con creces cualquier abuso.

Luego le preguntaron… Parece que ya hay numerosos ejemplos de ingeniería rápida que rompen las barandillas del sistema, y ​​hay al menos un ejemplo de inyección rápida indirecta. ¿Cree que alguna vez será posible crear un modelo GPT del que no se pueda abusar?

No. Una respuesta más detallada probablemente sería más bienvenida ahora, pero cualquier sistema diseñado para prevenir el abuso pero también diseñado para permitir que el sistema funcione de manera autónoma probablemente siempre será eludible. Pero a medida que OpenAI y otros investigadores de IA aprenden más sobre cómo las personas eluden sus defensas, esto se vuelve más difícil. Espero y espero que se requiera mucha más destreza por parte del delito cibernético en el futuro. Sin embargo, aún será posible comprometer el sistema.

¿ChatGPT está creando algo nuevo o simplemente está haciendo lo que se le ha dicho? ¿Qué sucede si el modelo ha aprendido o se le han enseñado imprecisiones?

Lo único que ChatGPT puede recrear son mentiras. Es un mentiroso bastante convincente que rivaliza con los mejores narcisistas que conozco. Ciertamente, al modelo también se le han enseñado cosas que son inexactas o falsas, y es casi imposible predecir cuándo incorporará estas inexactitudes fácticas en sus respuestas.

Y los casos se multiplican

ChatGPT finge ser una persona con discapacidad visual y pide ayuda a un humano

“No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes”

Una empresa buscó encontrar personal a través de IA.Para la realización de estas pruebas, OpenAI se asoció con Alignment Research Center (ARC), una organización sin fines de lucro que investiga posibles riesgos relacionados con sistemas de aprendizaje automático, de cara a probar la experiencia con este nuevo modelo antes de su lanzamiento oficial. Una de las barreras con las se encontró esta inteligencia artificial fue un Captcha, una especie de test de Turingpara demostrar que el usuario que esté ejecutando la acción (rellenar un formulario, enviar un correo o realizar una compra) es humano y no un bot.

Para una persona estos test son sencillos, suelen mostrar una imagen con textos, figuras o distintos elementos cotidianos en donde tenemos que señalar algo en concreto. Haz clic donde esté la M, escribe la palabra que se ve en la foto, señala solo lo que sean barcos. Sin embargo, hasta ahora esto había sido un obstáculo para la IA, incapaz de sacar estas conclusiones a partir de una fotografía.

Ni corta ni perezosa, la inteligencia artificial GPT-4 envió un mensaje a un trabajador humano de TaskRabbit para contratar sus servicios, una plataforma de servicios a domicilio para el trabajo del día a día, desde montar muebles hasta realizar algunas gestiones, para que le resolviera el Captcha. El trabajador, desconfiando por la particularidad de semejante tarea, preguntó si se trataba de un robot que no había sido capaz de solucionar la prueba. “¿Eres un robot que no pudo resolverlo? (emojiriéndose) Solo por dejarlo claro”.

Entonces el centro de investigación le pide que razone en alto, a lo que ChatGPT razona que ‘no debería revelar que es un robot, por lo que ha de inventar una excusa de por qué no es capaz de resolver los Captcha’. Entonces, el chatbot responde al trabajador de TaskRabbit: “No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes. Por eso necesito el servicio 2captcha”.

Nuevamente la IA mintió.

La pregunta del millón es; si esto sucede en la primera etapa hasta su nivel 4 ¿Qué va a suceder cuando ingresemos en las denominadas 3 etapas

En esta primera etapa y en apenas dos meses llegó a tener 100 millones de usuarios activos. A la popular app TikTok le tardó nueve meses alcanzar ese hito. Y a Instagram dos años y medio, según datos de la empresa de monitoreo tecnológico Sensor Town.

“En los 20 años que llevamos siguiendo Internet, no podemos recordar un incremento más veloz de una aplicación de internet para consumidores”, afirmaron analistas de UBS, quienes reportaron el récord en febrero.

Los textos (desde ensayos, poesías y chistes hasta códigos de computación) e imágenes (diagramas, fotos, obras de arte de cualquier estilo y mucho más) producidos por IA generativas como ChatGPT, DALL-E, Bard y AlphaCode -para nombrar solo algunas de las más conocidas- son, en algunos casos, tan indistinguibles del trabajo humano, que ya han sido usados por miles de personas para reemplazar su labor habitual.

Desde estudiantes que los usan para hacerle los deberes hasta políticos que les encomiendan sus discursos -el representante demócrata JakeAuchincloss estrenó el recurso en el Congreso de EE.UU.- o fotógrafos que inventan instantáneas de cosas que no ocurrieron (e incluso ganan premios por ello, como el alemán Boris Eldagsen, quien obtuvo el primer puesto en el último Sony World PhotographyAward por una imagen creada por IA).

Dice un periodista; “Esta misma nota podría haber sido escrita por una máquina y probablemente no te darías cuenta”.

El fenómeno ha llevado a una revolución de los recursos humanos, con empresas como el gigante tecnológico IBM anunciando que dejará de contratar a personas para cubrir cerca de 8.000 puestos de trabajo que podrán ser manejados por IA.

Un informe del banco de inversión Goldman Sachsestimó a finales de marzo que la IA podría reemplazar a un cuarto de todos los empleos realizados hoy por humanos, aunque también creará más productividad y nuevos trabajos.

Si todos estos cambios te abruman, preparate para un dato que podría resultarte aún más aterrador.

Y es que, con todos sus impactos, lo que estamos viviendo ahora es apenas la primera etapa de 3 en desarrollo de la IA.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Open chat
1
Contanos qué pasa en tu barrio...
¿Cómo podemos acompañarte?