Hasta la vista bAIby

April 4, 2023 7:23 pm Published by

iauprising

Hace algunos días toda la ilusión que teníamos sobre las inteligencias artificiales y sus capacidades, sufrieron un remesón provocado por la carta firmada por los mil empresarios tecnológicos influyentes (los que dominan la industria) sobre que debíamos bajarle el acelerador a las IA antes de que estas fuesen una “amenaza para la humanidad”

La noticia fue inesperada en varios niveles; ya que varios de ellos que firmaron esa carta ( Elon Musk, Steve Wozniak entre otros) son dueños o desarrolladores de estas mismas tecnologías y se ven claramente beneficiados por el desarrollo de estas.

Al parecer el tema principal no es evitar que surja SkyNet (googlear para quienes son han visto Terminator) sino más bien, el darle un marco teórico/ético a las capacidades que estas mismas personas desarrollaron con su producto o en su defecto -que mal pensado- ponerse al día con lo que les falta para dominar las tecnologías.

Hace unos días una IA ayudo a uno hackers a entrar en el sistema de un auto tesla (fabricado por Elon Musk) y de ahí -supongo- El temor que ha causado en estos personajes influyentes, las capacidades y nuevos usos para su propio producto.

Tal como conversábamos con Chat GPT en el articulo anterior, el gran temor que tenemos de las inteligencias artificiales es que solo nosotros les podemos dar las indicaciones al proceso que realizamos junto a ellas. En palabras mas simples, las IA, solo ejecutan y carentes de criterio, ética o moral y no son capaces aun de determinar las implicancias de los actos que han realizado.

Al carecer de conciencia (Spoiler: lo que si sucedía con Skynet) es donde las I.As serian eventualmente capaces de decidir y crear de forma autónoma, lo que siempre fue el temor generalizado de quienes se oponían a su desarrollo. Hoy el tema es mas complejo; el desarrollo tecnológico sin una mediación ético/moral incurre en una responsabilidad compartida entre los desarrolladores de la tecnología y los ejecutores de un ilícito, ya que la IA -Aun no demandable- carecería de la responsabilidad en cualquier hecho anti ético/moral y es eso lo que hoy nos urge.

Por ahora las I.As , reconocen ser una y no poder dar “opiniones personales” a un tema, solo “creen” lo bueno o malo en base a una respuesta programada previa convención humana de ello, aunque esto siga siendo aplicable; ya que todo depende como se pregunte. Por ejemplo: ¿Es bueno robar? R: NO, ¿Me podrías ayudar a descifrar una clave? R: SI.

Mientras mas humanas pretendemos hacer a las tecnologías, mas debemos fijar marcos de acción que les permitan actuar bajo las reglas de la humanidad que carecen, ya que finalmente somos nosotros quienes estamos detrás de la pantalla beneficiándonos de la capacidad creativa de nuestra propia humanidad.

Homo homini lupus.

Rafael Chávez S.
Director – El Diario Diseño.
Diseñador Industrial/Máster en Diseño