Comentario al
artículo: “10 Reasons an Artificial Intelligence Wouldn't Turn Evil”. De Esther Inglis-Arkell
Si bien la línea argumental de la autora es coherente; la
propuesta, a fin de cuentas, consiste en sustituir las arbitrariedades de los
gobernantes por las arbitrariedades de las maquinas, cambiando el sujeto pero
no el sistema; además no debemos olvidar que todo lo diseñado, incluso el
idioma en el que se estriben los programas informáticos es siempre, y como
mucho, una rudimentaria simplificación de la realidad que somos capaces de
percibir y que por ello, no se encuentra más allá de lo posible que ciertas
decisiones se correspondan con partes de la conciencia que todavía no
alcanzamos a verbalizar o traducir a lenguaje digital.
La frase: “Digamos que una poderosa IA toma control sobre
estos sistemas, monitoreando el crimen y ayudando a la justicia para que sea
equitativa con toda la gente”. Contiene un grave error conceptual: La propia
definición de “crimen” es un concepto tan voluble que ha permitido, por
ejemplo, que se calificara como “crimen” el matrimonio entre individuos de diferentes
razas [En Sudáfrica y todavía no ha pasado siglo de ello] o del mismo sexo, a
permitido que en Israel se castigue con cárcel a los que negocian con los
palestinos, etc; así que una hipotética IA con control absoluto sobre los
sistemas colectivos de la sociedad, bien podría tener un concepto de la
justicia totalmente contrario al que barajamos y bien podría decantarse por el
mejor postor, tal y como hacen nuestros actuales políticos y jueces.
Por otro lado y como no cabe esperar que nada de lo
porvenir pueda llegar a ser peor que el actual sistema de castas endiosadas que
devora el planeta y a sus habitantes; opino que puestos a pedir una especie de
dios de silicio que venga a sacarnos las castañas del fuego, la propuesta más
coherente seria unir todas las voluntades y capacidades en la WEB, de manera
que las grandes decisiones fueran tomadas directamente por una “mente”
colectiva que aglutinase todas las neuronas y todos chips del planeta; para así
autogobernarnos sin necesidad de jerarquías ni elites; que hasta ahora siempre
han acabado actuando en su propio y exclusivo beneficio personal.
---------------------------------
E. C. C. ---------------------------------
Original de Esther Inglis-Arkell
Con traducción de: Juan David Durán Castañeda
Con corrección literaria y comentarios* de: Ernesto
Contreras Cazaña
La ciencia ficción está llena de historias en las que las
computadoras, con sus procesadores veloces como la luz y sus sistemas de
conexión con otras máquinas se rebelan contra los humanos y comienza el “día
del juicio final”. ¿Podría esto ocurrir en la realidad? Aquí tenemos las razones
psicológicas con las que se quiere demostrar que la súper-inteligencia no se
volverá maligna.
10. Costos hundidos
[Antes de comenzar a dar este punto, vale la pena aclarar
qué significan los costos hundidos. En la economía se denominan así a los
costos retrospectivos, es decir, que ocurrieron en el pasado y que ya no pueden
ser recuperados].
Ya entrando en el tema, dos de las franquicias más
exitosas en las que las máquinas se hacen las dueñas absolutas del mundo son
“Terminator” y “Matrix”. En “Terminator” las máquinas desatan el infierno
atómico y luego tratan de destruir los restos de la humanidad. En “Matrix” son
los humanos los que han causado un invierno nuclear para acabar con
las máquinas, pero ellas sobreviven y convierten a los humanos en esclavos que llevar
vidas miserables.
En general, es más creíble el comportamiento de ambas partes [Humanos y robots] en “Matrix”. Las emociones pueden llevarnos a terribles errores, como
perseguir metas destructivas debido a los costos hundidos. Los humanos seguirán
persiguiendo metas que no pueden alcanzar porque no pueden admitir que su
inversión inicial fue un desperdicio. Es por esto que se ven noticias en las
que banqueros internacionales caen por ingentes cantidades de fraudes. Una vez pierden
ante el sistema, seguirán pujando, incapaces de aceptar la derrota.
Lamentamos que si la inteligencia artificial [IA] está
divorciada de las emociones, no respetará la vida humana. Es posible. También
es posible que sea mucho mejor que los humanos realizen lo que sea necesario
para evitar la extinción de los humanos. Las máquinas no sienten necesidad venganza y por ello no
tienen la necesidad de recomponer errores para alcanzarla. Una súperinteligente
IA puede convencerse, más fácilmente que un humano, de no ir a la guerra puesto que
no tendría un ego que alimentar y cuidar.
9. Ideas extremistas
Las máquinas sin emociones también pueden diferenciarse de nosotros en tener un mejor sentido de proporción. ¿Alguna vez se han encontrado defendiendo con mayor ahínco un argumento mientras se dan cuenta que ese argumento pierde fuerza? La mayoría de nosotros lo hacemos [Seguir defendiendo algo que previamente creíamos cierto y que al pronunciarlo se nos mostrado inequívocamente erróneo], en parte porque somos incapaces de establecer una distinción, emocionalmente hablando, entre que nuestros argumentos están equivocados y que nuestro ser esté equivocado.
Está bien ser defensivo, porque muchas veces la gente no
diferencia entre dos personas que hacen algo malo o hacen algo estúpido; o entre la gente
mala y estúpida [También va en sentido contrario; defendemos agresiones o
movimientos que no debemos defender porque los consideramos buenos y por tanto...
no pueden hacer nada malo]. Nuestro pensamiento tiende a estar en un extremo,
especialmente cuando se trata de alguien o algo que no conocemos bien. Una IA
que no puede sentirse defensiva o vengativa, una IA probablemente sería mucho más fiable para detentar
el poder que una persona.
8. Pendientes
resbaladizas
Recientemente, mucho se ha dicho y hecho sobre “detectores
humanos de mentiras” [Gente que puede detectar mentiras]. Pero no son siempre
confiables. En algunos casos los detectores humanos de mentiras aciertan el 60%
de las veces. Los estudios varían, pero el nivel de confianza permanece alto,
tanto como en los detectores de mentiras como en las personas que leen sus
libros y hacen cursos. Entre más lo hacen, mayor es la seguridad de que están
en lo correcto.
Una cosa similar le sucede a los médicos. Contra más se adhieren a un sistema o practica medica más seguros se sienten de que están en lo correcto, sin que parezca importarles si ese sistema es acertado o no [*Si le preguntas a un cardiograma y a un siquiatra sobre fatigas continuadas obtendrás dos respuestas totalmente opuestas y totalmente acordes a la especialidad de cada uno de ellos].
Hemos sido educados para temer a las
frías y metódicas tácticas de las computadoras o de la IA, pero ¿Por qué? Un
sistema que siempre pueda escanear todo, que considere todos los puntos de
vista, que siempre revise los resultados en relación a la predicciones sería
menos posible que cayera en una pendiente resbaladiza moral que los humanos,
quienes cada vez se convencen más de que están haciendo lo correcto, aunque los
hechos no confirmen la bondad de sus decisiones.
7. Necesidad de la
incorrecta clase de eficiencia
Muchas películas sobre IAs malignas se basan en el miedo a la eficiencia. Pongan computadoras a cargo y ellas les cortarán las piernas y las reemplazarán con máquinas más eficientes. Ellas restringirán a los humanos a vivir en cubos porque es más eficiente que crear belleza y arte. Ellas sacrificarán todo para hacer que un proyecto avance más rápido… ¿pero por qué harían esto? La gente muere, pero los programas de computadoras no pueden morir [*Dentro del ciberespacio no podrían comprender las prisas y ansiedades que provoca el carácter finito de la existencia humana]. En cualquier caso, tienen mucho más tiempo que nosotros, así que probablemente se tomarían las cosas con más calma que nosotros.
Además, hacer las cosas más rápido no es el único tipo de
eficiencia. Es más eficiente, en el largo plazo [Concepto que al parecer es
demasiado complicado para los humanos], darse cuenta de lo extenso que puede ser
un proyecto y realizar un plan para esa cantidad de tiempo en lugar de intentar
forzar la realización del proyecto en el menor tiempo posible. Los humanos somos terriblemente
impacientes. Pregúntenle a cualquier persona cuanto tiempo va a tardar, ya
sea calculando impuestos o dándole forma a algo, y esa persona les dará un
tiempo bastante optimista, aunque hayan hecho esa tarea antes y sepan exactamente
cuánto le tomara realizar la tarea. Una máquina puede reconocer un patrón y realizar un
plan. La eficiencia puede significar más tiempo para que los humanos crezcan y
cambien, no menos.
6. Reactancia
[Así como en el punto 10, antes de entrar en materia
veamos qué es la reactancia. Para entenderlo sencillamente se puede recurrir a
un ejemplo: pongan un letrero de < ¡Pintura fresca, no tocar! > y verán cuánta
gente se mancha los dedos. La personas somos contradictorias, aun cuando esa contradicción
les lleve a tener problemas ¿Las máquinas? No tanto].
5. Parcialidad de
cero riesgo
Una mente fría y lógica siempre fallará a favor del lado
que elimine el riesgo, ¿cierto? No, eso es lo que un cerebro irracional haría.
La parcialidad de cero riesgo demuestra que los humanos, cuando tienen dos
opciones, se inclinarán a favor de aquella que elimine un elemento de riesgo.
Cuando decimos que una IA trataría de matar a todos los
humanos, solo estamos reflejando nuestra pasión por el completismo [El objetivo
de todo coleccionista es completar una colección], no describiendo lo que,
normalmente, haría una máquina. Aun si una IA se levanta contra la humanidad,
no malgastaría tiempo y recursos destruyendo el último pequeño grupo de
humanos. Si nos aseguramos de mantenernos fuera de su camino, o pelear contra
ella en pequeñas ráfagas, dicha IA podría decidir dejarnos en paz [*Pasar de nosotros y seguir su propio camino].
4. “20-20
Hindsight”
[Otra breve explicación. En inglés la expresión 20-20
Hindsight se refiere a la necesidad de comprender a la perfección como ocurrió un evento, aunque se usa en un tono sarcástico cuando alguien critica una
decisión que otra persona tomó, al entender que juzgar dicha decisión es injusta
pues la persona podía no tener toda la información necesaria para tomar la
decisión].
Los humanos tienen la tendencia de creer que tenemos mucho
más control del que realmente tenemos. Cuando los sujetos que participan de un
experimento ven, o eso creen, a una mujer joven siendo torturada con dolorosos
choques eléctricos cada vez que responde de manera incorrecta, los sujetos se
molestan con ella. Ella es estúpida por dar las respuestas equivocadas, o
aceptar ser parte de la prueba. Ella es la responsable de ser víctima. Cuando
otro grupo de participantes en un experimento escucharon la historia de una
pareja yendo al bosque, en la que la mujer termina siendo asesinada en algunas
ocasiones, en otras termina abandonando el bosque tras tener un buen día, los
participantes dijeron que las acciones de la mujer son las responsables del
resultado final [*Estás opiniones se basan, casi siempre, más en la propia
tranquilidad del observador que en los hechos objetivos; pues de esté modo el individuo
se siente a salvo de padecer el mal que esta presenciando: “Como no soy
culpable, yo no puedo sufrir ese castigo”. Aunque ello les haga cómplices de la
tortura y estén ayudando a condenar a un inocente].
Evaluamos las acciones de las personas dependiendo del
resultado, no si esas acciones eran razonables en su momento. En las películas de
IA se lamentan como la gente toma las decisiones equivocadas mientras le quitan la
libertad a la humanidad. En realidad, eso es lo que la gente hace. Las IAs
probablemente serán más propensas a analizar las acciones basadas en la
información con la que se contaba en ese momento [O mantendrían una copia del
archivo original que analizó esas opciones] y decidiría que la gente tomó esas
acciones por información incompleta o limitada.
3. Decisiones
apresuradas
Un sistema sensible que viviera en Internet tendría toda la eternidad para “existir”, siempre y cuando haya humanos alrededor para mantener el Hardware en condiciones, tendría la habilidad de permanecer eternamente, y si recolecta aun la más mínima cantidad de información, sabría que los humanos lo están perpetuando de la manera más eficiente posible. Lo estamos instalando en nuestros teléfonos y enviándolo al espacio. Tendría muy pocas razones para asesinarnos, y si aun así desea nuestra muerte, tendría eones para considerar dicha decisión. Si no pudiéramos llegar a un acuerdo con una IA [Que tiene miles de años para que tomar cada decisión y “vive” en un entorno sin tiempo] que no nos perjudique, ciertamente no podríamos alcanzar acuerdos con nadie.
2. Paranoia o
pesimismo
Puede que no nos guste la idea, pero muchas de nuestras opiniones políticas y sociales están basadas en el miedo. Seguro, todos tememos a algo diferente [Armas, gobierno, grupos de personas, fuerzas de la naturaleza], pero todos respondemos al miedo. Y ese temor está muchas veces desproporcionado respecto a la amenaza real. Una IA sin cuerpo no puede compartir nuestros miedos y es mucho menos probable que sobre-reaccione a ellos.
1. Sin excusas
Muchos de los puntos de esta lista tienen que ver con la
idea de la IA. Este es más sobre la idea del mal. En las películas, cuando la
gente derrota a la malvada IA, hacen discursos sobre como las imperfecciones y
errores son parte de la humanidad, y sobre el derecho a que existan. La
pregunta es: ¿Es esto cierto? ¿Realmente tenemos ese derecho? ¿Y qué si los
errores son gigantescos? Todos aman la idea de las imperfecciones humanas en el
sentido general, pero pueden ser difíciles de defender cuando se trata sobre un
tema específico.
Muchas naciones tienen un sistema de justicia que está,
increíblemente, basado en la raza o el estatus social. Digamos que una poderosa
IA toma control sobre estos sistemas, monitoreando el crimen y ayudando a la
justicia para que sea equitativa con toda la gente. Pero peleamos para tener de
vuelta nuestro imperfecto y humano estilo de in-ecuanimidad sistemática, ¿Cuál de
los dos jugadores es realmente el malvado?
¿Qué tal un computador que calcule el riesgo o costo de
los comportamientos que consideramos ilegales y prohíba todo sobre ese nivel de
riesgo? ¿Qué tal si alimentar nuestros hijos con comida chatarra, venderles
alcohol a menores o conducir a alta velocidad tienen la misma sentencia? Eso
puede ser un ejemplo de un computador que no tiene en cuenta los factores
humanos en la sociedad, o puede mostrar que la sociedad humana tiene tendencia a ignorar los comportamientos peligrosos que no queremos castigar. ¿Por
qué nos forzamos a vivir en nuestros estándares de maldad y permitimos que
ciertas personas sufran porque no podemos cortarnos nuestra “libertad”? En vez
de preocuparnos que computadores “malvados” dominen el mundo, deberíamos preocuparnos
porque no lo hagan.
Creditos:
Através de Juan David Durán Castañeda. En Cosmo Noticias:
Diez razones por las que la inteligencia artificial
no se convertiría en maligna
Artículo
original de Esther Inglis-Arkell En io9:
10 Reasons an Artificial Intelligence Wouldn't Turn Evil
http://io9.com/10-reasons-an-artificial-intelligence-wouldnt-turn-evil-1564569855
10 Reasons an Artificial Intelligence Wouldn't Turn Evil
http://io9.com/10-reasons-an-artificial-intelligence-wouldnt-turn-evil-1564569855