04 octubre 2014

El dios de silicio | Inteligencia Artificial


Comentario al artículo: “10 Reasons an Artificial Intelligence Wouldn't Turn Evil”. De Esther Inglis-Arkell

Si bien la línea argumental de la autora es coherente; la propuesta, a fin de cuentas, consiste en sustituir las arbitrariedades de los gobernantes por las arbitrariedades de las maquinas, cambiando el sujeto pero no el sistema; además no debemos olvidar que todo lo diseñado, incluso el idioma en el que se estriben los programas informáticos es siempre, y como mucho, una rudimentaria simplificación de la realidad que somos capaces de percibir y que por ello, no se encuentra más allá de lo posible que ciertas decisiones se correspondan con partes de la conciencia que todavía no alcanzamos a verbalizar o traducir a lenguaje digital.

La frase: “Digamos que una poderosa IA toma control sobre estos sistemas, monitoreando el crimen y ayudando a la justicia para que sea equitativa con toda la gente”. Contiene un grave error conceptual: La propia definición de “crimen” es un concepto tan voluble que ha permitido, por ejemplo, que se calificara como “crimen” el matrimonio entre individuos de diferentes razas [En Sudáfrica y todavía no ha pasado siglo de ello] o del mismo sexo, a permitido que en Israel se castigue con cárcel a los que negocian con los palestinos, etc; así que una hipotética IA con control absoluto sobre los sistemas colectivos de la sociedad, bien podría tener un concepto de la justicia totalmente contrario al que barajamos y bien podría decantarse por el mejor postor, tal y como hacen nuestros actuales políticos y jueces.

Por otro lado y como no cabe esperar que nada de lo porvenir pueda llegar a ser peor que el actual sistema de castas endiosadas que devora el planeta y a sus habitantes; opino que puestos a pedir una especie de dios de silicio que venga a sacarnos las castañas del fuego, la propuesta más coherente seria unir todas las voluntades y capacidades en la WEB, de manera que las grandes decisiones fueran tomadas directamente por una “mente” colectiva que aglutinase todas las neuronas y todos chips del planeta; para así autogobernarnos sin necesidad de jerarquías ni elites; que hasta ahora siempre han acabado actuando en su propio y exclusivo beneficio personal.

 
--------------------------------- E. C. C. ---------------------------------


“Diez razones por las que una inteligencia artificial no se convertiría en maligna”
Original de Esther Inglis-Arkell
Con traducción de: Juan David Durán Castañeda
Con corrección literaria y comentarios* de: Ernesto Contreras Cazaña


La ciencia ficción está llena de historias en las que las computadoras, con sus procesadores veloces como la luz y sus sistemas de conexión con otras máquinas se rebelan contra los humanos y comienza el “día del juicio final”. ¿Podría esto ocurrir en la realidad? Aquí tenemos las razones psicológicas con las que se quiere demostrar que la súper-inteligencia no se volverá maligna.

10. Costos hundidos

[Antes de comenzar a dar este punto, vale la pena aclarar qué significan los costos hundidos. En la economía se denominan así a los costos retrospectivos, es decir, que ocurrieron en el pasado y que ya no pueden ser recuperados].

Ya entrando en el tema, dos de las franquicias más exitosas en las que las máquinas se hacen las dueñas absolutas del mundo son “Terminator” y “Matrix”. En “Terminator” las máquinas desatan el infierno atómico y luego tratan de destruir los restos de la humanidad. En “Matrix” son los humanos los que han causado un invierno nuclear para acabar con las máquinas, pero ellas sobreviven y convierten a los humanos en esclavos que llevar vidas miserables.

En general, es más creíble el comportamiento de ambas partes [Humanos y robots] en “Matrix”. Las emociones pueden llevarnos a terribles errores, como perseguir metas destructivas debido a los costos hundidos. Los humanos seguirán persiguiendo metas que no pueden alcanzar porque no pueden admitir que su inversión inicial fue un desperdicio. Es por esto que se ven noticias en las que banqueros internacionales caen por ingentes cantidades de fraudes. Una vez pierden ante el sistema, seguirán pujando, incapaces de aceptar la derrota.

Lamentamos que si la inteligencia artificial [IA] está divorciada de las emociones, no respetará la vida humana. Es posible. También es posible que sea mucho mejor que los humanos realizen lo que sea necesario para evitar la extinción de los humanos. Las máquinas no sienten necesidad venganza y por ello no tienen la necesidad de recomponer errores para alcanzarla. Una súperinteligente IA puede convencerse, más fácilmente que un humano, de no ir a la guerra puesto que no tendría un ego que alimentar y cuidar.


9. Ideas extremistas

Las máquinas sin emociones también pueden diferenciarse de nosotros en tener un mejor sentido de proporción. ¿Alguna vez se han encontrado defendiendo con mayor ahínco un argumento mientras se dan cuenta que ese argumento pierde fuerza? La mayoría de nosotros lo hacemos [Seguir defendiendo algo que previamente creíamos cierto y que al pronunciarlo se nos mostrado inequívocamente erróneo], en parte porque somos incapaces de establecer una distinción, emocionalmente hablando, entre que nuestros argumentos están equivocados y que nuestro ser esté equivocado.

Está bien ser defensivo, porque muchas veces la gente no diferencia entre dos personas que hacen algo malo o hacen algo estúpido; o entre la gente mala y estúpida [También va en sentido contrario; defendemos agresiones o movimientos que no debemos defender porque los consideramos buenos y por tanto... no pueden hacer nada malo]. Nuestro pensamiento tiende a estar en un extremo, especialmente cuando se trata de alguien o algo que no conocemos bien. Una IA que no puede sentirse defensiva o vengativa, una IA probablemente sería mucho más fiable para detentar el poder que una persona.

8. Pendientes resbaladizas

Recientemente, mucho se ha dicho y hecho sobre “detectores humanos de mentiras” [Gente que puede detectar mentiras]. Pero no son siempre confiables. En algunos casos los detectores humanos de mentiras aciertan el 60% de las veces. Los estudios varían, pero el nivel de confianza permanece alto, tanto como en los detectores de mentiras como en las personas que leen sus libros y hacen cursos. Entre más lo hacen, mayor es la seguridad de que están en lo correcto.

Una cosa similar le sucede a los médicos. Contra más se adhieren a un sistema o practica medica más seguros se sienten de que están en lo correcto, sin que parezca importarles si ese sistema es acertado o no [*Si le preguntas a un cardiograma y a un siquiatra sobre fatigas continuadas obtendrás dos respuestas totalmente opuestas y totalmente acordes a la especialidad de cada uno de ellos].


 Hemos sido educados para temer a las frías y metódicas tácticas de las computadoras o de la IA, pero ¿Por qué? Un sistema que siempre pueda escanear todo, que considere todos los puntos de vista, que siempre revise los resultados en relación a la predicciones sería menos posible que cayera en una pendiente resbaladiza moral que los humanos, quienes cada vez se convencen más de que están haciendo lo correcto, aunque los hechos no confirmen la bondad de sus decisiones.


7. Necesidad de la incorrecta clase de eficiencia


Muchas películas sobre IAs malignas se basan en el miedo a la eficiencia. Pongan computadoras a cargo y ellas les cortarán las piernas y las reemplazarán con máquinas más eficientes. Ellas restringirán a los humanos a vivir en cubos porque es más eficiente que crear belleza y arte. Ellas sacrificarán todo para hacer que un proyecto avance más rápido… ¿pero por qué harían esto? La gente muere, pero los programas de computadoras no pueden morir [*Dentro del ciberespacio no podrían comprender las prisas y ansiedades que provoca el carácter finito de la existencia humana]. En cualquier caso, tienen mucho más tiempo que nosotros, así que probablemente se tomarían las cosas con más calma que nosotros.


Además, hacer las cosas más rápido no es el único tipo de eficiencia. Es más eficiente, en el largo plazo [Concepto que al parecer es demasiado complicado para los humanos], darse cuenta de lo extenso que puede ser un proyecto y realizar un plan para esa cantidad de tiempo en lugar de intentar forzar la realización del proyecto en el menor tiempo posible. Los humanos somos terriblemente impacientes. Pregúntenle a cualquier persona cuanto tiempo va a tardar, ya sea calculando impuestos o dándole forma a algo, y esa persona les dará un tiempo bastante optimista, aunque hayan hecho esa tarea antes y sepan exactamente cuánto le tomara realizar la tarea. Una máquina puede reconocer un patrón y realizar un plan. La eficiencia puede significar más tiempo para que los humanos crezcan y cambien, no menos.

6. Reactancia

[Así como en el punto 10, antes de entrar en  materia veamos qué es la reactancia. Para entenderlo sencillamente se puede recurrir a un ejemplo: pongan un letrero de < ¡Pintura fresca, no tocar! > y verán cuánta gente se mancha los dedos. La personas somos contradictorias, aun cuando esa contradicción les lleve a tener problemas ¿Las máquinas? No tanto].


5. Parcialidad de cero riesgo

Una mente fría y lógica siempre fallará a favor del lado que elimine el riesgo, ¿cierto? No, eso es lo que un cerebro irracional haría. La parcialidad de cero riesgo demuestra que los humanos, cuando tienen dos opciones, se inclinarán a favor de aquella que elimine un elemento de riesgo.

Cuando decimos que una IA trataría de matar a todos los humanos, solo estamos reflejando nuestra pasión por el completismo [El objetivo de todo coleccionista es completar una colección], no describiendo lo que, normalmente, haría una máquina. Aun si una IA se levanta contra la humanidad, no malgastaría tiempo y recursos destruyendo el último pequeño grupo de humanos. Si nos aseguramos de mantenernos fuera de su camino, o pelear contra ella en pequeñas ráfagas, dicha IA podría decidir dejarnos en paz [*Pasar de nosotros y seguir su propio camino].

4. “20-20 Hindsight”

[Otra breve explicación. En inglés la expresión 20-20 Hindsight se refiere a la necesidad de comprender a la perfección como ocurrió un evento, aunque se usa en un tono sarcástico cuando alguien critica una decisión que otra persona tomó, al entender que juzgar dicha decisión es injusta pues la persona podía no tener toda la información necesaria para tomar la decisión].

Los humanos tienen la tendencia de creer que tenemos mucho más control del que realmente tenemos. Cuando los sujetos que participan de un experimento ven, o eso creen, a una mujer joven siendo torturada con dolorosos choques eléctricos cada vez que responde de manera incorrecta, los sujetos se molestan con ella. Ella es estúpida por dar las respuestas equivocadas, o aceptar ser parte de la prueba. Ella es la responsable de ser víctima. Cuando otro grupo de participantes en un experimento escucharon la historia de una pareja yendo al bosque, en la que la mujer termina siendo asesinada en algunas ocasiones, en otras termina abandonando el bosque tras tener un buen día, los participantes dijeron que las acciones de la mujer son las responsables del resultado final [*Estás opiniones se basan, casi siempre, más en la propia tranquilidad del observador que en los hechos objetivos; pues de esté modo el individuo se siente a salvo de padecer el mal que esta presenciando: “Como no soy culpable, yo no puedo sufrir ese castigo”. Aunque ello les haga cómplices de la tortura y estén ayudando a condenar a un inocente].

Evaluamos las acciones de las personas dependiendo del resultado, no si esas acciones eran razonables en su momento. En las películas de IA se lamentan como la gente toma las decisiones equivocadas mientras le quitan la libertad a la humanidad. En realidad, eso es lo que la gente hace. Las IAs probablemente serán más propensas a analizar las acciones basadas en la información con la que se contaba en ese momento [O mantendrían una copia del archivo original que analizó esas opciones] y decidiría que la gente tomó esas acciones por información incompleta o limitada.


3. Decisiones apresuradas


Un sistema sensible que viviera en Internet tendría toda la eternidad para “existir”, siempre y cuando haya humanos alrededor para mantener el Hardware en condiciones, tendría la habilidad de permanecer eternamente, y si recolecta aun la más mínima cantidad de información, sabría que los humanos lo están perpetuando de la manera más eficiente posible. Lo estamos instalando en nuestros teléfonos y enviándolo al espacio. Tendría muy pocas razones para asesinarnos, y si aun así desea nuestra muerte, tendría eones para considerar dicha decisión. Si no pudiéramos llegar a un acuerdo con una IA [Que tiene miles de años para que tomar cada decisión y “vive” en un entorno sin tiempo] que no nos perjudique, ciertamente no podríamos alcanzar acuerdos con nadie.


2. Paranoia o pesimismo


Puede que no nos guste la idea, pero muchas de nuestras opiniones políticas y sociales están basadas en el miedo. Seguro, todos tememos a algo diferente [Armas, gobierno, grupos de personas, fuerzas de la naturaleza], pero todos respondemos al miedo. Y ese temor está muchas veces desproporcionado respecto a la amenaza real. Una IA sin cuerpo no puede compartir nuestros miedos y es mucho menos probable que sobre-reaccione a ellos.



1. Sin excusas

Muchos de los puntos de esta lista tienen que ver con la idea de la IA. Este es más sobre la idea del mal. En las películas, cuando la gente derrota a la malvada IA, hacen discursos sobre como las imperfecciones y errores son parte de la humanidad, y sobre el derecho a que existan. La pregunta es: ¿Es esto cierto? ¿Realmente tenemos ese derecho? ¿Y qué si los errores son gigantescos? Todos aman la idea de las imperfecciones humanas en el sentido general, pero pueden ser difíciles de defender cuando se trata sobre un tema específico.

Muchas naciones tienen un sistema de justicia que está, increíblemente, basado en la raza o el estatus social. Digamos que una poderosa IA toma control sobre estos sistemas, monitoreando el crimen y ayudando a la justicia para que sea equitativa con toda la gente. Pero peleamos para tener de vuelta nuestro imperfecto y humano estilo de in-ecuanimidad sistemática, ¿Cuál de los dos jugadores es realmente el malvado?

¿Qué tal un computador que calcule el riesgo o costo de los comportamientos que consideramos ilegales y prohíba todo sobre ese nivel de riesgo? ¿Qué tal si alimentar nuestros hijos con comida chatarra, venderles alcohol a menores o conducir a alta velocidad tienen la misma sentencia? Eso puede ser un ejemplo de un computador que no tiene en cuenta los factores humanos en la sociedad, o puede mostrar que la sociedad humana tiene tendencia a ignorar los comportamientos peligrosos que no queremos castigar. ¿Por qué nos forzamos a vivir en nuestros estándares de maldad y permitimos que ciertas personas sufran porque no podemos cortarnos nuestra “libertad”? En vez de preocuparnos que computadores “malvados” dominen el mundo, deberíamos preocuparnos porque no lo hagan.

Creditos:
Através de Juan David Durán Castañeda. En Cosmo Noticias:
Diez razones por las que la inteligencia artificial no se convertiría en maligna
Artículo original de Esther Inglis-Arkell En io9: 
10 Reasons an Artificial Intelligence Wouldn't Turn Evil 
http://io9.com/10-reasons-an-artificial-intelligence-wouldnt-turn-evil-1564569855