EL DILEMA DE HAMLET
José Carlos Canalda
I
1.- Un robot no puede dañar a un ser humano ni, por inacción, permitir que éste sea dañado.
2.- Un robot debe obedecer las órdenes dadas por los seres humanos excepto cuando estas
órdenes entren en conflicto con la Primera Ley.
3.- Un robot debe proteger su propia existencia hasta donde esta protección no entre en
conflicto con la Primera o la Segunda Leyes.
- Supongo que convendrán conmigo en que el percance ocurrido es grave... Tremendamente
grave.
Las palabras del inspector gubernamental cayeron como un jarro de agua fría entre los
presentes. De sobra sabían que el desgraciado accidente ocurrido tres días atrás forzosamente
habría de acarrear consecuencia negativas para U.S. Robots y para ellos mismos, pero al fin y al
cabo de la reacción del gobierno dependería poder seguir adelante o no con el Proyecto Hamlet...
A priori cabría esperar que ésta fuera mala o peor, pero desgraciadamente el hombre que tenían
frente a ellos se había decantado claramente por esta última. Así pues, densos nubarrones se
cernían ominosamente sobre uno de los proyectos más importantes de la historia de la poderosa
compañía.
- Pero si todo se debió a un desgraciado accidente... - balbuceó con voz apagada Antonio
Jiménez, responsable máximo del proyecto - No se puede enjuiciar a todo un trabajo de años tan
sólo por un acontecimiento puntual.
- Eso es precisamente lo que deseo investigar. - respondió su hierático interlocutor - Cierto es
que no podemos culpar a una fábrica de automóviles de que uno de ellos atropelle a una persona,
pero sí tendríamos que intervenir si por un defecto de fabricación empiezan a fallarles los frenos a
todos. ¿Me explico?
- Perfectamente. - gruñó Susan Calvin, tan fría como el responsable gubernamental - Pero tras
haber realizado una investigación interna cuyos resultados tiene usted en su poder - y al decir esto
señaló con la mirada la abultada carpeta de tapas negras que yacía en la mesita central - hemos
llegado a la conclusión de que no ha existido negl