Contents

Articles Axioma de elección 1 Axiomas de Zermelo-Fraenkel 5 Serie de Fourier 14 Ecuación del calor 17 Ecuación de Fokker-Planck 18 Andréi Kolmogórov 20 Complejidad de Kolmogórov 23 Teoría de la computación 24 Teoría de autómatas 27 Autómata finito 30 Función de transición 40 Tabla de transición de estados 40 Autómata finito no determinista 43 Autómata finito determinista 47 Trie 48 Estructura de datos 51 Tabla hash 52 Función Hash 62 Árbol (informática) 73 Árbol multicamino 75 Árbol-B 76 Árbol-B+ 84 Árbol-B* 85 Reiser4 86 Hans Reiser 88 ReiserFS 91 Teoría del Big Bang 94 Singularidad espaciotemporal 108 Ecuaciones del campo de Einstein 111 Relatividad general 114 Principio de equivalencia 143 Principio de covariancia 146 Transformación de Lorentz 148 Tensor de Ricci 152 Tensor de curvatura 153 Geometría diferencial de superficies 159 Variedad de Riemann 164 Geometría de Riemann 168 Conexión de Levi-Civita 169 Conexión (matemática) 170 Fibrado tangente 172 Fibrado 173 Campo de Yang-Mills 176 Grado de libertad (física) 182 Grado de libertad (estadística) 184 Dimensión 185 Regla de las fases de Gibbs 188 Termodinámica 189 Física estadística 197 Qualia 200 Thomas Nagel 201 Experiencia 203 Sistema de juego (juegos de rol) 204 Dilema del prisionero 208 Equilibrio de Nash 219 Teoría de juegos 224 Estrategia de las armas nucleares 235 Teoría de la decisión 245 Sistemas de soporte a decisiones 248 Apuesta de Pascal 253 Albert W. Tucker 258 Programación no lineal 260 Programación neurolingüística 262 265 Milton H. Erickson 267 268 Terapia Gestalt 272 Hermenéutica 276 Friedrich Schleiermacher 281 Francisco Pi y Margall 285 References Article Sources and Contributors 298 Image Sources, Licenses and Contributors 301 Article Licenses Licencia 304 Axioma de elección 1 Axioma de elección

En teoría de conjuntos, el axioma de elección (o axioma de escogencia), es un axioma que postula que para cada familia de conjuntos no vacíos, existe otro conjunto que contiene un elemento de cada uno de aquellos. De manera informal, afirma que dada una colección de «cajas» con objetos dentro de ellas, es posible elegir un objeto de cada caja. Que este procedimiento puede llevarse a cabo es trivialmente cierto siempre que dicha familia sea finita, o cuando existe una regla bien determinada que permite «elegir» un único elemento de cada conjunto de ella. Sin embargo, el axioma es indispensable en el caso más general de una familia infinita arbitraria. Fue formulado en 1904 por Ernst Zermelo.[1] Aunque originalmente fue controvertido, hoy en día es usado sin reservas por la mayoría de los matemáticos. Hay aún, sin embargo, especialmente en la teoría de conjuntos, corrientes de opinión que rechazan el axioma o que investigan consecuencias de otros axiomas inconsistentes con él.

Enunciado El enunciado del axioma de elección afirma que existe una función de elección para cada familia de conjuntos no vacíos, es decir, una función f tal que para cada conjunto B de su dominio, f(B) ∈ B. En la teoría de Zermelo-Fraenkel o similares, su enunciado formal es:

Axioma de elección

donde Fun f y Df denotan «f es una función» y el «dominio de f» en dicha teoría. El axioma de elección también se enuncia de maneras similares, en las que el siginificado de «función de elección» varía ligeramente:

[2] Los enunciados siguientes son equivalentes: • Toda familia de conjuntos no vacíos F posee una función de elección. • Para toda familia de conjuntos no vacíos F, su producto cartesiano es no vacío. • Para todo conjunto A, existe una función de elección sobre la colección de sus subconjuntos no vacíos. • Para toda familia de conjuntos no vacíos disjuntos dos a dos, F, existe un conjunto D que contiene exactamente un elemento de cada conjunto de F: |D ∩ A | = 1, para cada A ∈ F.

Por el contrario, la negación del axioma de elección afirma que para existe una familia de conjuntos —no vacíos— que no posee ninguna función de elección.

Uso Hasta finales del siglo XIX, el axioma de elección se usaba casi siempre implícitamente. Por ejemplo, después de demostrar que el conjunto X contenía sólo conjuntos no vacíos, un matemático habría dicho "sea F(S) un elemento de S para todo S en X". Es en general imposible demostrar que F existe sin el axioma de elección, pero esto no fue notado antes de Zermelo. No siempre se requiere el axioma de elección. Si X es finito, el "axioma" necesario se deduce de los otros axiomas de la teoría de conjuntos. En tal caso es equivalente a decir que si se tiene un número finito de cajas, cada una con al menos un objeto, se puede escoger exactamente un objeto de cada caja. Esto es evidente: se comienza en la primera caja, se escoge un objeto; se va a la segunda, se escoge un objeto; y así sucesivamente. Como sólo hay finitas cajas, este procedimiento de elección se concluirá finalmente. El resultado es una función de elección explícita: una que a la primera caja le asigna el primer objeto elegido, a la segunda el segundo, etcétera. Una prueba formal para todo conjunto finito requeriría el principio de inducción matemática. La dificultad aparece cuando no hay una escogencia natural de elementos de cada conjunto. Si no se pueden hacer elecciones explícitas, ¿cómo saber que existe el conjunto deseado? Por ejemplo, supóngase que X es el conjunto de Axioma de elección 2

todos los subconjuntos no vacíos de los reales. Primero se podría intentar proceder como si X fuera finito; pero si se intenta escoger un elemento de cada conjunto, como X es infinito, el procedimiento de elección no terminará nunca y nunca se podrá producir una función de elección para X. Luego se puede intentar el truco de tomar el elemento mínimo de cada conjunto; pero algunos subconjuntos de los reales, como el intervalo abierto (0,1), no tienen mínimo, así que esta táctica no funciona tampoco. La razón por la que se podían escoger elementos mínimos de los subconjuntos de los naturales es que éstos vienen ya bien ordenados: todo subconjunto de los naturales tiene un único elemento mínimo respecto al orden natural. Tal vez a este punto uno se sienta tentado a pensar: "aunque el orden usual de los números reales no funciona, debe ser posible encontrar un orden diferente que sea, este sí, un buen orden; entonces la función de elección puede ser tomar el elemento mínimo de cada conjunto respecto al nuevo orden". El problema entonces se "reduce" al de encontrar un buen orden en los reales, lo que requiere del axioma de elección para su realización: todo conjunto puede ser bienordenado si y sólo si vale el axioma de elección. Una demostración que haga uso de AE nunca es constructiva: aun si dicha demostración produce un objeto, será imposible determinar exactamente qué objeto es. En consecuencia, aunque el axioma de elección implica que hay un buen orden en los reales, no da un ejemplo. Sin embargo, la razón por la que se querían bienordenar los reales era que para cada conjunto de X se pudiera escoger explícitamente un elemento; pero si no se puede determinar el buen orden usado, tal escogencia no es tampoco explícita. Esta es una de las razones por las que a algunos matemáticos les desagrada el axioma de elección; los constructivistas, por ejemplo, afirman que todas las pruebas de existencia deberían ser completamente explícitas, pues si existe algo, debe ser posible hallarlo; rechazan así el axioma de elección, pues afirma la existencia de un objeto sin decir qué es. Por otro lado, el solo hecho de que se haya usado AE para demostrar la existencia de un conjunto no significa que no pueda ser construido por otros métodos.

Independencia Del trabajo de Kurt Gödel y Paul Cohen se deduce que el axioma de elección es lógicamente independiente de los otros axiomas de la teoría axiomática de conjuntos. Esto significa que ni AE ni su negación pueden demostrarse ciertos dentro de los axiomas de Zermelo-Fraenkel (ZF). En consecuencia, asumir AE o su negación nunca llevará a una contradicción que no se pudiera obtener sin tal supuesto. La decisión, entonces, de si es o no apropiado hacer uso de él en una demostración no se puede tomar basándose sólo en otros axiomas de la teoría de conjuntos; hay que buscar otras razones. Un argumento dado a favor de usar el axioma de elección es simplemente que es conveniente: usarlo no puede hacer daño (resultar en contradicciones) y hace posible demostrar algunas proposiciones que de otro modo no se podrían probar. El axioma de elección no es la única afirmación significativa e independiente de ZF; la hipótesis del continuo generalizada (HCG), por ejemplo, no sólo es independiente de ZF, además lo es de ZF con el axioma de elección (ZFE, o ZFC en inglés). Sin embargo, ZF más HCG necesariamente implica AE, con lo cual HCG es estrictamente más fuerte que AE, aunque ambos sean independientes de ZF. Una razón por la que a los matemáticos no les agrada el axioma es que tiene por consecuencia la existencia de algunos objetos contraintuitivos. Un ejemplo de ello es la paradoja de Banach-Tarski, que dice básicamente que es posible cortar una bola tridimensional en finitas partes, y usando sólo rotación y translación, reensamblarlas en dos bolas del mismo volumen que la original. La prueba, como todas las pruebas que involucran el axioma de elección, es sólo de existencia: no dice cómo se debe cortar la esfera, sólo dice que se puede hacer. Por otro lado, la negación de AE es también extraña. Por ejemplo, la afirmación de que dados dos conjuntos cualesquiera S y T, la cardinalidad de S es menor, igual, o mayor que la de T es equivalente al axioma de elección; en otras palabras, si se asume la negación de éste, hay dos conjuntos S y T de tamaño incomparable: ninguno se puede inyectar en el otro. Axioma de elección 3

Una tercera posibilidad es probar teoremas sin usar ni el axioma ni su negación, la táctica preferida en matemáticas constructivas. Tales afirmaciones serán ciertas en cualquier modelo de ZF, independientemente de la certeza o falsedad del axioma de elección en dicho modelo. Esto hace que cualquier proposición que requiera AE o su negación sea indecidible: la paradoja de Banach-Tarski, por ejemplo, no se puede demostrar como cierta (pues no se puede descomponer la esfera del modo indicado) ni como falsa (pues no se puede demostrar que tal descomposición no exista); ésta, sin embargo, se puede reformular como una afirmación sobre los modelos de ZF: "en todo modelo de ZF en el que valga AE, vale también la paradoja de Banach-Tarski". Asimismo, todas las afirmaciones listadas abajo que requieren elección o alguna versión más débil son indecidibles en ZF; pero por ser demostrables en ZFE, hay modelos de ZF en los que son ciertas.

Axiomas más fuertes El axioma de constructibilidad, igual que la hipótesis del continuo generalizada, implica el axioma de elección, pero es estrictamente más fuerte. En teorías de clases, tales como la teoría de conjuntos de Von Neumann-Bernays-Gödel o la de Morse-Kelley, hay un posible axioma llamado axioma de elección global, que es más fuerte que el axioma de elección para conjuntos pues aplica también a clases propias.

Equivalentes Existe un gran número de proposiciones importantes que, asumiendo los axiomas de ZF (sin AE ni su negación), son equivalentes al axioma de elección. Entre los más importantes están el principio de buena ordenación de Zermelo y el lema de Zorn.

[3] Las siguientes proposiciones son equivalentes al axioma de elección: Teoría de conjuntos • Principio de buena ordenación de Zermelo: todo conjunto puede ser bien ordenado. • Si un conjunto A es infinito, entonces A tiene la misma cardinalidad que A × A. • Tricotomía: dados dos conjuntos, éstos tienen la misma cardinalidad, o bien uno tiene una cardinalidad menor que el otro. • Toda función sobreyectiva tiene una inversa por derecha. • Lema de Zorn: Si en un conjunto parcialmente ordenado no vacío todo subconjunto totalmente ordenado —toda cadena— posee cota superior, entonces existe al menos un elemento maximal. • Principio maximal de Hausdorff: Todo conjunto parcialmente ordenado contiene una cadena maximal. • Todo espacio vectorial tiene una base. • Teorema de Tychonoff: todo producto de espacios compactos es compacto.

Formas más débiles Hay varias proposiciones más débiles que, aunque no equivalentes al axioma de elección, están fuertemente relacionadas como, por ejemplo: • El axioma de elección numerable, que dice que toda colección numerable de conjuntos no vacíos tiene función de elección. Esto normalmente basta para probar afirmaciones sobre los reales, por ejemplo, pues los números racionales, que son numerables, forman un subconjunto denso de los reales. • El axioma de elección dependiente. Axioma de elección 4

Resultados que requieren AE pero son más débiles Uno de los aspectos más interesantes del axioma de elección es el gran número de lugares en la matemática en los que aparece. He aquí algunas afirmaciones que requieren el axioma de elección en el sentido de que no son demostrables en ZF pero sí en ZFE. De forma equivalente, éstas son ciertas en todos los modelos de ZFE y falsas en algunos modelos de ZF. • Teoría de conjuntos • Toda unión de numerables conjuntos numerables es asimismo numerable. • Si el conjunto A es infinito, existe una función inyectiva del conjunto de los naturales N a A. • Teoría de la medida • Existen subconjuntos de los reales que no tienen medida de Lebesgue (el conjunto de Vitali). • La paradoja de Hausdorff. • La paradoja de Banach-Tarski. • Álgebra • Todo cuerpo tiene clausura algebraica. • Todo subgrupo de un grupo libre es también libre (teorema de Nielsen-Schreier). • Los grupos aditivos R y C son isomorfos.[4] • Teoría del orden: • Todo conjunto puede ser linealmente ordenado. • Álgebra de Boole • Todo filtro en un álgebra de Boole puede ser extendido a un ultrafiltro. • Análisis funcional • El teorema de Hahn-Banach en análisis funcional, que permite la extensión de funcionales lineales. • Todo espacio de Hilbert tiene una base ortonormal. • El teorema de la categoría de Baire sobre espacios métricos completos, y sus consecuencias. • En todo espacio vectorial topológico de dimensión infinita hay una función lineal discontinua. • Topología • Un espacio uniforme es compacto si y sólo si es completo y totalmente acotado. • Todo espacio de Tychonoff tiene una compactificación de Stone-Čech.

Formas más fuertes de AE Ahora, se considerarán formas más fuertes de la negación de AE. Por ejemplo, la afirmación de que todo conjunto de números reales tiene la propiedad de Baire es más fuerte que ¬AE, que niega la existencia de una función de elección en tal vez una sola colección de conjuntos no vacíos.

Resultados que requieren AE Hay modelos de la teoría de Zermelo-Fraenkel en los que el axioma de elección es falso; en adelante se abreviará "teoría de conjuntos de Zermelo-Fraenkel más la negación del axioma de elección" por ZF¬E. En algunos modelos de ZF¬E es posible probar la negación de algunas propiedades comunes. Y puesto que un modelo de ZF¬E es también modelo de ZF, cada una de las siguientes afirmaciones es válida en algún modelo de ZF (suponiendo, como siempre, que ZF es consistente): • Existe un modelo de ZF¬E en el que hay una función f de los reales en los reales que no es continua en a, pero para toda secuencia {x } que converja a a, f(x ) converge a f(a). n n • Existe un modelo de ZF¬E en el que el conjunto de los reales es una unión numerable de conjuntos numerables. • Existe un modelo de ZF¬E en el que hay un cuerpo sin clausura algebraica. Axioma de elección 5

• En todos los modelos de ZF¬E hay un espacio vectorial sin base. • Existe un modelo de ZF¬E en el que hay un espacio vectorial con dos bases de cardinalidad diferente. • Existe un modelo de ZF¬E en el que todo subconjunto de Rn es medible. Con esto es posible eliminar resultados contraintuitivos como la paradoja de Banach-Tarski, que son demostrables en ZFE. • En ningún modelo de ZF¬E vale la hipótesis del continuo generalizada.

Referencias [1] Zermelo, Ernst (1904). «Beweis, dass jede Menge wohlgeordnet werden kann». Mathematische Annalen 59: pp. 514-516. [2] Para estas equivalencias, véase Jech, 1973, §2 y Herrlich, 2006, §1 y §2. [3] Estas equivalencias pueden encontrarse en Herrlich, 2006 y Jech, 1973 (algunas aparecen como ejercicios).

[4] [FOM] Are (C,+) and (R,+) isomorphic (http:/ / www. cs. nyu. edu/ pipermail/ fom/ 2006-February/ 009959. html)

Bibliografía • Van Heijenoort, Jean, 1967, From Frege to Gödel. A Source Book in Mathematical Logic, 1879-1931, Cambridge, Massachusetts: Harvard University Press. Tradução ao inglês de [Zermelo 1904], p. 139—141. ISBN 0-674-32449-8. • Herrlich, Horst (2006) (en inglés). Axiom of choice. Springer-Verlag. ISBN 978-3-540-30989-5. • Jech, Thomas J. (1973) (en inglés). The axiom of choice. North-Holland. ISBN 0-7204-2275-2. • Rubin, H., Rubin, J.E., 1985, Equivalents of the Axiom of Choice, II, Amsterdam: North-Holland. ISBN 0-444-87708-8.

Axiomas de Zermelo-Fraenkel

Los axiomas de Zermelo-Fraenkel, formulados por Ernst Zermelo y Adolf Fraenkel, son un sistema axiomático concebido para formular la teoría de conjuntos. Normalmente se abrevian como ZF o en su forma más común, complementados por el axioma de elección (axiom of choice), como ZFC. Durante el siglo XIX algunos matemáticos trataron de llevar a cabo un proceso de formalización de la matemática a partir de la teoría de conjuntos. Gottlob Frege intentó culminar este proceso creando una axiomática de la teoría de conjuntos. Lamentablemente, Bertrand Russell descubrió en 1901 una contradicción, la llamada paradoja de Russell. Consecuentemente, a principios del siglo XX se realizaron varios intentos alternativos y hoy en día ZFC se ha convertido en el estándar de las teorías axiomáticas de conjuntos.

Introducción La teoría de conjuntos es una rama de la matemática relativamente moderna cuyo propósito es estudiar unas entidades llamadas conjuntos, aunque otra parte de esta teoría es reconocida como los fundamentos mismos de las matemáticas. La teoría de conjuntos fue desarrollada por el matemático alemán Georg Cantor a finales del siglo XIX a partir de ciertas conclusiones hechas por él mismo al reflexionar en unos detalles de las series trigonométricas de Fourier. La teoría de conjuntos fue expuesta por Cantor en una serie de artículos y libros, de los cuales pueden destacarse sus Beiträge zur Begründung der transfiniten Mengenlehre. El propósito de Cantor era proporcionar un método para lidiar con asuntos relacionados al infinito actual, un concepto que fue rehuido y rechazado por algunos matemáticos (Pitágoras, Gauss, Kronecker) por considerarlo sin significado. Ciertamente Cantor tuvo éxito, si bien su teoría debía ser precisada y sometida a un sistema axiomático, un proyecto que luego fue llevado a cabo principalmente por Frege, Russell, Zermelo, Albert Skolem y Adolf Fraenkel. Axiomas de Zermelo-Fraenkel 6

Cantor partió de la convicción platonista de que era posible “comprimir” una colección o conjunto de objetos y considerarla como un todo (o mejor dicho, como una sola entidad), y al parecer, aceptando implícitamente los supuestos siguientes:

(i) Un conjunto es una reunión de objetos que cumplen con cierta propiedad (llamados los elementos de ese conjunto) y que, por tanto, queda definido por tal propiedad.

(ii) Un conjunto es una sola entidad matemática, de modo que puede a su vez ser contenido por otro conjunto.

(iii) Dos conjuntos que tengan los mismos elementos son iguales. Así, puede decirse que un conjunto está determinado por sus elementos.

De este modo, Cantor pudo desarrollar su teoría de una forma que en aquel entonces parecía lo suficientemente satisfactoria. Sin embargo, el sistema de Cantor era tan permisivo que dio lugar a resultados contradictorios. Gottlob Frege, que ideó un sistema más preciso, intentó fundamentar adecuadamente la teoría de conjuntos (y por tanto todas las matemáticas), pero, para su desaliento, Bertrand Russell descubrió una paradoja en la teoría de aquél (hoy llamada paradoja de Russell), con lo que el sistema de Frege parecía desbaratarse. A principios del siglo XX, fue el matemático alemán Ernst Zermelo quien puso la teoría de conjuntos sobre una base aceptable reduciéndola a un sistema axiomático más restringido que no permitía la obtención de la Paradoja de Russell. Las ideas de Zermelo fueron después precisadas por Thoralf Skolem y Abraham Fraenkel, resultando de ello la primera teoría axiomática de conjuntos, conocida como teoría de Zermelo-Fraenkel, aunque sería más adecuada llamarla teoría de Zermelo-Fraenkel-Skolem. Otra teoría de conjuntos que evitaba las paradojas de la teoría cantoriana fue desarrollada después, principalmente, por John von Neumann, Paul Bernays y Kurt Gödel. Esta última es hoy llamada, naturalmente, la teoría de von Neumann-Bernays-Gödel.

Sobre el concepto de conjunto El concepto de conjunto se encuentra a un nivel tan elemental que no es posible dar una definición precisa del mismo. Palabras como colección, reunión, agrupación, y algunas otras de significado similar, se usan en un intento de describir a los conjuntos, pero no pueden constituir una definición, pues son simplemente un reemplazo de la palabra conjunto. Con todo, en la teoría intuitiva de conjuntos lo anterior es admisible, y se acepta la existencia de un universo o dominio de objetos a partir del cual se construyen los conjuntos, así como también permite tratar conjuntos como una entidad singular. No es de importancia la naturaleza de los objetos, sino el comportamiento de un conjunto como entidad matemática. De lo dicho anteriormente, parece natural introducir una relación diádica de pertenencia. El símbolo usual para representar esta relación es el símbolo , una versión de la letra griega (épsilon). Los segundos argumentos de la relación son llamados conjuntos, y los primeros argumentos son llamados elementos. Así, si la fórmula

se cumple, se dice que es un elemento del conjunto . Si aceptamos que todo es un conjunto, entonces los primeros y segundos argumentos de pertenecen al mismo dominio. La negación de se escribe . Bajo estos supuestos puede desarrollarse un poco la teoría de conjuntos. Sin embargo, la concepción intuitiva de conjuntos no permite llegar tan lejos como pudiera desearse, pues llega un momento en que, como sucede en otras áreas de las matemáticas, la intuición es de poca o ninguna ayuda (por ejemplo como pasa al hablar de la hipótesis del continuo, de espacios de dimensión mayor que tres, etc.). Es en momentos como ese en que se hace evidente la necesidad de axiomatizar y formalizar la teoría de conjuntos para poder llegar a resultados más profundos. Esto implica renunciar a una definición intuitiva de conjunto, y en su lugar postular una serie de principios que determinen el comportamiento de éste, de tal forma que los resultados obtenidos no son ya consecuencia de Axiomas de Zermelo-Fraenkel 7

razonamientos intuitivos flojos, sino que se obtienen a partir de tales principios.

La necesidad de axiomatizar la teoría de conjuntos En la teoría de Cantor, es posible formar un conjunto a partir de una propiedad determinada que deben cumplir sus elementos. En otras palabras, dada cualquier propiedad , existe un conjunto cuyos elementos son precisamente los objetos que verifican . En símbolos, este conjunto se representa por

Así, por ejemplo, considerando la fórmula , se obtiene el conjunto

que claramente lo contiene todo. A este conjunto no se le puede aplicar alguno de los resultados de Cantor, ya que esto conduce a ciertas paradojas. Como otro ejemplo más claro de conjuntos contradictorios debido a su 'gran tamaño', está el que da lugar a la paradoja de Russell. Consideremos el conjunto cuyos elementos son aquellos conjuntos que no se pertenecen a sí mismos. Esto es, el conjunto

La paradoja de Russell surge al preguntarse: ¿es un elemento de sí mismo? Si lo es, es decir, si , entonces no satisface la condición , lo que es una contradicción. Si , entonces satisface la condición para ser uno de sus elementos, y así , de nuevo una contradicción. Así, no puede ni ser un elemento de sí mismo ni no serlo. En un intento de eliminar esta paradoja, Russell y Whitehead desarrollaron la teoría de tipos y la expusieron en un libro titulado Principia Mathematica. Si bien esta teoría eliminaba la paradoja de Russell, resultaba demasiado complicada como para poseer interés. La teoría de conjuntos de Zermelo, mucho más simple a nivel lógico, lograba eliminar tanto la paradoja de Russell como todas las demás que surgían en el sistema de Cantor y en el de Frege.

Los axiomas de Zermelo-Fraenkel La teoría de conjuntos de Zermelo-Fraenkel toma como primitivos los conceptos de conjunto y de pertenencia y consta de los diez axiomas siguientes: 1. Axioma de extensionalidad. Dos conjuntos e son iguales (lo que se representa por ) únicamente si contienen los mismos elementos. Más formalmente, y en la simbología usual,

2. Axioma del conjunto vacío. Existe un conjunto (representado por Ø) sin elementos. Esto es,

3. Axioma de pares. Dados cualesquiera conjuntos e , existe otro conjunto, representado por , cuyos elementos son únicamente e . Esto es,

4. Axioma de la unión. Dada cualquier colección de conjuntos , existe un conjunto, representado por y llamado unión de , que contiene todos los elementos de cada conjunto de . Esto es,

5. Axioma del conjunto potencia Para cualquier conjunto existe otro conjunto, representado por , que contiene todos los subconjuntos de . En símbolos, Axiomas de Zermelo-Fraenkel 8

6. Esquema axiomático de especificación. Sea una fórmula de un lenguaje de primer orden que contenga una variable libre . Entonces, para cualquier conjunto existe un conjunto cuyos elementos son aquellos elementos de que cumplen . Formalmente,

7. Esquema axiomático de reemplazo. Si es una sentencia tal que para cualquier elemento de un conjunto el conjunto existe, entonces existe una función f:x→y tal que f(a)=y. Formalmente, si

entonces

8. Axioma de infinitud. Existe un conjunto tal que y tal que si , entonces . En símbolos, . 9. Axioma de regularidad. Para todo conjunto no vacío existe un conjunto tal que . Esto es, en términos formales,

10. Lema de Zorn. Todo conjunto inductivo no-vacío tiene elemento maximal En un principio Zermelo trató de probar el "Lema de Zorn" a partir de los otros nueve axiomas, pero no lo consiguió, además, posteriormente los Teoremas de Incompletitud de Gödel probaron que el Lema de Zorn no era demostrable a partir de los restantes axiomas. Por lo tanto se añadió como décimo axioma de la teoría. Es equivalente a Axioma de elección. Dada una familia de conjuntos no-vacíos podemos coger un elemento de cada conjunto. Este axioma puede expresarse de manera equivalente a, dado un conjunto cualquiera x, existe una función f que elige un elemento de cada elemento no vacío de x:

Sobre los axiomas y algunas definiciones en ZF

El axioma de extensionalidad El axioma de extensionalidad dice que dos conjuntos son iguales si y solo si tienen los mismos elementos. En otras palabras, afirma que un conjunto está determinado por su extensión (todos sus elementos). Una relación más general que la igualdad es la inclusión ( ), que se define como sigue:

A diferencia del signo de la igualdad, el símbolo no figura dentro del lenguaje de primer orden con el que se construye la teoría ZF, pues la definición antes dada debería en ese caso ser introducida como un axioma que establezca el empleo de , cosa que no se ha hecho aquí. En su lugar, la simbología se emplea simplemente para representar la fórmula del lenguaje de la teoría de conjuntos. En vista del axioma de extensionalidad y de la definición anterior, resulta que puede probarse que dos conjuntos e son iguales si puede probarse que e . Axiomas de Zermelo-Fraenkel 9

El axioma del conjunto vacío El axioma del conjunto vacío nos da un conjunto sin elementos. Este axioma se presentó usando el símbolo . Esto está justificado, pues el axioma de extensionalidad nos dice que este conjunto es único.

Demostración

En efecto, si y fueran dos conjuntos vacíos, entonces siempre verificarían y para cualquier a, y por tanto también , de modo que, por el axioma de extensionalidad, .

El axioma del conjunto vacío puede deducirse de otro axioma más débil, que afirma la existencia de un conjunto, digamos , y del esquema de especificación con la fórmula aplicada a este conjunto . Así, el conjunto vacío es el conjunto

con el término una descripción impropia.

El axioma de pares EL axioma de pares, un axioma de la teoría de Zermelo-Fraenkel, establece que, dos cualesquiera dos conjuntos e , existe otro conjunto, representado por , cuyos elementos son únicamente e . Esto es, (3) Del axioma de pares se tiene, a partir de dos conjuntos e , el conjunto { }. Este conjunto se llama par desordenado de e . Si se aplica el axioma de pares a un solo conjunto , se obtiene el par { } cuyo único elemento es, obviamente, , y por ello puede representarse como . A este último conjunto puede aplicársele de nuevo el axioma de pares, dando lugar al conjunto , conjunto al cual puede aplicarse también el axioma de pares, obteniéndose el conjunto {}, y así sucesivamente. Este proceso de construcción de conjuntos puede aplicarse al único conjunto dado y conocido explícitamente, , obteniéndose una serie infinita de conjuntos

El axioma de unión

Si es una colección de conjuntos, entonces la unión contiene aquellos y solo aquellos elementos que están en algún conjunto de . Si , un conjunto con elementos, entonces es común escribir

para representar la unión de los conjuntos de . Es fácil ver que

de modo que el axioma de unión y el axioma de pares garantizan la existencia del conjunto para cualesquiera conjuntos e , un hecho que no puede deducirse simplemente del esquema de especificación junto con los axiomas restantes. A diferencia de la unión, la intersección de conjuntos es deducible a partir del axioma de pares y el esquema de especificación. Efectivamente, pues se define el conjunto mediante

y por tanto existe. Más general, se define el conjunto Axiomas de Zermelo-Fraenkel 10

El axioma del conjunto potencia El axioma del conjunto potencia nos da un conjunto que contiene a todos los subconjuntos de cualquier conjunto. Por tanto, . Puesto que para cualquiera que sea el conjunto , puede hacerse uso del esquema de especificación para obtener el conjunto

Si es otro conjunto, similarmente se obtiene al conjunto como un subconjunto de . Luego

de manera que el axioma de pares puede deducirse del axioma del conjunto potencia, el esquema de especificación y el axioma de unión. Así pues, no todos los axiomas de ZF son independientes.

El esquema axiomático de especificación El esquema de especificación resulta ser una versión limitada o débil del axioma de Frege. Para este último, era posible tener un conjunto cuyos elementos satisfacían cierta propiedad. Con ello Frege garantizaba demasiado y daba lugar en su sistema a paradojas como la de Russell, entre otras. Por otra parte, el esquema de especificación va de acuerdo con una doctrina de reducción del tamaño. Permite obtener conjuntos a partir de otros, y cuyo tamaño es menor que el de aquellos de los que han sido obtenidos. Esto implica que, necesariamente, contemos con conjuntos previamente dados. Por tanto, nunca es posible pensar en la fórmula , pues el conjunto no puede ser obtenido sin más que sí mismo. La paradoja de Russell surge precisamente de considerar que conjuntos muy grandes pueden ser obtenidos de forma gratuita sin más que especificar cuales son sus elementos. Otras paradojas que tienen que ver con el gran tamaño de los conjuntos, quedan excluidas de ZF mediante el esquema de especificación. Ahora bien, el calificativo de esquema se debe a que no es un único axioma, sino que este afirma (metamatemáticamente) que cualquier expresión de la forma

donde es una fórmula del lenguaje de la teoría de conjuntos es un axioma de ZF. Así, si consideramos la existencia de un conjunto como un axioma, el conjunto vacío sería también un axioma resultante de aplicar el esquema de especificación al conjunto con la fórmula . El esquema de especificación no es independiente en ZF, pues se deduce del esquema de reemplazo, introducido por Fraenkel y Skolem el mismo año y de forma independiente.

Esquema axiomático de reemplazo El esquema de reemplazo dice que si es un conjunto y es una fórmula con dos variables libres e , tales que para cada existe un único tal que se cumple, entonces existe un conjunto tal que si y solo si . Para mostrar como el esquema de especificación se deduce del esquema de reemplazo, se considera la fórmula

donde cualquier elemento de un conjunto . Si , entonces ciertamente existe un único tal que (pues es mismo), por lo que la hipótesis del esquema de reemplazo se cumple, con lo que existe un conjunto tal que

lo que es lógicamente equivalente a que existe un conjunto tal que

La formulación que se ha dado del axioma de reemplazo fue introducida por primera vez por Fraenkel [1929], y apareció también en los trabajos de Church [1942]. Una forma más débil de este esquema axiomático a parece en los trabajos de Tarski [1948]. La formulación original, dada por Fraenkel [1921/22 y 1927] y Skolem [1922/23 y 1929], Axiomas de Zermelo-Fraenkel 11

es en esencia como sigue: • Para todo conjunto y cualquier función definida en , existe un conjunto tal que para todo . El esquema de reemplazo fue introducido por Fraenkel y Skolem con la finalidad de extender la fuerza del esquema de especificación, así como también posibilitar el conteo de números ordinales más allá de lo que permite el axioma de infinitud.

Axioma de infinitud El axioma de infinitud, introducido (aunque no en la forma en que se ha presentado aquí) por Zermelo 1908, permite la obtención de los números naturales como conjuntos dentro de ZF. En términos generales, este axioma da un conjunto infinito según Dedekind, pues garantiza la existencia de un conjunto sobre el cual existe al menos una función inyectiva y no sobreyectiva (que claramente no existe para un conjunto finito). Es decir, la función es tal que y , por lo que el rango de es un subconjunto propio de su dominio, . Pero, en ese caso, la aplicación

dada por , es biyectiva. La conclusión es que existe una biyección entre y uno de sus subconjuntos propios. Ahora bien, el conjunto cuya existencia garantiza el axioma de infinitud, cumple:

Pero es possible que subconjuntos de cumplan esto mismo (un subconjunto así de X se denomina conjunto inductivo). Si es el conjunto de todos los subconjuntos inductivos de , es no vacío, pues . Así, puede formarse la intersección

de todos los conjuntos inductivos. Este conjunto es claramente inductivo, y sus elementos son

mismos que pueden ser considerados los números naturales en ZF, y puede llamarse . Se observa que,

de este modo, un número natural es un conjunto que contiene a todos los números naturales anteriores a él. El conjunto de números naturales queda de esta forma bien ordenado por la inclusión. Cualquier número natural de la forma para algún se llama siguiente de , y se representa por o por . Mediante esta definición de pueden probarse los axiomas de Peano, con lo que en ZF estos se convierten en teoremas (más exactamente, cuatro teoremas y un metateorema) sencillos: • • • • • implica . La forma en que se ha presentado el axioma de infinitud se debe a Fraenkel, y permite la construcción de los números naturales como números ordinales en el sentido de von Neumann. En esta forma fue utilizado por R. M. Robinson en su The thory of classes [1937] (en donde presenta una modificación del sistema de von Neumann), así como también por Bernays [1942]. Zermelo introdujo el axioma de infinitud [1908] de forma esencialmente similar a la siguiente: • Existe un conjunto tal que ( i ) Axiomas de Zermelo-Fraenkel 12

( ii ) Así, puede obtenerse el conjunto de números naturales cuyos elementos son

El orden que se establece entre estos elementos es el de la inclusión. Este axioma de infinitud de Zermelo no tiene las ventajas que tiene el axioma de infinitud de Fraenkel.

Axioma de regularidad o de fundación El axioma de regularidad dado aquí se debe a Zermelo [1930], si bien von Neumann presentó uno equivalente [1929], aunque más complicado. Este axioma prohíbe la existencia de conjuntos extraños, tales como conjuntos que cumplan: x∈x; o un par de conjuntos con x∈y ∧ y∈x; así como también la existencia de cadenas descendientes infinitas:

Existen teorías de conjuntos donde se excluye este axioma. La teoría que resulta de añadir un contrario del axioma de regularidad se conoce como teoría de conjuntos no bien fundados.

Axioma de elección A diferencia de los axiomas de ZF, el axioma de elección es un axioma no constructivo, en el sentido de que no determina un conjunto único a partir de su información. Además, como puede observarse, carece de la obviedad que (aunque la complejidad notacional de estos haga en algunos casos pensar lo contrario) caracteriza a todos los otros axiomas. Esto llevó a algunos matemáticos al intento de probar el axioma de elección a partir de los demás axiomas, cosa en lo que todos ellos fracasaron. Estos intentos vanos de probar el axioma de elección después de grandes esfuerzos, y ciertas peculiaridades del mismo, algunos matemáticos pensaban ya en la posible independencia del axioma de elección respecto de los axiomas de ZF, aunque no sabían en que dirección se encontraba la prueba de ello. Gödel probó [1930/1940] que el axioma de elección era consistente con los axiomas de ZF, por lo que podía emplearse junto con ellos sin temor de obtener contradicciones. El axioma de elección fue presentado por Russell en 1906 de manera esencialmente similar a la siguiente: • Para todo conjunto no vacío de conjuntos disjuntos tal que , el producto cartesiano de es no vacío. Russell llamó a este principio Axioma multiplicativo. El nombre de Axioma de elección (Auswahlaxiom) fue dado por Zermelo al principio más general que el de Russell: • Para todo conjunto no vacío tal que , existe una función cuyos argumentos son elementos de , tal que . El nombre del axioma se debe al hecho de que la función elige un elemento de cada elemento (conjunto) de . Zermelo introdujo el axioma de elección para probar el teorema de buena ordenación que afirma que todo conjunto puede ser bien ordenado. Mostró también que el lema de Kuratowski-Zorn se deduce del axioma de elección. En realidad, el axioma de elección es equivalente tanto al teorema de buena ordenación como al lema de Kuratowski-Zorn (la mayoría de las veces simplemente llamado Lema de Zorn). La siguiente lista enumera algunos principios equivalentes en ZF al axioma de elección: • Teorema de buena ordenación. • Lema de Kuratowski-Zorn. • Ley de tricotomía de cardinales. • Principio del maximal de Hausdorff. • Lema de Teichmüler-Tukey. Axiomas de Zermelo-Fraenkel 13

Wacław Sierpiński probó en 1947 que la hipótesis del continuo (un principio ad hoc que debe ser aceptado como axioma de la teoría de conjuntos) implica el axioma de elección, si bien lo recíproco no es cierto. Otro principio que implica el axioma de elección es el axioma de conjuntos inaccesibles de Tarski [1938/1939]. El sistema axiomático de ZFC admite las demostraciones por reducción al absurdo como método para demostrar teoremas. Dado un (presunto) conjunto nos basta con llegar a una contradicción con el resto de la teoría después de haber supuesto su existencia para demostrar que no existe tal conjunto. un ejemplo típico es la no existencia del conjunto de todos los conjuntos.

De existir este conjunto V podríamos definir el conjunto , lo que irremisiblemente lleva a la Paradoja de Russell, por lo cual V no es un conjunto. Procedimiento igual nos llevará a demostrar la no existencia de conjunto conjugado(conjunto de los elementos no pertenecientes al conjunto) dado un conjunto cualquiera, ya que de ser así existiría su unión, por el axioma de la unión, y esta sería igual a V.

Otras propiedades de ZFC Kurt Gödel probó que la consistencia lógica de los axiomas de ZFC es indemostrable. A lo sumo se pueden demostrar afirmaciones como si ZFC es consistente, entonces "T" también lo es, es decir la consistencia relativa. En cuanto a la completitud, el propio Gödel en sus teoremas de incompletitud demostró que si un sistema axiomático es lo suficientemente fuerte como para construir una aritmética recursiva, dicho sistema no puede ser completo y consistente.

Véase también • Axioma • Teoría de conjuntos de Morse-Kelley • Teoría de conjuntos de Von Neumann-Bernays-Gödel • Lenguaje formal • Lógica matemática • Noción primitiva • Sistema formal • Teoría de conjuntos

Bibliografía • Cameron, Peter J. Sets, Logic and Categories, Springer, New York. • Devlin, Keith. The Joy of Sets (Fundamentals of Contemporary Set Theory), Springer, New York. • Halmos, Paul R. Naive Set Theory, Springer, New York. • Henle, James M. An Outline of Set Theory, Springer, New Oyrk. • Suppes, Patrick. Axiomatic Set theory, Van Nostrand Company, New York. Serie de Fourier 14 Serie de Fourier

Una serie de Fourier es una serie infinita que converge puntualmente a una función periódica y continua a trozos (o por partes). Las series de Fourier constituyen la herramienta matemática básica del análisis de Fourier empleado para analizar funciones periódicas a través de la descomposición de dicha función en una suma infinita de funciones senoidales mucho más simples (como combinación de senos y cosenos con frecuencias enteras). El nombre se debe al matemático francés Jean-Baptiste Joseph Fourier que desarrolló la teoría cuando estudiaba la ecuación del calor. Fue el primero que estudió tales series sistemáticamente, y publicando sus resultados iniciales en 1807 y 1811. Esta área de investigación se llama algunas veces Análisis armónico. Es una aplicación usada en muchas ramas de la ingeniería, además de ser una herramienta sumamente útil en la teoría matemática abstracta. Áreas de aplicación incluyen análisis vibratorio, acústica, óptica, procesamiento de imágenes y señales, y compresión de datos. En ingeniería, para el caso de los sistemas de telecomunicaciones, y a través del uso de los componentes espectrales de frecuencia de una señal dada, se puede optimizar el diseño de un sistema para la señal portadora del mismo. Refierase al uso de un analizador de espectros. Las series de Fourier tienen la forma:

Donde y se denominan coeficientes de Fourier de la serie de Fourier de la función

Definición Si es una función (o señal) periódica y su período es , la serie de Fourier asociada a es:

Donde , y son los coeficientes de Fourier que toman los valores:

Por la identidad de Euler, las fórmulas de arriba pueden expresarse también en su forma compleja:

Los coeficientes ahora serían:

Teorema de Dirichlet: Convergencia a una función periódica Supongamos que f(x) es una función periódica, continua a trozos y acotada, que en un periodo tiene un número finito de máximos y mínimos locales y un número finito de discontinuidades, de período 2p. Sean

y

entonces la serie converge a Serie de Fourier 15

En donde , y

Forma exponencial Por la identidad de Euler para la exponencial compleja, operando adecuadamente, si

la serie de Fourier se puede expresar como la suma de dos series:

En forma más compacta:

Ejemplos de series de Fourier

Veamos un ejemplo:

En este caso, los coeficientes de Fourier nos dan esto: Grafico de una función periódica.

Animación de la suma de los 5 primeros armónicos.

Si la serie de Fourier converge hacia: ƒ(x) de cada punto x donde ƒ es diferenciable: Serie de Fourier 16

Ingeniería El análisis de señales en el dominio de la frecuencia se realiza a través de las series de Fourier, por cuanto es muy común, reemplazar la variable x por ωt, resultando las componentes:

Por lo tanto:

Aplicaciones • Generación de formas de onda de corriente o tensión eléctrica por medio de la superposición de senoides generados por osciladores eléctrónicos de amplitud variable cuyas frecuencias ya están determinadas. • Análisis en el comportamiento armónico de una señal. • Reforzamiento de señales. • Estudio de la respuesta en el tiempo de una variable circuital eléctrica donde la señal de entrada no es senoidal o cosenoidal, mediante el uso de transformadas de Laplace y/o solución en régimen permanente senoidal en el dominio de la frecuencia. • La resolución de algunas ecuaciones diferenciales en derivadas parciales admiten soluciones particulares en forma de series de Fourier fácilmente computables, y que obtener soluciones prácticas, en la teoría de la transmisión del calor, la teoría de placas, etc.

Formulación moderna Realmente el desarrollo en serie de Fourier se hace para funciones de cuadrado integrable, es decir, para funciones que cumplan que:

El conjunto de todas las funciones integrables definidas en el intervalo se denota con . Este conjunto, tiene definido un producto interno dado por:

que lo dota de estructura de espacio de Hilbert. De este modo, que todas las funciones de puedan desarrollarse en series de Fourier. Así,el conjunto de funciones exponenciales es una base ortonormal del espacio . El desarrollo de Fourier se puede expresar como:

Donde son los coeficientes del desarrollo de Fourier. Por último, la identidad de Parseval dice que dada una función de cuadrado integrable y los coeficientes de Fourier , se verifica que:

En lenguaje técnico, podríamos decir que hay una isometría entre el espacio de funciones de cuadrado integrable y el espacio de sucesiones lineales indexadas en los enteros cuyos términos tienen cuadrados sumables. Serie de Fourier 17

Formulación general Las propiedades útiles de las series de Fourier se deben principalmente a la ortogonalidad y a la propiedad de homomorfismo de las funciones ei n x. Otras sucesiones de funciones ortogonales tienen propiedades similares, aunque algunas identidades útiles, concerniendo por ejemplo a las convoluciones, no seguirán cumpliéndose si se pierde la "propiedad de homomorfismo". Algunos ejemplos son las secuencias de funciones de Bessel y los polinomios ortogonales. Tales sucesiones se obtienen normalmente como soluciones de una ecuación diferencial; una gran clase de tales sucesiones útiles son soluciones de los llamados problemas de Sturm-Liouville.

Véase también • Transformada de Fourier • Análisis armónico • Fenómeno de Gibbs • Identidad de Parseval

Ecuación del calor

La ecuación del calor es una importante ecuación diferencial en derivadas parciales que describe la distribución del calor (o variaciones de la temperatura) en una región a lo largo del transcurso del tiempo. Para el caso de una función de tres variables en el espacio (x,y,z) y la variable temporal t, la ecuación del calor es

donde es la difusividad térmica, que es una propiedad del material. La ecuación del calor predice que si un cuerpo a La ecuación del calor es de una importancia fundamental en numerosos una temperatura T se sumerge en una caja con agua a menor temperatura, la temperatura del y diversos campos de la ciencia. En las matemáticas, son las cuerpo disminuirá, y finalmente (teóricamente ecuaciones parabólicas en derivadas parciales por antonomasia. En la después de un tiempo infinito, y siempre que no estadística, la ecuación del calor está vinculada con el estudio del existan fuentes de calor externas) la temperatura movimiento browniano a través de la ecuación de Fokker–Planck. La del cuerpo y la del agua serán iguales (estarán en equilibrio térmico). ecuación de difusión, es una versión más general de la ecuación del calor, y se relaciona principalmente con el estudio de procesos de difusión química. Ecuación del calor 18

Bibliografía • Cannon, John (1984), The One-Dimensional Heat Equation, Encyclopedia of mathematics and its applications, Addison-Wesley, ISBN 0-521-30243-9 • Crank, J.; Nicolson, P. (1947), «A Practical Method for Numerical Evaluation of Solutions of Partial Differential Equations of the Heat-Conduction Type», Proceedings of the Cambridge Philosophical Society 43: 50-67 • Einstein, A (1905), «Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen», Ann. Phys. Leipzig 17: 549-560 • Evans, L.C. (1998), Partial Differential Equations, American Mathematical Society, ISBN 0-8218-0772-2 • John, Fritz (1991), Partial Differential Equations (4th ed. edición), Springer, ISBN 978-0387906096 • Wilmott, P.; Howison, S.; Dewynne, J. (1995), The Mathematics of Financial Derivatives:A Student Introduction, Cambridge University Press

Enlaces externos

• Wikimedia Commons alberga contenido multimedia sobre Ecuación del calor. Commons • Deducción de la ecuación del calor [1] • Ecuaciones del calor lineales [2]: Soluciones particulares y problemas de condición de borde - de EqWorld • Neher-McGrath heat equations [3]: What you need to know about your undergound electrical installation.

References

[1] http:/ / www. mathphysics. com/ pde/ HEderiv. html

[2] http:/ / eqworld. ipmnet. ru/ en/ solutions/ lpde/ heat-toc. pdf

[3] http:/ / neher-mcgrath. com/ index. html#

Ecuación de Fokker-Planck

La ecuación de Fokker–Planck, denominada así por Adriaan Fokker y Max Planck, y también conocida como ecuación avanzada de Kolmogórov (por Andréi Kolmogórov), describe la evolución temporal de la función de densidad de probabilidad que muestra la posición y la velocidad de una partícula, aunque puede generalizarse a otro tipo de variables.[1] La ecuación se aplica a sistemas que pueden ser descritos por un pequeño número de "macrovariables", donde otros parámetros varían tan rápidamente con el tiempo que pueden ser tratados como "ruido" o una perturbación.

Historia El primer uso de la ecuación de Fokker-Planck fue la descripción estadística del movimiento browniano de una partícula en el seno de un fluido. El movimiento browniano sigue la ecuación de Langevin, que puede resolverse para diferentes perturbaciones estocásticas, mediante resultados promediados. Sin embargo, como alternativa a este procedimiento, puede usarse la ecuación de Fokker-Planck y considerar una densidad de probabilidad en la velocidad y el tiempo, . Esta distribución de probabilidad dependiente del tiempo puede aún depender de un conjunto de N macrovariables , de tal manera que el movimiento browniano en cuestión puede ser representado por una ecuación de Fokker-Planck de la forma: Ecuación de Fokker-Planck 19

donde: es el término de arrastre, que viene dado por un vector. es el término difusivo, que viene dado por una matriz.

Relación con las ecuaciones diferenciales estocásticas La ecuación de Fokker–Planck puede usarse para calcular la densidad de probabilidad asociada a una ecuación diferencial estocástica. Por ejemplo, a la ecuación diferencial de Itō:

donde: es el estado del sistema. caracteriza un proceso de Wiener estándar M-dimensional. Si la distribución inicial viene dada por , entonces la densidad de probabilidad del estado viene dada por la ecuación de Fokker–Planck con el término de arrastre y el término de difusión dados por:

Ejemplos Un proceso de Wiener escalar generado por la ecuación diferencia estocástica:

que tiene un término de arrastre nulo, un término y una matriz de difusión dada por el coeficiente 1/2, tiene una densidad de probabilidad dada por la siguiente ecuación de Fokker-Planck:

que resulta ser precisamente la forma más sencilla posible de la ley de Fick para la difusión.

Véase también • Ecuación retardada de Kolmogórov

Referencias

[1] Leo P. Kadanoff (2000). Statistical Physics: statics, dynamics and renormalization (http:/ / books. google. com/ books?id=22dadF5p6gYC&

pg=PA135& ots=_yDpXsrPqY& dq=Fokker–Planck& sig=OgjxJK7nfTYTVDAmAhkP3bpqviU#PPA134,M1). World Scientific. ISBN 9810237642. .

Bibliografía • Hannes Risken, "The Fokker–Planck Equation: Methods of Solutions and Applications", 2nd edition, Springer Series in Synergetics, Springer, ISBN 3-540-61530-X. • Crispin W. Gardiner, "Handbook of Stochastic Methods", 3rd edition (paperback), Springer, ISBN 3-540-20882-8. Ecuación de Fokker-Planck 20

Enlaces externos

• Fokker–Planck equation (http:/ / members. aol. com/ jeff570/ f. html) en Earliest known uses of some of the

words of mathematics (http:/ / members. aol. com/ jeff570/ mathword. html)

Andréi Kolmogórov

Andréi Nikoláyevich Kolmogórov (Андре́й Никола́евич Колмого́ров) (Tambov, 25 de abril de 1903 - Moscú, 20 de octubre de 1987) fue un matemático ruso que hizo progresos importantes en los campos de la teoría de la probabilidad y de la topología. En particular, desarrolló una base axiomática que supone el pilar básico de la teoría de la probabilidad a partir de la teoría de conjuntos. Trabajó al principio de su carrera en lógica constructivista y en las series de Fourier. También trabajó en turbulencias y mecánica clásica. Asimismo, fue el fundador de la teoría de la complejidad algorítmica.

Obtuvo su doctorado en la Universidad Estatal de Moscú bajo la Andréi Kolmogórov. dirección de Nikolái Luzin en 1929.

Biografía

Primeros años Su madre, María Yákovlevna Kolmogórova, murió en el parto y su padre, el agrónomo Nikolái Matvéyevich Katáyev, lo abandonó primero y luego pereció en 1919, en plena guerra civil rusa, durante la ofensiva del general blanco Antón Denikin. Fue adoptado y criado por su tía Vera Yákovlevna Kolmogórova, la hermana de su madre, en Tunoshna, cerca de Yaroslavl, en la hacienda de su abuelo, un noble rico. Kolmogórov fue educado en la escuela del pueblo de su tía, y sus primeros esfuerzos literarios y trabajos matemáticos fueron impresos en el periódico escolar. En su adolescencia diseñó máquinas de movimiento perpetuo, ocultando sus (necesarios) defectos de forma tan inteligentemente que sus profesores de enseñanza secundaria no pudieron descubrirlos. En 1920, Kolmogórov comenzó a estudiar en la Universidad Estatal de Moscú y en el Instituto Tecnológico de Química. Kolmogórov ganó una gran reputación por su erudición de amplio alcance. Como estudiante, participó en los seminarios del historiador Serguéi Bajrushin, y escribió su primer trabajo de investigación, que versó sobre las prácticas de tenencia de la tierra en la República de Nóvgorod en los siglos XV y XVI. [1] Al mismo tiempo (1921-1922), Kolmogórov obtuvo sus primeros resultados en la teoría de conjuntos y en la teoría de series de Fourier (series trigonométricas). Andréi Kolmogórov 21

Madurez En 1922 Kolmogórov publicó sus primeros resultados en la teoría de conjuntos y un año más tarde, construyó una serie de Fourier que diverge en casi todas partes,[1] obteniendo un notable reconocimiento internacional. Alrededor de este tiempo, decidió dedicar su vida a la matemática y publicó ocho trabajos sobre la teoría de la integración, análisis de Fourier y sobre la teoría de probabilidad. En 1929 obtuvo su título de Doctor en Filosofía, Ph.D., de la Universidad Estatal de Moscú. Desde ese año, y hasta la muerte del también matemático Pável Aleksándrov, fue su pareja.[2] Juntos participaron en 1936 en la persecución política del maestro de ambos, en el llamado caso Luzin. Kolmogórov (junto con A. Khinchin) En 1930, Kolmogórov hizo su primer viaje largo al extranjero, a Göttingen y Múnich, Alemania, y después a París, Francia. Su trabajo pionero sobre los métodos de análisis de la Teoría de la Probabilidad se publicó en alemán en 1931, año en que se convirtió en profesor en la Universidad de Moscú. En 1933, Kolmogórov publicó el libro Los fundamentos de la Teoría de la Probabilidad, en el que establece las bases modernas de la teoría axiomática de la probabilidad y gracias al cual adquiera reputación como uno de los mayores expertos del mundo en este campo. En 1939, fue elegido miembro de número de la Academia Rusa de Ciencias. En un documento del 1938, Kolmogórov publica "establecido los teoremas básicos de alisado y de la predicción de procesos estocásticos estacionarios" - un documento que tendría importantes aplicaciones militares durante la Guerra Fría por venir. [2] En su estudio de los procesos estocásticos (procesos al azar), especialmente en los procesos de Markov, Kolmogórov y el matemático británico Sydney Chapman desarrollan de forma independiente el conjunto de ecuaciones fundamentales en el campo, las ecuaciones de Chapman-Kolmogórov. Más tarde, cambió de Kolmogórov intereses de investigación en la zona de turbulencia, donde sus publicaciones a partir de 1941 tuvieron una influencia significativa en el campo. En la mecánica clásica, él es más conocido por el Teorema de Kolmogórov-Arnold-Moser (presentado por primera vez en 1954 en el Congreso Internacional de Matemáticos). En 1957 se resolvió el problema decimotercero de Hilbert (un trabajo conjunto con su estudiante V.I. Arnold). Fue fundador de la teoría de la complejidad algorítmica, a menudo llamada teoría de la complejidad de Kolmogórov, que comenzó a Kolmogórov (izquierda) trabaja en su charla (Tallin, RSS de Estonia, 1973). desarrollar alrededor de este tiempo.

Kolmogórov se casó con Anna Dmítrievna Yegórova, amiga de la infancia, en 1942. Se aplicó una fuerte rutina de la enseñanza durante toda su vida, no sólo en el nivel universitario, sino también con niños más pequeños, ya que participó activamente en el desarrollo de una pedagogía para los niños superdotados, en la literatura y la música, así como en las matemáticas. En la Universidad Estatal de Moscú, Kolmogorov ocupó diferentes posiciones, incluyendo la dirección de Kolmogórov preparando su charla en el Simposio diversos departamentos: probabilidad, estadística, y los soviético de teoría de la información (título no procesos de azar, la lógica matemática, y también se exacto) de 1973. desempeñó como decano de la Facultad de la Universidad Estatal de Moscú de Mecánica y Matemáticas. Andréi Kolmogórov 22

En 1971, Kolmogórov se unió a una expedición oceanográfica a bordo del buque de investigación Dmitri Mendeléyev. Escribió una serie de artículos para la Gran Enciclopedia Soviética. En sus últimos años dedicó gran parte de su esfuerzo a la relación matemática y filosofía entre la teoría de probabilidades en las zonas abstracta y aplicada. [3]

Citas Una cita que se le atribuye: "Todo matemático cree que está por delante de todos los demás. La razón por la que no lo dicen en público, es porque son gente inteligente".

Bibliografía Una bibliografía de sus obras aparecó en "Publications of A. N. Kolmogorov". Annals of Probability, 17 (3): 945-964. Juliol de 1989. doi: 10.1214/aop/1176991252. • Kolmogorov, Andrey (1933) (en alemán). Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlín: Julius Springer.o Traducció: Kolmogorov, Andrey (1956). Els fonaments de la Teoria de la Probabilitat (2 ª ed.). Nova

York: Chelsea. ISBN 0-8284-0023-7. http:/ / www. mathematik. com/ Kolmogorov/ index. html. • 1991-93. Obres escollides de A.N. Kolmogorov, 3 vols. Tikhomirov, V. M., ed., Volosov, V. M., trad. Dordrecht: Kluwer Academic Publishers. ISBN 90-277-2796-1 • 1925. "Al principi del tercer exclòs" de Jean van Heijenoort, 1967. A Source Book in Mathematical Logic, 1879-1931. Harvard Univ Press. Prensa: 414-37.

Véase también • Axiomas de Kolmogórov • Complejidad de Kolmogórov • Espacio de Kolmogórov • Prueba de Kolmogórov-Smirnov • Teorema de Kolmogórov-Arnold-Moser • Ley cero-uno de Kolmogórov • Ecuación de Chapman-Kolmogórov • Escala de Kolmogórov

Referencias

[1] « Une série de Fourier-Lebesgue divergente presque partout (http:/ / matwbn. icm. edu. pl/ ksiazki/ fm/ fm4/ fm4127. pdf)». Consultado el 19 de enero de 2011. [2] Masha Gessen: Perfect Rigor: A Genius and the Mathematical Breakthrough of the Century, Houghton Mifflin Harcourt, 2009

Enlaces externos

• O'Connor, John J.; Robertson, Edmund F., « Biografía de Andréi Kolmogórov (http:/ / www-history. mcs.

st-andrews. ac. uk/ Biographies/ Kolmogorov. html)» (en inglés), MacTutor History of Mathematics archive, Universidad de Saint Andrews.

• The Legacy of Andrei Nikolaevich Kolmogorov (http:/ / www. kolmogorov. com/ ) (en inglés) Complejidad de Kolmogórov 23 Complejidad de Kolmogórov

En la teoría de la computación, la complejidad de Kolmogórov es una medida de la cantidad de recursos computacionales necesarios para describir una cierta cantidad de información, debe su nombre a Andréi Kolmogórov. La complejidad de Kolmogórov también se denomina complejidad descriptiva o complejidad de Kolmogoróv-Chaitin, complejidad estocástica, o entropía algorítmica.

Para definir la complejidad de Kolmogórov, primero debe especificarse un lenguaje descriptivo para las secuencias o cadenas. Detalle de una parte del conjunto de Mandelbrot. Almacenar esta imagen sin más Tal lenguaje puede basarse en cualquier en color de calidad 24-bit requeriría 1,62 millones de bits; sin embargo, una lenguaje de programación como Lisp o pequeño programa informática puede reproducir estos 1,62 millones de bits, Pascal. Si P es un programa que genera usando la definición del conjunto de Mandelbrot. Por esa razón, la complejidad de como outputs secuenciaas de tipo x, Kolmogórov, es de hecho mucho menor que 1,62 millones de bits. entonces P es una descripción del conjunto de x. La longitud de la descripción es la longitud de P como secuencia de caracteres. Para determinar la longitud de P, debe darse cuenta de las longitudes de todas las subrutinas empleadas en P. La longitud de cualquier número entero n que aparezca en el programa P es la cantidad de bits requeridos para representar n, esto es, log n. 2 Teoría de la computación 24 Teoría de la computación

La teoría de la computación es una rama de la matemática y la computación que centra su interés en las limitaciones y capacidades fundamentales de las computadoras. Específicamente esta teoría busca modelos matemáticos que formalizan el concepto de hacer un cómputo (cuenta o cálculo) y la clasificación de problemas.

Principales subramas

Teoría de autómatas Esta teoría provee modelos matemáticos que formalizan el concepto de computadora o algoritmo de manera suficientemente simplificada y general para que se puedan analizar sus capacidades y limitaciones. Algunos de estos modelos juegan un papel central en varias aplicaciones de las ciencias de la computación, incluyendo procesamiento de texto, compiladores, diseño de hardware e inteligencia artificial. Los tres principales modelos son los autómatas finitos, autómatas con pila y máquinas de Turing, cada uno con sus variantes deterministas y no deterministas. Los autómatas finitos son buenos modelos de computadoras que tienen una cantidad limitada de memoria, los autómatas con pila modelan los que tienen gran cantidad de memoria pero que solo pueden manipularla a manera de pila (el último dato almacenado es el siguiente leído), y las máquinas de Turing modelan las computadoras que tienen una gran cantidad de memoria almacenada en una cinta. Estos autómatas están estrechamente relacionados con la teoría de lenguajes formales; cada autómata es equivalente a una gramática formal, lo que permite reinterpretar la jerarquía de Chomsky en términos de autómatas. Existen muchos otros tipos de autómatas como las máquinas de acceso aleatorio, autómatas celulares, máquinas ábaco y las máquinas de estado abstracto; sin embargo en todos los casos se ha mostrado que estos modelos no son más generales que la máquina de Turing, pues la máquina de Turing tiene la capacidad de simular cada uno de estos autómatas. Esto da lugar a que se piense en la máquina de Turing como el modelo universal de computadora.

Teoría de la computabilidad Véase también: Indecidibilidad Esta teoría explora los límites de la posibilidad de solucionar problemas mediante algoritmos. Gran parte de las ciencias computacionales están dedicadas a resolver problemas de forma algorítmica, de manera que el descubrimiento de problemas imposibles es una gran sorpresa. La teoría de la computabilidad es útil para no tratar de resolver algoritmicamente estos problemas, ahorrando así tiempo y esfuerzo. Los problemas se clasifican en esta teoría de acuerdo a su grado de imposibilidad: • Los computables son aquellos para los cuales sí existe un algoritmo que siempre los resuelve cuando hay una solución y además es capaz de distinguir los casos que no la tienen. También se les conoce como decidibles, resolubles o recursivos. • Los semicomputables son aquellos para los cuales hay un algoritmo que es capaz encontrar una solución si es que existe, pero ningún algoritmo que determine cuando la solución no existe (en cuyo caso el algoritmo para encontrar la solución entraría a un bucle infinito). El ejemplo clásico por excelencia es el problema de la parada. A estos problemas también se les conoce como listables, recursivamente enumerables o reconocibles, porque si se enlistan todos los casos posibles del problema, es posible reconocer a aquellos que sí tienen solución. • Los incomputables son aquellos para los cuales no hay ningún algoritmo que los pueda resolver, no importando que tengan o no solución. El ejemplo clásico por excelencia es el problema de la implicación lógica, que consiste en determinar cuándo una proposición lógica es un teorema; para este problema no hay ningún algoritmo que en todos los casos pueda distinguir si una proposición o su negación es un teorema. Teoría de la computación 25

Hay una versión más general de esta clasificación, donde los problemas incomputables se subdividen a su vez en problemas más difíciles que otros. La herramienta principal para lograr estas clasificaciones es el concepto de reducibilidad: Un problema se reduce al problema si bajo la suposición de que se sabe resolver el problema es posible resolver al problema ; esto se denota por , e informalmente significa que el problema no es más difícil de resolver que el problema . Por ejemplo, bajo la suposición de que una persona sabe sumar, es muy fácil enseñarle a multiplicar haciendo sumas repetidas, de manera que multiplicar se reduce a sumar.

Teoría de la complejidad computacional Véase también: Clase de complejidad Aun cuando un problema sea computable, puede que no sea posible resolverlo en la práctica si se requiere mucha memoria o tiempo de ejecución. La teoría de la complejidad computacional estudia las necesidades de memoria, tiempo y otros recursos computacionales para resolver problemas; de esta manera es posible explicar por qué unos problemas son más difíciles de resolver que otros. Uno de los mayores logros de esta rama es la clasificación de problemas, similar a la tabla periódica, de acuerdo a su dificultad. En esta clasificación los problemas se separan por clases de complejidad. Esta teoría tiene aplicación en casi todas las áreas de conocimiento donde se desee resolver un problema computacionalmente, porque los investigadores no solo desean utilizar un método para resolver un problema, sino utilizar el más rápido. La teoría de la complejidad computacional también tiene aplicaciones en áreas como la criptografía, donde se espera que descifrar un código secreto sea un problema muy difícil a menos que se tenga la contraseña, en cuyo caso el problema se vuelve fácil.

Otras subramas • Modelos de cómputo Estudia abstracciones de hacer un cómputo. Aquí se incluyen los clásicos modelos de la teoría de autómatas además de otros modelos como funciones recursivas, cálculo lambda e inclusive lenguajes de programación. • Teoría algorítmica de la información Centra su atención en la complejidad para describir algoritmicamente una secuencia de datos (cadena); aquí la complejidad está medida por la longitud de su descripción más pequeña. • Especificación y verificación formal Busca metodologías para garantizar que un problema esté correctamente modelado y sistemas formales para validar la corrección de la solución algorítmica. • La Teoría del aprendizaje computacional busca algoritmos que hagan que las computadoras modifiquen sus comportamientos de manera autónoma con base en datos empíricos, y concretamente en ejemplos y contraejemplos. A este tipo de aprendizaje se le llama aprendizaje supervisado. De forma análoga a la teoría de la complejidad computacional, en esta teoría las funciones se clasifican por su grado de dificultad de ser aprendidas. • Teoría de tipos Busca la clasificación de enunciados de acuerdo a los tipos de valores que calculan utilizando herramientas de teoría de lenguajes formales.

Historia Véanse también: Entscheidungsproblem y Tesis de Church-Turing La teoría de la computación comienza propiamente a principios del siglo XX, poco antes que las computadoras electrónicas fuesen inventadas. En esta época varios matemáticos se preguntaban si existía un método universal para resolver todos los problemas matemáticos. Para ello debían desarrollar la noción precisa de método para resolver problemas, es decir, la definición formal de algoritmo. Algunos de estos modelos formales fueron propuestos por precursores como Alonzo Church (cálculo Lambda), Kurt Gödel (funciones recursivas) y Alan Turing (máquina de Turing). Se ha mostrado que estos modelos son Teoría de la computación 26

equivalentes en el sentido de que pueden simular los mismos algoritmos, aunque lo hagan de maneras diferentes. Entre los modelos de cómputo más recientes se encuentran los lenguajes de programación, que también han mostrado ser equivalentes a los modelos anteriores; esto es una fuerte evidencia de la conjetura de Church-Turing, de que todo algoritmo habido y por haber se puede simular en una máquina de Turing, o equivalentemente, usando funciones recursivas. En 2007 Nachum Dershowitz y Yuri Gurevich publicaron una demostración de esta conjetura basándose en cierta axiomatización de algoritmos.[1] Uno de los primeros resultados de esta teoría fue la existencia de problemas imposibles de resolver algoritmicamente, siendo el problema de la parada el más famoso de ellos. Para estos problemas no existe ni existirá ningún algoritmo que los pueda resolver, no importando la cantidad de tiempo o memoria se disponga en una computadora. Asimismo, con la llegada de las computadoras modernas se constató que algunos problemas resolubles en teoría eran imposibles en la práctica, puesto que dichas soluciones necesitaban cantidades irrealistas de tiempo o memoria para poderse encontrar.....

Referencias

[1] Nachum Dershowitz & Yuri Gurevich (2008). « A natural axiomatization of computability and proof of Church's Thesis (http:/ / research.

microsoft. com/ en-us/ um/ people/ gurevich/ Opera/ 188. pdf)». Bulletin of Symbolic Logic 14 (3). ISSN 10798986, 299-350. .

• Sipser, Michael (http:/ / www-math. mit. edu/ ~sipser/ ) (2005). Introduction to the Theory of Computation (2 edición). Course Technology. ISBN 978-0534950972.

• Kelley, Dean (http:/ / krypton. mnsu. edu/ ~kelled/ ) (1995). Teoría de Autómatas y Lenguajes Formales. Prentice Hall. ISBN 978-0-691-13382-9. • Boolos, George; Burgess, John; & Jefrey, Richard (2007). Computability and logic. Cambridge. ISBN 978-0-521-70146-4. • S. Barry Cooper (2004). Computability theory. Chapman & Hall/CRC. ISBN 1-58488-237-9. • Sección 68Qxx, Theory of computing de American Mathematical Society. « 2010 Mathematics Subject

Classification. (http:/ / www. ams. org/ mathscinet/ msc/ pdfs/ classifications2010. pdf)». Consultado el 7 de marzo de 2010. Teoría de autómatas 27 Teoría de autómatas

La teoría de autómatas es una rama de las ciencias de la computación que estudia las máquinas abstractas y los problemas que éstas son capaces de resolver. La teoría de autómatas está estrechamente relacionada con la teoría del lenguaje formal ya que los autómatas son clasificados a menudo por la clase de lenguajes formales que son capaces de reconocer.

Un autómata es un modelo matemático para una máquina de estado finita (FSM sus siglas en inglés). Una FSM es una máquina que, dada una entrada de símbolos, "salta" a través de una serie de estados de acuerdo a una función de transición (que puede ser expresada como una tabla). En la variedad común "Mealy" de FSMs, esta función de transición dice al autómata a qué estado cambiar dados unos determinados estado y símbolo.

La entrada es leída símbolo por símbolo, hasta que es "consumida" completamente (piense en ésta como una cinta con una palabra escrita en ella, que es leída por una cabeza lectora del autómata; la cabeza se mueve a lo largo de la cinta, leyendo un símbolo a la vez) una vez la entrada se ha agotado, el autómata se detiene. Dependiendo del estado en el que el autómata finaliza se dice que este ha aceptado o rechazado la entrada. Si éste termina en el estado "acepta", el autómata acepta la palabra. Si lo hace en el estado "rechaza", el autómata rechazó la palabra, el conjunto de todas las palabras aceptadas por el autómata constituyen el lenguaje aceptado por el mismo.

Vocabulario Los conceptos básicos de símbolos, palabras, alfabetos y strings son comunes en la mayoría de las descripciones de los autómatas. Estos son: Símbolo Un dato arbitrario que tiene algún significado a o efecto en la máquina. A estos símbolos también se les llama "letras" o "átomos".[1] Palabra Una cadena finita formada por la concatenación de un número de símbolos. Alfabeto Conjunto finito de símbolos. Un alfabeto se indica normalmente con , que es el conjunto de letras en un alfabeto. Lenguaje Un conjunto de palabras, formado por símbolos en un alfabeto dado. Puede ser infinito. Clausura de Kleene Un lenguaje se puede considerar como un subconjunto de todas las posibles palabras. El conjunto de todas las palabras puede, a su vez, ser considerado como el conjunto de todas las posibles concatenaciones de cadenas. Formalmente, este conjunto de todas las cadenas se llama en inglés free monoid. Se indica como , y el Teoría de autómatas 28

superíndice * se llama la estrella de Kleene.

Autómatas finitos Formalmente, un autómata finito (AF) puede ser descrito como una 5-tupla . Existen tres tipos de autómatas finitos Autómata finito determinista (AFD) Cada estado de un autómata de este tipo tiene una transición por cada símbolo del alfabeto.

AFD.

Autómata finito no determinista (AFND) Los estados de un autómata de este tipo pueden, o no, tener una o más transiciones por cada símbolo del alfabeto. El autómata acepta una palabra si existe al menos un camino desde el estado q a un estado final F 0 etiquetado con la palabra de entrada. Si una transición no está definida, de manera que el autómata no puede saber como continuar leyendo la entrada, la palabra es rechazada. Autómata finito no determinista con transiciones ε (AFND-ε) Además de ser capaz de alcanzar más estados leyendo un símbolo, permite alcanzarlos sin leer ningún símbolo. Si un estado tiene transiciones etiquetadas con , entonces el AFND puede encontrarse en cualquier de los estados alcanzables por las transiciones , directamente o a través de otros estados con transiciones . El conjunto de estados que pueden ser alcanzados mediante este método desde un estado q, se denomina la clausura de q. Sin embargo, puede observarse que todos estos tipos de autómatas pueden aceptar los mismos lenguajes. Siempre se puede construir un AFD que acepte el mismo lenguaje que el dado por un AFND. Teoría de autómatas 29

AFND con transiciones vacías.

Extensiones a los autómatas finitos Los lenguajes aceptados por los autómatas descritos más arriba se denominan lenguajes regulares. Autómatas más potentes pueden aceptar lenguajes más complejos. Algunos de estos autómatas son: Autómata con pila Son máquinas idénticas a los AFD (o AFI), exceptuando el hecho de que disponen de una memoria adicional, haciendo uso de una pila. La función de transición ahora dependerá también de los símbolos que se encuentren al principio de la pila. Esta función determinará como cambia la pila en cada transición. Este tipo de autómatas aceptan los lenguajes independientes del contexto. Autómata linealmente acotado Se trata de una máquina de Turing limitada. Máquina de Turing Son las máquinas computacionales más potentes. Poseen una memoria infinita en forma de cinta, así como un cabezal que puede leer y cambiar esta cinta, y moverse en cualquier dirección a lo largo de la cinta. Teoría de autómatas 30

Véase también • Sistema combinacional • Autómata finito • Autómata con pila • Máquina de Turing

Enlaces externos • JFLAP [2] • dk.brics.automaton [3] • Exorciser (en Alemán) [4]

Referencias

[1] page 81 of (http:/ / ozark. hendrix. edu/ ~burch/ socs/ written/ text/ v1. pdf)

[2] http:/ / www. jflap. org

[3] http:/ / www. brics. dk/ automaton

[4] http:/ / www. swisseduc. ch/ informatik/ exorciser/ index. html

Autómata finito

Un autómata finito (AF) o máquina de estado finito es un modelo computacional que realiza cómputos en forma automática sobre una entrada para producir una salida. Este modelo está conformado por un alfabeto, un conjunto de estados y un conjunto de transiciones entre dichos estados. Su funcionamiento se basa en una función de transición, que recibe a partir de un estado inicial una cadena de caracteres pertenecientes al alfabeto (la entrada), y que va leyendo dicha cadena a medida que el autómata se desplaza de un estado a otro, para finalmente detenerse en un estado final o de aceptación, que representa la salida.

La finalidad de los autómatas finitos es la de reconocer lenguajes regulares, que corresponden a los lenguajes formales más simples según la Jerarquía de Chomsky. Autómata finito 31

Historia

El origen de los autómatas finitos probablemente se remonta a su uso implícito en máquinas electromecánicas, desde principios del siglo XX.[1] Ya en 1907, el matemático ruso Andréi Márkov formalizó un proceso llamado cadena de Markov, donde la ocurrencia de cada evento depende con una cierta probabilidad del evento anterior.[2] Esta capacidad de "recordar" es utilizada posteriormente por los autómatas finitos, que poseen una memoria primitiva similar, en que la activación de un estado también depende El modelo neuronal de McCulloch-Pitts también del estado anterior, así como del símbolo o palabra presente en la utiliza diagramas con estados y transiciones, además función de transición. de los conceptos de entrada y salida.

Posteriormente, en 1943, surge una primera aproximación formal de los autómatas finitos con el modelo neuronal de McCulloch-Pitts. Durante la década de 1950 prolifera su estudio, frecuentemente llamándoseles máquinas de secuencia; se establecen muchas de sus propiedades básicas, incluyendo su interpretación como lenguajes regulares y su equivalencia con las expresiones regulares.[1] Al final de esta década, en 1959, surge el concepto de autómata finito no determinista en manos de los informáticos teóricos Michael O. Rabin y Dana Scott.[3]

En la década de 1960 se establece su conexión con las series de potencias y los sistemas de sobreescritura.[4] Finalmente, con el desarrollo del sistema operativo Unix en la década de 1970, los autómatas finitos encuentran su nicho en el uso masivo de expresiones regulares para fines prácticos, específicamente en el diseño de analizadores léxicos (comando lex) y la búsqueda y reemplazo de texto (comandos ed y grep).[5] A partir de ese tiempo, los autómatas finitos también se comienzan a utilizar en sistemas dinámicos.[1]

Definición formal Formalmente, un autómata finito es una 5-tupla (Q, Σ, q , δ, F) donde:[6] 0 • es un conjunto finito de estados; • es un alfabeto finito; • es el estado inicial; • es una función de transición; • es un conjunto de estados finales o de aceptación.

Funcionamiento

En el comienzo del proceso de reconocimiento de una cadena de entrada, el autómata finito se encuentra en el estado inicial y a medida que procesa cada símbolo de la cadena va cambiando de estado de acuerdo a lo determinado por la función de transición. Cuando se ha procesado el último de los símbolos de la cadena de entrada, el autómata se detiene en el estado final del proceso. Si el estado final en el que se detuvo es un El esquema general es el de una cinta lectora que avanza sólo hacia estado de aceptación, entonces la cadena pertenece al delante y de a una celda, según la función de transición. lenguaje reconocido por el autómata; en caso contrario, la cadena no pertenece a dicho lenguaje. Autómata finito 32

Note que el estado inicial de un autómata finito siempre es único, en tanto que los estados finales pueden ser más de uno, es decir, el conjunto puede contener más de un elemento. También puede darse el caso de que un estado final corresponda al mismo estado inicial.

Representación como diagramas de estados

Los autómatas finitos se pueden representar mediante grafos particulares, también llamados diagramas de estados finitos, de la siguiente manera: • Los estados se representan como vértices, etiquetados con su nombre en el interior. • Una transición desde un estado a otro, dependiente de un símbolo del alfabeto, se representa mediante una arista dirigida que une a estos vértices, y que está etiquetada con dicho símbolo.

• El estado inicial se caracteriza por tener una arista Este autómata finito está definido sobre el alfabeto Σ={0,1}, posee dos estados s y s , y sus transiciones son δ(s ,0)=s , δ(s ,1)=s , que llega a él, proveniente de ningún otro vértice. 1 2 1 2 1 1 δ(s ,0)=s y δ(s ,1)=s . Su estado inicial es s , que es también su • El o los estados finales se representan mediante 2 1 2 2 1 único estado final. vértices que están encerrados a su vez por otra circunferencia.

Representación como tabla de transiciones

Otra manera de describir el funcionamiento de un autómata finito es mediante el uso de tablas de transiciones o matrices de estados. Dos posibles tablas para el ejemplo de la imagen anterior podrían ser las siguientes:

salida símbolo llegada 0 1 q ∈ Q σ ∈ Σ δ(q,σ) ∈ Q →*s s s 1 2 1 s 0 s 1 2 s s s 2 1 2 s 1 s 1 1 s 0 s 2 1 s 1 s 2 2

La primera representa explícitamente los parámetros y el valor que toma cada ocurrencia de la función de transición.[7] La segunda es más compacta, y marca con una flecha el estado inicial, y con un asterisco los estados finales.

Generalización de la función de transición Si Σ es un alfabeto, entonces se denota Σ* al conjunto de todas las cadenas de caracteres o palabras que se pueden conformar con dicho alfabeto. Una función de transición δ se puede generalizar a una función δ*, que opera sobre estados y secuencias de símbolos, en lugar de símbolos individuales del alfabeto. Así, esta nueva función de transición se define , permitiendo caracterizar los autómatas de manera más abreviada y sin perder expresividad.[6] La función δ* puede expresarse también de manera recursiva, definiendo para toda cadena x ∈ Σ*, todo símbolo a ∈ Σ, y un estado q ∈ Q:[6] • , que es la base inductiva, siendo ε la cadena vacía, y Autómata finito 33

• , que es la inducción propiamente tal. Se llama configuración de un autómata finito a un "instante" en el cómputo de la máquina; es decir, al estado actual en que se encuentra dicho cómputo, junto con la palabra que ha sido procesada hasta ese momento. Formalmente, se define como un par ordenado (q, x) ∈ Q × Σ*. De este modo, se puede definir además la configuración inicial del autómata, como el par (q ,x), donde x es la entrada; y la configuración final, como el par (q,ε), con q ∈ F. 0 De este modo, el lenguaje regular aceptado por un autómata finito A puede denotarse como L(A) = {w; δ*(q ,w)∈ 0 F}, es decir, como el conjunto de todas las configuraciones iniciales que conllevan a estados finales.

Autómata finito determinista

Un autómata finito determinista (abreviado AFD) es un autómata finito que además es un sistema determinista; es decir, para cada estado q ∈ Q en que se encuentre el autómata, y con cualquier símbolo a ∈ Σ del alfabeto leído, existe siempre a lo más una transición posible δ(q,a).

En un AFD no pueden darse ninguno de estos dos casos: • Que existan dos transiciones del tipo δ(q,a)=q y 1 δ(q,a)=q , siendo q ≠ q ; 2 1 2 • Que existan transiciones del tipo δ(q,ε), salvo que q sea un estado final, sin transiciones hacia otros estados. Un ejemplo interesante de autómatas finitos deterministas son los tries. AFD que reconoce el lenguaje regular conformado exclusivamente por las cadenas con un número par de ceros y par de unos.

Autómata finito no determinista

Un autómata finito no determinista (abreviado AFND) es aquel que, a diferencia de los autómatas finitos deterministas, posee al menos un estado q ∈ Q, tal que para un símbolo a ∈ Σ del alfabeto, existe más de una transición δ(q,a) posible. Haciendo la analogía con los AFDs, en un AFND puede darse cualquiera de estos dos casos: AFND con transiciones δ(q ,b)=q y δ(q ,b)=q , que acepta el • Que existan transiciones del tipo δ(q,a)=q y 0 0 0 1 1 lenguaje regular sobre el alfabeto {a,b} conformado por todas las δ(q,a)=q , siendo q ≠ q ; 2 1 2 palabras que terminan en b; es decir, que equivale a la expresión • Que existan transiciones del tipo δ(q,ε), siendo q un regular (a|b)*b+. estado no-final, o bien un estado final pero con transiciones hacia otros estados. Autómata finito 34

Cuando se cumple el segundo caso, se dice que el autómata es un autómata finito no determinista con transiciones vacías o transiciones ε (abreviado AFND-ε). Estas transiciones permiten al autómata cambiar de estado sin procesar ningún símbolo de entrada. Formalmente, se distingue de la 5-tupla que define a un autómata finito determinista en su función de transición. Mientras en un AFD esta función se define de la siguiente manera:

en un AFND se define como:

AFND-ε a cuyo estado 2 se puede acceder Para el caso de los AFND-ε, se suele expresar la función de transición pasando por el estado 3, sin procesar símbolos de de la forma: entrada.

donde P(Q) es el conjunto potencia de Q. Esto significa que los autómatas finitos deterministas son un caso particular de los no deterministas, puesto que Q pertenece al conjunto P(Q). La interpretación que se suele hacer en el cómputo de un AFND es que el automáta puede estar en varios estados a la vez, generándose una ramificación de las configuraciones existentes en un momento dado. Otra interpretación puede ser imaginar que la máquina "adivina" a qué estado debe ir, eligiendo una transición entre varias posibles. Note finalmente que en un autómata finito no determinista podemos aceptar la existencia de más de un nodo inicial, relajando aún más la definición original.

Equivalencias entre autómatas finitos Se dice que dos autómatas finitos son equivalentes, si ambos reconocen el mismo lenguaje regular. Toda expresión regular (que define a su vez un lenguaje regular) puede ser expresada como un autómata finito determinista,[8] y viceversa.[9] Dada una expresión regular, es posible construir un AFND-ε que reconozca dicho lenguaje, por ejemplo mediante el algoritmo de Thompson. Luego, todo AFND-ε puede transformarse en un AFND equivalente, así como todo AFND puede transformarse en un AFD equivalente, mediante el método llamado construcción de conjunto potencia. Así, por transitividad, para cualquier autómata finito no determinista siempre existe un autómata finito determinista equivalente, y viceversa.[3] Normalmente en el diseño de autómatas finitos, lo primero que se hace es construir un AFND-ε, que es el más sencillo de construir, por poseer menos restricciones en su función de transiciones. Luego dicho autómata se reduce a un AFND, y finalmente a un AFD, el cual por sus características deterministas ya puede ser implementado sin problemas utilizando un lenguaje de programación. Autómata finito 35

Conversión de un AFND-ε a un AFND La conversión de un AFND-ε en un AFND se basa en el concepto de clausura-ε, que corresponde a una clausura transitiva contextualizada en la teoría de autómatas. Dado un estado q, se llama clausura-ε(q) al conjunto de todos los estados a los que se puede acceder a partir de q, procesándose a lo más un único símbolo de la entrada. Puede definirse recursivamente de la siguiente manera:[10] • (Base inductiva) Para todo estado q, q ∈ clausura-ε(q). • (Inducción) Dados dos estados p y r, si p ∈ clausura-ε(q) y r ∈ δ(p,ε), entonces r ∈ clausura-ε(q). El algoritmo para eliminar las transiciones vacías es el siguiente: 1. Se calcula la clausura-ε del estado inicial, formándose un conjunto A que corresponderá al estado inicial del nuevo autómata. 2. Para cada símbolo del alfabeto, se verifican los estados alcanzables a partir de algún estado contenido en A, y se calcula la clausura-ε de dichos estados alcanzables. Si dichas clausuras producen nuevos conjuntos distintos de A, estos serán nuevos estados a los que se accederá a partir de A y del símbolo correspondiente. 3. Se repite lo anterior para cada nuevo conjunto, hasta que no existan transiciones posibles para ningún símbolo del alfabeto. Ejemplo Eliminación de las transiciones vacías de un AFND-ε.

AFND-ε inicial.

En este caso se obtiene un AFD, que es un caso particular de AFND. En el ejemplo de la figura, se tendrá inicialmente: clausura-ε(1) = {1,2,3,4,6} = A Para A: Para el símbolo a: 4 va a 5, y clausura-ε(5) = {5,7} = B. Para el símbolo b: no existen transiciones posibles. Para B: Para el símbolo a: no existen transiciones posibles. Para el símbolo b: 5 va a 6, y clausura-ε(6) = {6} = C. Para C: Para el símbolo a: no existen transiciones posibles. Para el símbolo b: no existen transiciones posibles. Con esto concluye el algoritmo y se obtiene el autómata de la figura. En algunos casos puede ocurrir que al quitar las transiciones épsilon obtengamos directamente un AFD, pues la única razón de no-determinismo era justamente la presencia de dichas transiciones. Autómata finito 36

Conversión de un AFND a un AFD Conversión de un AFND a un AFD.

AFND inicial.

Proceso de conversión.

AFD final. Todo AFND (Q , Σ, q , δ , F ) puede convertirse en un AFD (Q , Σ, q , δ , F ) equivalente, que mantiene el N 0 N N D 0 D D alfabeto Σ y el estado inicial q originales. La conversión implica pasar por un AFD intermedio con estados y 0 transiciones redundantes, que al no ser accesibles a partir del estado inicial, son eliminados para obtener el AFD definitivo. Para definir el AFD intermedio, se deben seguir los siguientes pasos: 1. Primero se redefine el conjunto de estados Q = {q , q , ..., q } original, como uno conformado por todos los N 0 1 m subconjuntos de Q . Los nuevos estados finales serán todos aquellos estados que contengan a alguno de los N estados finales originales. 2. Posteriormente, se redefine el conjunto de transiciones original, por transiciones del tipo δ (S,a), donde a∈Σ, y S D es la unión de todos los estados q de Q para los cuales existía la transición δ (q,a). N N 3. Por último, se eliminan los estados inaccesibles o inalcanzables (junto con sus transiciones de salida), es decir, aquellos a los que no se puede acceder a partir del estado inicial. Luego de esta depuración, se obtiene el AFD final. Ejemplo En las figuras de ejemplo, como el AFND inicial posee tres estados (q , q , q ), entonces el AFD intermedio poseerá 0 1 2 siete ({q }, {q }, {q }, {q , q }, {q , q }, {q , q }, {q , q , q }), y como el estado final original era q , entonces los 0 1 2 0 1 0 2 1 2 0 1 2 2 estados finales del AFD intermedio son {q }, {q , q }, {q , q } y {q , q , q }. Con respecto a las nuevas 2 0 2 1 2 0 1 2 transiciones, note por ejemplo que se mantuvo la transición δ (q ,1)=q , siendo ahora llamada δ ({q },1)={q }; sin N 0 0 D 0 0 embargo, dado que originalmente se daba que δ (q ,0)=q y δ (q ,0)=q , ahora estas dos transiciones fueron N 0 0 N 0 1 reemplazadas por δ ({q },0)={q , q }. Para terminar, note que los estados {q }, {q } y {q , q } no están conectados D 0 0 1 1 2 1 2 con el resto del autómata que posee el estado inicial; por tanto, son eliminados. Asimismo es eliminado también {q , 0 q , q }, pues a pesar de estar conectado con el resto del autómata, no es accesible a partir de {q }. Así finalmente, 1 2 0 eliminando estos cuatro estados, así como sus respectivas transiciones, se obtiene el AFD buscado. Autómata finito 37

Minimización de un AFD Dos estados de un autómata finito determinista son estados equivalentes si al unirse en un sólo estado, pueden reconocer el mismo lenguaje regular que si estuviesen separados. Esta unión de estados implica la unión tanto de sus transiciones de entrada como de salida. Si dos estados no son equivalentes, se dice que son estados distinguibles. Un estado final con un estado no-final nunca serán equivalentes. Un AFD está minimizado, si todos sus estados son distinguibles y alcanzables. Un algoritmo de minimización de AFD es el siguiente: 1. Eliminar los estados inaccesibles del autómata. 2. Construir una tabla con todos los pares (p, q) de estados restantes. 3. Marcar en la tabla aquellas entradas donde un estado es final y el otro es no-final, es decir, aquellos pares de estados que son claramente distinguibles. 4. Para cada par (p, q) y cada símbolo a del alfabeto, tal que r = δ(p,a) y s = δ(q,a): 1. Si (r, s) ya ha sido marcado, entonces p y q también son distinguibles, por lo tanto marcar la entrada (p, q). 2. De lo contrario, colocar (p, q) en una lista asociada a la entrada (r, s). 5. Agrupar los pares de estados no marcados. Luego del tercer paso, si la tabla creada queda completamente marcada, entonces el AFD inicial ya era mínimo. La complejidad computacional del problema de minimizar un AFD es polinomial. De hecho, existen algoritmos más eficientes aún que el mostrado en este artículo (aunque menos intuitivos).[11] Sin embargo, el problema de minimizar un autómata finito no determinista es NP-completo y PSPACE-completo.[12][13] Ejemplo Minimización de un AFD.

AFD con estados redundantes.

AFD minimizado. En la primera figura del ejemplo, se muestra un autómata con el estado inaccesible d, el cual puede eliminarse inmediatamente. Luego se construye la tabla de pares de estados, y a continuación se marcan, de acuerdo a la tercera línea del algoritmo, las filas y columnas correspondientes a los estados finales c y g, salvo la celda que representa el par (c,g), puesto que al ser ambos estados finales, pueden ser estados equivalentes. Posteriormente, se marcan las celdas restantes de acuerdo a la cuarta línea del algoritmo, notando que el par (b, f) queda asociado con el par (c, g), y así finalmente se obtiene el autómata final, agrupando los estados b y f, así como c y g, tal y como se muestra en la segunda figura del ejemplo. Autómata finito 38

Tablas para la búsqueda de estados equivalentes

b b b

c c c

e e e

f f f

g g g

a b c e f a b c e f a b c e f

Generalizaciones de autómatas finitos

Existes diversas generalizaciones posibles de hacer sobre los autómatas finitos, para aumentar su uso y expresividad. Así, por ejemplo, se definen los transductores de estados finitos como autómatas finitos que están dotados además de un alfabeto de salida, distinto al de entrada, y que pueden poseer más de un estado inicial.[14] Las máquinas de Moore y máquinas de Mealy son conocidos ejemplos de transductores, que se utilizan sobre todo para modelar sistemas secuenciales.[15][16]

Es incluso posible aumentar el poder de cómputo de un autómata finito, permitiendo un alfabeto adicional sobre éste, que actúe sobre una memoria de tipo pila para ser considerada en cada transición. Esta es la idea utilizada por los llamados autómatas con

pila, los cuales son capaces de reconocer lenguajes libres de Ejemplo de Máquina de Mealy, un tipo de transductor contexto, que están un nivel por sobre los lenguajes regulares en la de estados finitos, que generaliza los autómatas finitos. Jerarquía de Chomsky.[17]

Véase también

• Lenguaje regular • Teoría de autómatas • Sistema combinacional • Autómata con pila • Máquina de Turing Autómata finito 39

Referencias

[1] Wolfram, Stephen (2002). « Starting From Randomness (http:/ / www. wolframscience. com/ reference/ notes/ 958a)» (en inglés). A New Kind of Science. Wolfram Media. pp. 958. . Consultado el 31 de marzo de 2010.

[2] Basharin, Gely P.; Langville, Amy N.; Naumov, Valeriy A. (2004). « The Life and Work of A. A. Markov (http:/ / citeseerx. ist. psu. edu/

viewdoc/ summary?doi=10. 1. 1. 4. 4887)» (en inglés). Linear Algebra and its Applications 386: pp. 3-26. . Consultado el 31 de marzo de 2010.

[3] Rabin, Michael O.; Scott, Dana (1959). « Finite automata and their decision problems (http:/ / portal. acm. org/ citation. cfm?id=1661909)»

(en inglés). IBM Journal of Research and Development (IBM Corp. Riverton, NJ, USA) 3 (2): pp. 114-125. ISSN 0018-8646 (http:/ /

worldcat. org/ issn/ 0018-8646). . Consultado el 05 de abril de 2010.

[4] Wolfram, Stephen (2002) (en inglés). A New Kind of Science (http:/ / www. wolframscience. com/ reference/ notes/ 958a). Wolfram Media. pp. 893. . Consultado el 31 de marzo de 2010.

[5] Thompson, Ken (1968). « Programming Techniques: Regular expression search algorithm (http:/ / portal. acm. org/ citation.

cfm?id=363387& dl=GUIDE,)» (en inglés). Communications of the ACM 11 (6): pp. 419-422. . Consultado el 01 de abril de 2010.

[6] Chakraborty, Samarjit (17 de marzo de 2003). « Formal Languages and Automata Theory. Regular Expressions and Finite Automata (http:/ /

citeseerx. ist. psu. edu/ viewdoc/ summary?doi=10. 1. 1. 89. 9977)» (en inglés). Computer Engineering and Networks Laboratory. Swiss Federal Institute of Technology (ETH) Zürich: pp. 17. . Consultado el 30 de marzo de 2010.

[7] Brena, Ramón (2003). « Autómatas y Lenguajes. Un enfoque de diseño (http:/ / homepages. mty. itesm. mx/ rbrena/ AyL. html)» (en español). Tecnológico de Monterrey, México: pp. 205. . Consultado el 31 de marzo de 2010.

[8] Berry, G.; Sethi, R. (1987). « From regular expressions to deterministic automata (http:/ / hal. archives-ouvertes. fr/ docs/ 00/ 07/ 59/ 04/ PDF/

RR-0649. pdf)» (en inglés). TCS: Theoretical Computer Science 48: pp. 117-126. . Consultado el 01 de abril de 2010.

[9] Neumann, Christoph (2005) (en inglés). Converting Deterministic Finite Automata to Regular Expressions (http:/ / citeseerx. ist. psu. edu/

viewdoc/ download?doi=10. 1. 1. 85. 2597& rep=rep1& type=pdf). . Consultado el 01 de abril de 2010.

[10] van Noord, Gertjan (2000). « Treatment of epsilon moves in subset construction (http:/ / portal. acm. org/ citation. cfm?id=971841.

971845)» (en inglés). Computational Linguistics (MIT Press. Cambridge, MA, USA) 26 (1): pp. 61-76. ISSN 0891-2017 (http:/ / worldcat.

org/ issn/ 0891-2017). . Consultado el 05 de abril de 2010.

[11] Hopcroft, John E. (1971). « An n log n algorithm for minimizing states in a finite automaton (http:/ / portal. acm. org/ citation. cfm?id=891883)» (en inglés). Theory of Machines and Computations (Academic Press, Nueva York): pp. 189-196. . Consultado el 09 de abril de 2010.

[12] Jiang, Tai; Ravikumar, B. (1993). « Minimal NFA problems are hard (http:/ / portal. acm. org/ citation. cfm?id=165076& dl=GUIDE&

coll=GUIDE& CFID=85447364& CFTOKEN=52905360)» (en inglés). SIAM Journal on Computing (Society for Industrial and Applied

Mathematics Philadelphia, PA, Estados Unidos) 22 (6): pp. 1117-1141. ISSN 0097-5397 (http:/ / worldcat. org/ issn/ 0097-5397). . Consultado el 09 de abril de 2010.

[13] Malcher, Andreas (2004). « Minimizing finite automata is computationally hard (http:/ / www. springerlink. com/ content/

xj7hde7ewmucw94a/ )» (en inglés). Theoretical Computer Science (Elsevier Science Publishers Ltda. Essex, Reino Unido) 327 (3):

pp. 375-390. ISSN 0304-3975 (http:/ / worldcat. org/ issn/ 0304-3975). . Consultado el 05 de abril de 2010.

[14] Koskenniemi, Kimmo (1984), A general computational model for word-form recognition and production (http:/ / acl. ldc. upenn. edu/ P/

P84/ P84-1038. pdf), Morristown, NJ, Estados Unidos: Association for Computational Linguistics, pp. 178-181, , consultado el 10 de abril de 2010

[15] Moore, Edward F. (1956). « Gedanken-experiments on Sequential Machines (http:/ / books. google. cl/ books?hl=es& lr=&

id=oL57iECEeEwC& oi=fnd& pg=PA129& dq=Gedanken-experiments+ on+ Sequential+ Machines& ots=xtIZlfNSh3&

sig=_IZbeMzi9_E7N5vQpocPAfK1KiU#v=onepage& q=Gedanken-experiments on Sequential Machines& f=false)» (en inglés). Automata Studies, Annals of Mathematical Studies (Princeton, N.J.: Princeton University Press) (34): pp. 129–153. . Consultado el 10 de abril de 2010. [16] Mealy, George H. (1955). «A Method for Synthesizing Sequential Circuits» (en inglés). Bell Systems Technical Journal 34: pp. 1045-1079.

[17] Hopcroft, John E.; Ullman, Jeffrey D. (1969), Formal languages and their relation to automata (http:/ / portal. acm. org/ citation. cfm?id=1096945), Boston, MA, Estados Unidos: Addison-Wesley Longman Publishing Co., Inc., pp. 262, , consultado el 10 de abril de 2010 Autómata finito 40

Bibliografía • Hopcroft, John; Motwani, Rajeev; Ullman, Jeffrey D. (2001) (en inglés). Introduction to Automata Theory, Languages, and Computation. Massachusetts, Estados Unidos: Addison-Wesley.

Enlaces externos

• Wikimedia Commons alberga contenido multimedia sobre Autómata finito. Commons

• JFLAP, software para experimentar con lenguajes formales y autómatas (http:/ / www. jflap. org/ )

Función de transición

En matemática, una función de transición puede referirse a: • Una función de transición en topología: un homeomorfismo desde un atlas de coordenadas a otro. Dados dos atlas (U , φ ) y (U , φ ), función de transición normalmente toma la forma i i j j

para algún conjunto F estando cubierto por la topología. Véase fibrado y atlas (matemáticas) para detalles adicionales. • Una función de transición en teoría de autómatas, es una función que define las transiciones entre los estados de una Máquina de Turing, de un autómata finito o de otro tipo de autómatas. Se describe mediante una tabla de transición de estados.

Tabla de transición de estados

En teoría de autómatas y lógica secuencial, una tabla de transición de estados es una tabla que muestra qué estado se moverá un autómata finito dado, basándose en el estado actual y otras entradas. Una tabla de estados es esencialmente una tabla de verdad en la cual algunas de las entradas son el estado actual, y las salidas incluyen el siguiente estado, junto con otras salidas. Una tabla de estados es una de las muchas maneras de especificar una máquina de estados, otras formas son un diagrama de estados, y una ecuación característica. Cuando se trata de un autómata finito no determinista, entonces la tabla de transición muestra todos los estados que se moverá el autómata.

Formas comunes

Tablas de estados de una dimensión También llamadas tablas características, las tablas de estados de una dimensión son más como tablas de verdad que como las versiones de dos dimensiones. Las entradas son normalmente colocadas a la izquierda, y separadas de las salidas, las cuales están a la derecha. Las salidas representarán el siguiente estado de la máquina. Aquí hay un ejemplo sencillo de una máquina de estados con dos estados, y dos entradas combinacionales: Tabla de transición de estados 41

A B Estado Actual Siguiente Estado Salida

0 0 S S 1 1 2 0 0 S S 0 2 1 0 1 S S 0 1 2 0 1 S S 1 2 2 1 0 S S 1 1 1 1 0 S S 1 2 1 1 1 S S 1 1 1 1 1 S S 0 2 2

S y S representarían probablemente los bits individuales 0 y 1, dado que un simple bit solo tiene dos estados. 1 2

Tablas de Estados de dos dimensiones Las tablas de transición de estados son normalmente tablas de dos dimensiones. Hay dos formas comunes para construirlas. • La dimensión vertical indica los Estados Actuales, la dimensión horizontal indica eventos, y las celdas (intersecciones fila/columna) de la tabla contienen el siguiente estado si ocurre un evento (y posiblemente la acción enlazada a esta transición de estados).

Tabla de Transición de Estados

Events E E ... E 1 2 n State

S - A /S ... - 1 y j S - - ... A /S 2 x i ......

S A /S - ... - m z k

(S: estado, E: evento, A: acción, -: transición ilegal) • La dimensión vertical indica los Estados Actuales, la dimensión horizontal indica los siguientes estados, y las intersecciones fila/columna contienen el evento el cual dirigirá al siguiente estado particular.

Tabla de Transición de Estados

next S S ... S 1 2 m current

S A /E - ... - 1 y j S - - ... A /E 2 x i ......

S - A /E ... - m z k

(S: estado, E: evento, A: acción, -: transición imposible) Tabla de transición de estados 42

Ejemplo Un ejemplo de una tabla de transición de estados para una máquina M junto con el correspondiente diagrama de estados está dado abajo.

Diagrama de estados Entrada 1 0 Estado

S S S 1 1 2 S S S 2 2 1

Todas las entradas posibles a la máquina están enumeradas a través de las columnas de la tabla. Todos los estados posibles están enumerados a través de las filas. Desde la tabla de transición de estados anterior, es fácil ver que si la máquina está en S (la primera fila), y la siguiente entrada es el carácter 1, la máquina permanecerá en S . Si llega un 1 1 carácter 0, la máquina realizará la transición a S como puede verse desde la segunda columna. En el diagrama esto 2 es denotado por la flecha desde S a S etiquetada con un 0. 1 2 Para un autómata finito no determinista (AFND), una nueva entrada puede causar que la máquina esté en más de un estado, dado que es no determinista. Esto se denota en una tabla de transición de estados por un par de llaves { } con un conjunto de todos los estados objetivo entre ellos. Se da un ejemplo abajo.

Tabla de Transición de Estados para un AFND

Entrada 1 0 ε Estado

S S { S , S } Φ 1 1 2 3 S S S Φ 2 2 1 S S S S 3 2 1 1

Aquí, una máquina no determinista en el estado S leyendo una entrada de 0 causará que esté en dos estados al 1 mismo tiempo, los estados S y S . La última columna define la transición legal de estados del carácter especial, ε. 2 3 Este carácter especial permite a los AFND moverse a un estado diferente cuando no hay ninguna entrada. En el estado S , el AFND puede moverse a S sin consumir ningún carácter de entrada. Los dos casos anteriores 3 1 configuran al autómata finito no determinista.

Transformaciones de/a diagrama de estados Es posible dibujar un Diagrama de estados partiendo de la tabla. Una secuencia posible de pasos a seguir es la siguiente: 1. Dibuja círculos que representen los estados dados. 2. Para cada uno de los estados, mira la correspondiente fila y dibuja una flecha para cada uno de los estados destino. Pueden ser múltiples flechas para un mismo carácter de entrada si el autómata es un AFND. 3. Designa un estado como el estado inicial. El estado inicial está dado en la definición formal del autómata. 4. Designa uno o más estados como estado final( o también llamado de aceptación). Esto también está dado en la definición formal. Tabla de transición de estados 43

Referencias • Michael Sipser: Introduction to the Theory of Computation. PWS Publishing Co., Boston 1997 ISBN 0-534-94728-X

Autómata finito no determinista

Un autómata finito no determinista (abreviado AFND) es un autómata finito que, a diferencia de los autómatas finitos deterministas (AFD), posee al menos un estado q ∈ Q, tal que para un símbolo a ∈ Σ del alfabeto, existe más de una transición δ(q,a) posible. En un AFND puede darse cualquiera de estos dos casos: En este ejemplo, δ(q ,b)=q y δ(q ,b)=q . Por lo tanto, se trata de un • Que existan transiciones del tipo δ(q,a)=q y 0 0 0 1 1 autómata finito no determinista, que reconoce la expresión regular δ(q,a)=q , siendo q ≠ q ; + 2 1 2 (a|b)*b . • Que existan transiciones del tipo δ(q,ε), siendo q un estado no-final, o bien un estado final pero con transiciones hacia otros estados. Cuando se cumple el segundo caso, se dice que el autómata es un autómata finito no determinista con transiciónes vacías o transiciones ε (abreviado AFND-ε). Estas transiciones permiten al autómata cambiar de estado sin procesar ningún símbolo de entrada. Considérese una modificación al modelo del autómata finito para permitirle ninguna, una o más transiciones de un estado sobre el mismo símbolo de entrada.

Definición formal Formalmente, si bien un autómata finito determinista se define como una 5-tupla (Q, Σ, q , δ, A) donde:[1] 0 • es un conjunto de estados; • es un alfabeto; • es el estado inicial; • es una función de transición; • es un conjunto de estados finales o de aceptación. en un AFND la función de transición se define como:

Para el caso de los AFND-ε, se suele expresar la función de transición de la forma:

donde P(Q) es el conjunto potencia de Q. Esto significa que los autómatas finitos deterministas son un caso particular de los no deterministas, puesto que Q pertenece al conjunto P(Q). La interpretación que se suele hacer en el cómputo de un AFND es que el automáta puede pasar por varios estados a la vez, generándose una ramificación de las configuraciones existentes en un momento dado. Asimismo, en un autómata finito no determinista podemos aceptar la existencia de más de un nodo inicial. Autómata finito no determinista 44

Funcionamiento La máquina comienza en el estado inicial especificado y lee una cadena de caracteres pertenecientes al alfabeto. El autómata utiliza la función de transición de estados T para determinar el siguiente estado, usando el estado actual y el símbolo que acaba de leer o la cadena vacía. Sin embargo, "el estado siguiente de un AFND no sólo depende de el evento de entrada actual, sino que también en un número arbitrario de los eventos de entrada posterior. Hasta que se producen estos acontecimientos posteriores no es posible determinar en qué estado se encuentra la máquina" . Cuando el autómata ha terminado de leer, y se encuentra en un estado de aceptación, se dice que el AFND acepta la cadena, de lo contrario se dice que la cadena de caracteres es rechazada. Tanto para un AFND como para un autómata finito determinista (AFD) se puede aceptar el mismo lenguaje. Por lo tanto, es posible convertir un AFND existente en un AFD para el desarrollo de una máquina tal vez más simple. Esto puede llevarse a cabo utilizando la construcción del conjunto potencia, que puede conducir a un aumento exponencial en el número de estados necesarios.

Implementación Hay muchas formas de implementar una ANFD: • Convertir al equivalente AFD: en algunos casos esto puede causar una explosión exponencial en el tamaño del autómata, y así un espacio auxiliar proporcional al número de estados en el ANFD (como el almacenamiento del valor del estado requiere en la mayoría de un bit por cada estado en el ANFD). • Mantener un conjunto de datos de todos los estados en que la máquina podría estar en la actualidad. Al consumir el ultimo caracter de entrada, si uno de estos estados es un estado final, la maquina acepta la cadena. En el peor de los casos, esto puede requerir espacio adicional proporcional al número de estados en el ANFD; si la estructura del conjunto usa un bit por estado del ANFD, entonces esta solución es exactamente equivalente a la anterior. • Crear múltiples copias. Por cada n forma de la decisión, el ANFD crea hasta n-1 copias de la maquina. Cada uno de ellos entrara en un estado independiente. Si, al momento de consumir el ultimo símbolo de la entrada, al menos una copia del ANFD esta en un estado de aceptación, el ANFD lo aceptará. (Esto también requiere un almacenamiento lineal con respecto al número de estados del ANFD, ya que puede haber una maquina por cada estado del ANFD).

AFND-ε

Propiedades Para todo , se escribe si y solo si a se pude llegar desde , yendo a lo largo de cero o más flechas . En otras palabras, si y sólo si existe donde tal que . Para cualquier , el conjunto de estados que se puede llegar a partir de p se llama epsilon-closure o ε-closure de p y se escribe como . Para cualquier subconjunto , definir el ε-closure de P como

.

Las transiciones epsilon son transitive, ya que puede demostrarse que para todo y , si y , entonces . Del mismo modo, si y entonces Sea x una cadena del alfabeto Σ∪{ε}. Un AFND-ε M acepta la cadena x si existe tanto una representación de x de la forma x x ... x , donde x ∈ (Σ ∪{ε}), 1 2 n i Autómata finito no determinista 45

y una secuencia de estados p ,p , ..., p , donde p ∈ Q, Cumpliéndose las siguientes condiciones: 0 1 n i 1. p E({q }) 0 0 2. p E(T(p , x )) para i = 1, ..., n i i-1 i 3. p F. n

Aplicación El AFND y el AFD son equivalentes en esto, ya que si un lenguaje es reconocido por el AFND, también será reconocido por un AFD, y viceversa. El establecimiento de esta equivalencia es útil porque a veces la construcción de un AFND para reconocer un lenguaje determinado es más fácil que construir un AFD para dicho lenguaje. También es importante porque el AFND se pude utilizar para reducir la complejidad del trabajo matemático necesario para establecer muchas propiedades importantes en la teoría de la computación. Por ejemplo, es mucho más fácil demostrar las siguientes propiedades utilizando un AFND que un AFD: • La unión de dos lenguajes regulares es regular. • La concatenación de dos lenguajes regulares es regular. • La Clausura de Kleene en un Lenguaje regular es regular.

Ejemplo El ejemplo siguiente muestra un AFND M, con un alfabeto binario que determina si la entrada contiene un número par de 0s o un número par de 1s. Entonces M = (Q, Σ, T, s , F) donde: 0 • Σ = {0, 1}, • Q = {s , s , s , s , s }, 0 1 2 3 4 • E({s }) = { s , s , s } 0 0 1 3 • F = {s , s }, y 1 3 • La función de transición T puede ser definida por esta tabla de transición de estados:

0 1 ε

S {} {} {S , S } 0 1 3 S {S } {S } {} 1 2 1 S {S } {S } {} 2 1 2 S {S } {S } {} 3 3 4 S {S } {S } {} 4 4 3

El diagrama de estados para M es: Autómata finito no determinista 46

M puede ser visto como la unión de dos AFDs: uno con los estados {S , S } y el otro con los estados {S , S }. 1 2 3 4 El lenguaje de M puede ser descrito por el lenguaje regular dado por la expresión regular:

Véase también • Autómata finito • Autómata finito determinista • Construcción de subconjuntos

Referencias

[1] Chakraborty, Samarjit (17 de marzo de 2003). « Formal Languages and Automata Theory. Regular Expressions and Finite Automata (http:/ /

citeseerx. ist. psu. edu/ viewdoc/ summary?doi=10. 1. 1. 89. 9977)» (en inglés). Computer Engineering and Networks Laboratory. Swiss Federal Institute of Technology (ETH) Zürich: pp. 17. . Consultado el 30 de marzo de 2010.

Bibliografía • M. O. Rabin and D. Scott, "Finite Automata and their Decision Problems", IBM Journal of Research and Development, 3:2 (1959) pp.115-125. • Michael Sipser, Introduction to the Theory of Computation. PWS, Boston. 1997. • John E. Hopcroft and Jeffrey D. Ullman, Introduction to Automata Theory, Languages, and Computation, Addison-Wesley Publishing, Reading Massachusetts, 1979. Autómata finito determinista 47 Autómata finito determinista

Un autómata finito determinista (abreviado AFD) es un autómata finito que además es un sistema determinista; es decir, para cada estado en que se encuentre el autómata, y con cualquier símbolo del alfabeto leído, existe siempre a lo más una transición posible desde ese estado y con ese símbolo.

Definición formal

Formalmente, se define como una 5-tupla (Q, Σ, q , δ, 0 F) donde:[1] • es un conjunto de estados; • es un alfabeto; • es el estado inicial; • es una función de transición;

• es un conjunto de estados finales o de Autómata finito determinista que reconoce el lenguaje regular aceptación. conformado exclusivamente por las cadenas con un número par de ceros y un número par de unos. En un AFD no pueden darse ninguno de estos dos casos: • Que existan dos transiciones del tipo δ(q,a)=q y 1 δ(q,a)=q , siendo q ≠ q ; 2 1 2 • Que existan transiciones del tipo δ(q, ε), donde ε es la cadena vacía, salvo que q sea un estado final, sin transiciones hacia otros estados.

Véase también

• Autómata finito • Autómata finito no determinista Ejemplo de AFD con dos estados. En nodo de la izquierda es inicial • Trie, un ejemplo de autómata finito determinista. y de aceptación.

Referencias

[1] Chakraborty, Samarjit (17 de marzo de 2003). « Formal Languages and Automata Theory. Regular Expressions and Finite Automata (http:/ /

citeseerx. ist. psu. edu/ viewdoc/ summary?doi=10. 1. 1. 89. 9977)» (en inglés). Computer Engineering and Networks Laboratory. Swiss Federal Institute of Technology (ETH) Zürich: pp. 17. . Consultado el 30 de marzo de 2010. Trie 48 Trie

Introducidos en 1959 independientemente por Rene de la Briandais[1] y Edward Fredking[2], un trie es una estructura de datos de tipo árbol que permite la recuperación de información (de ahí su nombre del inglés reTRIEval). La información almacenada en un trie es un conjunto de claves, donde una clave es una secuencia de símbolos pertenecientes a un alfabeto. Las claves son almacenadas en las hojas del árbol y los nodos internos son pasarelas para guiar la búsqueda. El árbol se estructura de forma que cada letra de la clave se sitúa en un nodo de forma que los hijos de un nodo representan las distintas posibilidades de símbolos diferentes que pueden continuar al símbolo representado por el nodo padre. Por tanto la búsqueda en un trie se hace de forma similar a como se hacen las Un trie de las claves "A", "to", "tea", "ted", "ten", "i", "in", and "inn". búsquedas en un diccionario:

Se empieza en la raíz del árbol. Si el símbolo que estamos buscando es A entonces la búsqueda continúa en el subárbol asociado al símbolo A que cuelga de la raíz. Se sigue de forma análoga hasta llegar al nodo hoja. Entonces se compara la cadena asociada a el nodo hoja y si coincide con la cadena de búsqueda entonces la búsqueda ha terminado en éxito, si no entonces el elemento no se encuentra en el árbol. Por eficiencia se suelen eliminar los nodos intermedios que sólo tienen un hijo, es decir, si un nodo intermedio tiene sólo un hijo con cierto carácter entonces el nodo hijo será el nodo hoja que contiene directamente la clave completa. Es muy útil para conseguir búsquedas eficientes en repositorios de datos muy voluminosos. La forma en la que se almacena la información permite hacer búsquedas eficientes de cadenas que comparten prefijos.

Definición formal Un trie es un caso especial de autómata finito determinista (S, Σ, T, s, A), que sirve para almacenar un conjunto de cadenas en el que: • es el alfabeto sobre el que están definidas las cadenas; • , el conjunto de estados, cada uno de los cuales representa un prefijo de ; • La función de transición: ; está definida como sigue: si , e indefinida en otro caso; • El estado inicial corresponde a la cadena vacía ; • El conjunto de estados de aceptación es igual a . Trie 49

Ventajas Las ventajas principales de los tries sobre los árboles de búsqueda binaria (BST) son: • búsqueda de claves más rápida. La búsqueda de una clave de longitud tendrá en el peor de los casos un coste de . Un BST tiene un coste de , siendo n el número de elementos del árbol, ya que la búsqueda depende de la profundidad del árbol, logarítmica con el número de claves. • menos espacio requerido para almacenar gran cantidad de cadenas pequeñas, puesto que las claves no se almacenan explícitamente • mejor funcionamiento para el algoritmo de búsqueda del prefijo más largo

Aplicaciones Como sustitución de otras estructuras de datos

Como sustitución de una Tabla hash Un Trie puede usarse para reemplazar una Tabla hash, sobre la que presenta las siguientes ventajas: • el tiempo de búsqueda en una Tabla hash imperfecta es del orden de , mientras que en un trie es del orden de . Esto es debido a las colisiones de claves. • en un trie no se producen colisiones de claves • no hay que definir una función de hash, o modificarla si añadimos más claves • los contenedores que almacenan distintos valores asociados a una única clave sólo son necesarios si tenemos más de un valor asociada a una única clave. En una tabla hash siempre se necesitan estos contenedores para las colisiones de clave • un trie puede proporcionarnos un ordenamiento alfabético de las entradas por clave Las principales desventajas de los tries respecto a las tablas hash son: • en determinados casos pueden ser más lentos que las tablas hash en la búsqueda de datos, especialmente si los datos son consultados desde dispositivos de almacenamiento secundario, como disco duro, donde el tiempo de acceso es elevado con respecto a memoria principal • no es sencillo representar todas las claves como cadenas, como los números reales, que pueden tener distintas representaciones en forma de cadena para un mismo número, p.ej. 1, 1.00, 1.000, +1.000,... • a menudo los tries son más ineficientes respecto al espacio que las tablas hash • los tries no suelen estar disponibles con las herramientas de desarrollo software, todo lo contrario que las tablas hash

Como representación de diccionarios Una aplicación frecuente de los tries es el almacenamiento de diccionarios, como los que se encuentran en los teléfonos móviles. Estas aplicaciones se aprovechan de la capacidad de los tries para hacer búsquedas, inserciones y borrados rápidos. Sin embargo, si sólo se necesita el almacenamiento de las palabras (p.ej. no se necesita almacenar información auxiliar de las palabras del diccionario) un autómata finito determinista acíclico mínimo usa menos espacio que un trie. Los tries también son útiles en la implementación de algoritmos de correspondencia aproximada, como los usados en el software de corrección ortográfica. Trie 50

Algoritmos El siguiente pseudocódigo determina si una cadena representa un trie.

function find(node, key) { if (key is an empty string) { # base case return is node terminal? } else { # recursive case c = first character in key # this works because key is not empty tail = key minus the first character child = node.children[c] if (child is null) { # unable to recurse, although key is non-empty return false } else { return find(child, tail) } } }

Nota: children es un array con los hijos del nodo; y un nodo terminal es aquél que contiene una palabra válida.

Ordenamiento El orden lexicográfico de un conjunto de claves se puede realizar con un algoritmo simple basado en tries de la siguiente forma: • insertar todas las claves en el trie • obtener todas las claves mediante un recorrido en pre-orden, para obtener un ordenamiento lexicográfico en orden ascendente; o mediante un recorrido en post-orden, para obtener un ordenamiento lexicográfico en orden descendente. El recorrido pre-orden y el recorrido post-orden son algoritmos de búsqueda en profundidad en árboles.

Referencias [1] Rene de la Briandais, "File searching using variable length keys". In Proceedings of the Western Joint Computer Conference, pages 295-298, 1959 [2] E. Fredkin, "Trie Memory" Comm. ACM 3 pp. 490-499 (1960). • Hosam Mahmoud Mahmoud, "Evolution of random search trees". Ed. Wiley 1992 Estructura de datos 51 Estructura de datos

En programación, una estructura de datos es una forma de organizar un conjunto de datos elementales con el objetivo de facilitar su manipulación. Un dato elemental es la mínima información que se tiene en un sistema. Una estructura de datos define la organización e interrelación de estos y un conjunto de operaciones que se pueden realizar sobre ellos. Las operaciones básicas son: • Alta, adicionar un nuevo valor a la estructura. • Baja, borrar un valor de la estructura. • Búsqueda, encontrar un determinado valor en la estructura para realizar una operación con este valor, en forma secuencial o binario (siempre y cuando los datos estén ordenados). Otras operaciones que se pueden realizar son: • Ordenamiento, de los elementos pertenecientes a la estructura. • Apareo, dadas dos estructuras originar una nueva ordenada y que contenga a las apareadas. Cada estructura ofrece ventajas y desventajas en relación a la simplicidad y eficiencia para la realización de cada operación. De esta forma, la elección de la estructura de datos apropiada para cada problema depende de factores como la frecuencia y el orden en que se realiza cada operación sobre los datos.

Estructuras de datos • Conjuntos (set) • Matriz (matemáticas) • Matriz (programación) • Lista • Listas Simples • Listas Doblemente Enlazadas • Listas Circulares • Listas por saltos (Skip lists) • Árboles • Árboles Binarios • Árbol binario de búsqueda • Árbol binario de búsqueda equilibrado • Árboles Rojo-Negro • Árboles AVL • Árboles Biselados (Árboles Splay) • Árboles Multicamino (Multirrama) • Árboles B • Árboles B+ • Árboles B* • Tries • Grafos • Tablas Hash • Mapeos • Diccionarios • Montículos (o heaps) Estructura de datos 52

• Montículo binario • Montículo binómico • Montículo de Fibonacci • Montículo suave • Montículo 2-3

Tabla hash

Una tabla hash, mapa hash o tabla de dispersión es una estructura de datos que asocia llaves o claves con valores. La operación principal que soporta de manera eficiente es la búsqueda: permite el acceso a los elementos (teléfono y dirección, por ejemplo) almacenados a partir de una clave generada (usando el nombre o número de cuenta, por ejemplo). Funciona transformando la clave con una función hash en un hash, un número que identifica la posición (casilla o cubeta) donde la tabla hash localiza el valor deseado. Las tablas hash se suelen implementar sobre vectores de una dimensión, aunque se pueden hacer implementaciones multi-dimensionales basadas en varias claves. Como en el caso de los arrays, las tablas hash proveen tiempo constante de búsqueda promedio O(1),[1] sin importar el número de elementos en la tabla. Sin embargo, en casos particularmente malos el tiempo de búsqueda puede

llegar a O(n), es decir, en función del Ejemplo de tabla hash. número de elementos.

Comparada con otras estructuras de arrays asociadas, las tablas hash son más útiles cuando se almacenan grandes cantidades de información. Las tablas hash almacenan la información en posiciones pseudo-aleatorias, así que el acceso ordenado a su contenido es bastante lento. Otras estructuras como árboles binarios auto-balanceables son más rápidos en promedio (tiempo de búsqueda O(log n)) pero la información está ordenada en todo momento.

Funcionamiento Las operaciones básicas implementadas en las tablas hash son: inserción(llave, valor) búsqueda(llave) que devuelve valor La mayoría de las implementaciones también incluyen borrar(llave). También se pueden ofrecer funciones como iteración en la tabla, crecimiento y vaciado. Algunas tablas hash permiten almacenar múltiples valores bajo la misma clave. Para usar una tabla hash se necesita: • Una estructura de acceso directo (normalmente un array). • Una estructura de datos con una clave • Una función resumen (hash) cuyo dominio sea el espacio de claves y su imagen (o rango) los números naturales. Tabla hash 53

Inserción 1. Para almacenar un elemento en la tabla hash se ha de convertir su clave a un número. Esto se consigue aplicando la función resumen (hash) a la clave del elemento. 2. El resultado de la función resumen ha de mapearse al espacio de direcciones del arreglo que se emplea como soporte, lo cual se consigue con la función módulo. Tras este paso se obtiene un índice válido para la tabla. 3. El elemento se almacena en la posición de la tabla obtenido en el paso anterior. 1. Si en la posición de la tabla ya había otro elemento, se ha producido una colisión. Este problema se puede solucionar asociando una lista a cada posición de la tabla, aplicando otra función o buscando el siguiente elemento libre. Estas posibilidades han de considerarse a la hora de recuperar los datos.

Búsqueda 1. Para recuperar los datos, es necesario únicamente conocer la clave del elemento, a la cual se le aplica la función resumen. 2. El valor obtenido se mapea al espacio de direcciones de la tabla. 3. Si el elemento existente en la posición indicada en el paso anterior tiene la misma clave que la empleada en la búsqueda, entonces es el deseado. Si la clave es distinta, se ha de buscar el elemento según la técnica empleada para resolver el problema de las colisiones al almacenar el elemento.

Prácticas recomendadas para las funciones hash Una buena función hash es esencial para el buen rendimiento de una tabla hash. Las colisiones son generalmente resueltas por algún tipo de búsqueda lineal, así que si la función tiende a generar valores similares, las búsquedas resultantes se vuelven lentas. En una función hash ideal, el cambio de un simple bit en la llave (incluyendo el hacer la llave más larga o más corta) debería cambiar la mitad de los bits del hash, y este cambio debería ser independiente de los cambios provocados por otros bits de la llave. Como una función hash puede ser difícil de diseñar, o computacionalmente cara de ejecución, se han invertido muchos esfuerzos en el desarrollo de estrategias para la resolución de colisiones que mitiguen el mal rendimiento del hasheo. Sin embargo, ninguna de estas estrategias es tan efectiva como el desarrollo de una buena función hash de principio. Es deseable utilizar la misma función hash para arrays de cualquier tamaño concebible. Para esto, el índice de su ubicación en el array de la tabla hash se calcula generalmente en dos pasos: 1. Un valor hash genérico es calculado, llenando un entero natural de máquina. 2. Este valor es reducido a un índice válido en el vector encontrando su módulo con respecto al tamaño del array. El tamaño del vector de las tablas hash es con frecuencia un número primo. Esto se hace con el objetivo de evitar la tendencia de que los hash de enteros grandes tengan divisores comunes con el tamaño de la tabla hash, lo que provocaría colisiones tras el cálculo del módulo. Sin embargo, el uso de una tabla de tamaño primo no es un sustituto a una buena función hash. Un problema bastante común que ocurre con las funciones hash es el aglomeramiento. El aglomeramiento ocurre cuando la estructura de la función hash provoca que llaves usadas comúnmente tiendan a caer muy cerca unas de otras o incluso consecutivamente en la tabla hash. Esto puede degradar el rendimiento de manera significativa, cuando la tabla se llena usando ciertas estrategias de resolución de colisiones, como el sondeo lineal. Cuando se depura el manejo de las colisiones en una tabla hash, suele ser útil usar una función hash que devuelva siempre un valor constante, como 1, que cause colisión en cada inserción. Funciones Hash más usadas: Tabla hash 54

1. Hash de División: Dado un diccionario D, se fija un número m >= |D| (m mayor o igual al tamaño del diccionario) y que sea primo no cercano a potencia de 2 o de 10. Siendo k la clave a buscar y h(k) la función hash, se tiene h(k)=k%m (Resto de la división k/m). 2. Hash de Multiplicación Si por alguna razón, se necesita una tabla hash con tantos elementos o punteros como una potencia de 2 o de 10, será mejor usar una función hash de multiplicación, independiente del tamaño de la tabla. Se escoge un tamaño de tabla m >= |D| (m mayor o igual al tamaño del diccionario) y un cierto número irracional φ (normalmente se usa 1+5^(1/2)/2 o 1-5^(1/2)/2). De este modo se define h(k)= Suelo(m*Parte fraccionaria(k*φ))

Resolución de colisiones Si dos llaves generan un hash apuntando al mismo índice, los registros correspondientes no pueden ser almacenados en la misma posición. En estos casos, cuando una casilla ya está ocupada, debemos encontrar otra ubicación donde almacenar el nuevo registro, y hacerlo de tal manera que podamos encontrarlo cuando se requiera. Para dar una idea de la importancia de una buena estrategia de resolución de colisiones, considerese el siguiente resultado, derivado de la paradoja de las fechas de nacimiento. Aun cuando supongamos que el resultado de nuestra función hash genera índices aleatorios distribuidos uniformemente en todo el vector, e incluso para vectores de 1 millón de entradas, hay un 95% de posibilidades de que al menos una colisión ocurra antes de alcanzar los 2.500 registros. Hay varias técnicas de resolución de colisiones, pero las más populares son encadenamiento y direccionamiento abierto.

Direccionamiento Cerrado, Encadenamiento separado o Hashing abierto En la técnica más simple de encadenamiento, cada casilla en el array referencia una lista de los registros insertados que colisionan en la misma casilla. La inserción consiste en encontrar la casilla correcta y agregar al final de la lista correspondiente. El borrado consiste en buscar y quitar de la lista. La técnica de encadenamiento tiene ventajas sobre direccionamiento abierto. Primero el borrado es simple y segundo el crecimiento de la tabla puede ser pospuesto durante mucho más tiempo dado que el rendimiento disminuye mucho más lentamente incluso cuando todas las casillas ya están ocupadas. De hecho, muchas tablas hash encadenadas pueden no requerir crecimiento nunca, dado que la degradación de rendimiento es lineal Ejemplo de encadenamiento. en la medida que se va llenando la tabla. Por ejemplo, una tabla hash encadenada con dos veces el número de elementos recomendados, será dos veces más lenta en promedio que la misma tabla a su capacidad recomendada. Las tablas hash encadenadas heredan las desventajas de las listas ligadas. Cuando se almacenan cantidades de información pequeñas, el gasto extra de las listas ligadas puede ser significativo. También los viajes a través de las listas tienen un rendimiento de caché muy pobre. Tabla hash 55

Otras estructuras de datos pueden ser utilizadas para el encadenamiento en lugar de las listas ligadas. Al usar árboles auto-balanceables, por ejemplo, el tiempo teórico del peor de los casos disminuye de O(n) a O(log n). Sin embargo, dado que se supone que cada lista debe ser pequeña, esta estrategia es normalmente ineficiente a menos que la tabla hash sea diseñada para correr a máxima capacidad o existan índices de colisión particularmente grandes. También se pueden utilizar vectores dinámicos para disminuir el espacio extra requerido y mejorar el rendimiento del caché cuando los registros son pequeños.

Direccionamiento abierto o Hashing cerrado Las tablas hash de direccionamiento abierto pueden almacenar los registros directamente en el array. Las colisiones se resuelven mediante un sondeo del array, en el que se buscan diferentes localidades del array (secuencia de sondeo) hasta que el registro es encontrado o se llega a una casilla vacía, indicando que no existe esa llave en la tabla. Las secuencias de sondeo más socorridas incluyen: sondeo lineal en el que el intervalo entre cada intento es constante (frecuentemente 1). sondeo cuadrático en el que el intervalo entre los intentos aumenta linealmente (por lo que los índices son descritos por una función cuadrática), y doble hasheo Ejemplo de direccionamiento abierto. en el que el intervalo entre intentos es constante para cada registro pero es calculado por otra función hash. El sondeo lineal ofrece el mejor rendimiento del caché, pero es más sensible al aglomeramiento, en tanto que el doble hasheo tiene pobre rendimiento en el caché pero elimina el problema de aglomeramiento. El sondeo cuadrático se sitúa en medio. El doble hasheo también puede requerir más cálculos que las otras formas de sondeo. Una influencia crítica en el rendimiento de una tabla hash de direccionamiento abierto es el porcentaje de casillas usadas en el array. Conforme el array se acerca al 100% de su capacidad, el número de saltos requeridos por el sondeo puede aumentar considerablemente. Una vez que se llena la tabla, los algoritmos de sondeo pueden incluso caer en un círculo sin fin. Incluso utilizando buenas funciones hash, el límite aceptable de capacidad es normalmente 80%. Con funciones hash pobremente diseñadas el rendimiento puede degradarse incluso con poca información, al provocar aglomeramiento significativo. No se sabe a ciencia cierta qué provoca que las funciones hash generen aglomeramiento, y es muy fácil escribir una función hash que, sin querer, provoque un nivel muy elevado de aglomeramiento. Tabla hash 56

Ventajas e inconvenientes de las tablas hash Una tabla hash tiene como principal ventaja que el acceso a los datos suele ser muy rápido si se cumplen las siguientes condiciones: • Una razón de ocupación no muy elevada (a partir del 75% de ocupación se producen demasiadas colisiones y la tabla se vuelve ineficiente). • Una función resumen que distribuya uniformemente las claves. Si la función está mal diseñada, se producirán muchas colisiones. Los inconvenientes de las tablas hash son: • Necesidad de ampliar el espacio de la tabla si el volumen de datos almacenados crece. Se trata de una operación costosa. • Dificultad para recorrer todos los elementos. Se suelen emplear listas para procesar la totalidad de los elementos. • Desaprovechamiento de la memoria. Si se reserva espacio para todos los posibles elementos, se consume más memoria de la necesaria; se suele resolver reservando espacio únicamente para punteros a los elementos.

Implementación en pseudocódigo El pseudocódigo que sigue es una implementación de una tabla hash de direccionamiento abierto con sondeo lineal para resolución de colisiones y progresión sencilla, una solución común que funciona correctamente si la función hash es apropiada.

registro par { llave, valor } var vector de pares casilla[0..numcasillas-1]

function buscacasilla(llave) { i := hash(llave) módulo de numcasillas loop { if casilla[i] esta libre or casilla[i].llave = llave return i i := (i + 1) módulo de numcasillas } }

function busqueda(llave) i := buscacasilla(llave) if casilla[i] está ocupada // llave está en la tabla return casilla[i].valor else // llave no está en la tabla return no encontrada

function asignar(llave, valor) { i := buscacasilla(llave) if casilla[i] está ocupada casilla[i].valor := valor else { if tabla casi llena { hacer tabla más grande (nota 1) i := buscacasilla(llave) Tabla hash 57

} casilla[i].llave := llave casilla[i].valor := valor } }

Implementación en Java En este método no se requiere que los elementos estén ordenados. El método consiste en asignar el índice a cada elemento mediante una transformación del elemento, esto se hace mediante una función de conversión llamada función hash. Hay diferentes funciones para transformar el elemento y el número obtenido es el índice del elemento. La principal forma de transformar el elemento es asignarlo directamente, es decir al 0 le corresponde el índice 0, al 1 el 1, y así sucesivamente pero cuando los elementos son muy grandes se desperdicia mucho espacio ya que necesitamos arreglo grandes para almacenarlos y estos quedan con muchos espacios libres, para utilizar mejor el espacio se utilizan funciones más complejas. La función de hash ideal debería ser biyectiva, esto es, que a cada elemento le corresponda un índice, y que a cada índice le corresponda un elemento, pero no siempre es fácil encontrar esa función, e incluso a veces es inútil, ya que puedes no saber el número de elementos a almacenar. La función de hash depende de cada problema y de cada finalidad, y se pueden utilizar con números o cadenas, pero las más utilizadas son:

Restas Sucesivas Esta función se emplea con claves numéricas entre las que existen huecos de tamaño conocido, obteniéndose direcciones consecutivas. Un ejemplo serían los alumnos de ingeniería en sistemas que entraron en el año 2005 sus números de control son consecutivos y está definido el número de alumnos. 05210800 -05210800 → 0 05210801 -05210800 → 1 05210802 -05210800 → 2 … 05210899 -05210800 → 99

Aritmética Modular El índice de un número es resto de la división de ese número entre un número N prefijado, preferentemente primo. Los números se guardarán en las direcciones de memoria de 0 a N-1. Este método tiene el problema de que dos o más elementos pueden producir el mismo residuo y un índice puede ser señalado por varios elementos. A este fenómeno se le llama colisión. Si el número N es el 7, los números siguientes quedan transformados en: 1679 → 6 4567 → 3 8471 → 1 0435 → 1 5033 → 0 Mientras más grande sea número de elementos es mejor escoger un número primo mayor para seccionar el arreglo en más partes. El número elegido da el número de partes en que se secciona el arreglo, y las cada sección está compuesta por todos los elementos que arrojen el mismo residuo, y mientras más pequeñas sean las secciones la Tabla hash 58

búsqueda se agilizara mas que es lo que nos interesa.

Mitad del Cuadrado Consiste en elevar al cuadrado la clave y coger las cifras centrales. Este método también presenta problemas de colisión. 709^2=502681 → 26 456^2=207936 → 79 105^2=011025 → 10 879^2=772641 → 26 619^2=383161 → 31 Nota: en caso de que la cifra resultante sea impar se toma el valor número y el anterior.

Truncamiento Consiste en ignorar parte del número y utilizar los elementos restantes como índice. También se produce colisión. Por ejemplo, si un número de 7 cifras se debe ordenar en un arreglo de elementos, se pueden tomar el segundo, el cuarto y el sexto para formar un nuevo número: 5700931 → 703 3498610 → 481 0056241 → 064 9134720 → 142 5174829 → 142

Plegamiento Consiste en dividir el número en diferentes partes, y operar con ellas (normalmente con suma o multiplicación). También se produce colisión. Por ejemplo, si dividimos el número de 7 cifras en 2, 2 y 3 cifras y se suman, dará otro número de tres cifras (y si no, se toman las tres últimas cifras): 5700931 »> 57 + 00 + 931 = 988 3498610 → 34 + 98 + 610 = 742 0056241 → 00 + 56 + 241 = 297 9134720 → 91 + 34 + 720 = 845 5174929 → 51 + 74 + 929 = 1054 Nota: Estas solo son sugerencias y que con cada problema se pude implementar una nueva función hash que incluso tu puedes inventar o formular.

Tratamiento de Colisiones Hay diferentes maneras de solucionarlas pero lo más efectivo es en vez de crear un arreglo de número, crear un arreglo de punteros, donde cada puntero señala el principio de una lista enlazada. Así, cada elemento que llega a un determinado índice se pone en el último lugar de la lista de ese índice. El tiempo de búsqueda se reduce considerablemente, y no hace falta poner restricciones al tamaño del arreglo, ya que se pueden añadir nodos dinámicamente a la lista. Tabla hash 59

Prueba Lineal Consiste en que una vez detectada la colisión se debe recorrer el arreglo secuencialmente a partir del punto de colisión, buscando al elemento. El proceso de búsqueda concluye cuando el elemento es hallado, o bien cuando se encuentra una posición vacía. Se trata al arreglo como a una estructura circular: el siguiente elemento después del último es el primero. La función de rehashing es, por tanto, de la forma: R(H(X)) = (H(X) + 1) % m (siendo m el tamaño del arreglo) Ejemplo: Si la posición 397 ya estaba ocupada, el registro con clave 0596397 es colocado en la posición 398, la cual se encuentra disponible. Una vez que el registro ha sido insertado en esta posición, otro registro que genere la posición 397 o la 398 es insertado en la posición siguiente disponible. public class Principal {

public static void main(String[] args)

{

try

{

int m, i, n, resp;

Hash[] h;

m=Integer.parseInt(javax.swing.JOptionPane.showInputDialog("Ingrese el tamaño de la tabla"));

h=new Hash[m];

for (i = 0; i < m; i++)

{

h[i]=new Hash();

h[i].estado=0;

}

do

{

resp=Integer.parseInt(javax.swing.JOptionPane.showInputDialog("Menú Principal nn"

+ "Insertar (1)nBuscar (2)nEliminar (3)nSalir (4)"));

switch(resp)

{

case 1:

n=Integer.parseInt(javax.swing.JOptionPane.showInputDialog("Ingrese el número a ser insertado en la tabla:"));

Hash.insertaHash(h,m,n);

break;

case 2:

n=Integer.parseInt(javax.swing.JOptionPane.showInputDialog("Ingrese el número a ser buscado en la tabla:"));

i=Hash.buscaHash(h, m, n);

if(i==-1)

javax.swing.JOptionPane.showMessageDialog(null, "Número no encontrado");

else

javax.swing.JOptionPane.showMessageDialog(null, "Número encontrado");

break;

case 3:

n=Integer.parseInt(javax.swing.JOptionPane.showInputDialog("Ingrese el número a ser eliminado de la tabla:"));

i=Hash.eliminaHash(h, m, n);

if(i==-1)

javax.swing.JOptionPane.showMessageDialog(null, "Número no encontrado");

else Tabla hash 60

javax.swing.JOptionPane.showMessageDialog(null, "Número eliminado con éxito");

break;

case 4:

System.exit(0);

default:

}

}while(resp!=4);

}

catch(NumberFormatException nfe)

{

javax.swing.JOptionPane.showMessageDialog(null, "Está Saliendo del Programa");

}

catch(OutOfMemoryError ome)

{

javax.swing.JOptionPane.showMessageDialog(null, "No Hay Espacio");

}

}

} public class Hash {

int dato; int estado; //0 = Vacío, 1 = Eliminado, 2 = Ocupado static int funcion(int n, int m) { return ((n+1)%m); } static void insertaHash(Hash[] h, int m, int n) { boolean i=false; int j; j=funcion(n,m); do { if(h[j].estado==0||h[j].estado==1) { h[j].dato=n; h[j].estado=2; i=true; } else j++; }while(j

static int buscaHash(Hash[] h, int m, int n) { int j; j = funcion(n,m); while(j

}

Nota [1] La reconstrucción de la tabla requiere la creación de un array más grande y el uso posterior de la función asignar para insertar todos los elementos del viejo array en el nuevo array más grande. Es común aumentar el tamaño del array exponencialmente, por ejemplo duplicando el tamaño del array.

Enlaces externos

Artículos e implementaciones

• Artículo donde se explica la implementación en C y un análisis de costo-beneficio de una tabla hash (http:/ /

urtevolution. com. ar/ blog/ ?p=1). [Categoría:Estructura de datos]] Función Hash 62 Función Hash

A las funciones hash (adopción más o menos directa del término inglés hash function) también se les llama funciones picadillo, funciones resumen o funciones de digest (adopción más o menos directa del término inglés equivalente digest function)

[1][2][3]Una función hash H es una función computable mediante un algoritmo,

H: U → M Una función de hash en funcionamiento. x → h(x), que tiene como entrada un conjunto de elementos, que suelen ser cadenas, y los convierte (mapea) en un rango de salida finito, normalmente cadenas de longitud fija. Es decir, la función actúa como una proyección del conjunto U sobre el conjunto M. Observar que M puede ser un conjunto definido de enteros. En este caso podemos considerar que la longitud es fija si el conjunto es un rango de números de enteros ya que podemos considerar que la longitud fija es la del número con mayor número de cifras. Todos los números se pueden convertir al número especificado de cifras simplemente anteponiendo ceros. Normalmente el conjunto M tiene un número elevado de elementos y U es un conjunto de cadenas con un número más o menos pequeño de símbolos. Por esto se dice que estas funciones resumen datos del conjunto dominio. La idea básica de un valor hash es que sirva como una representación compacta de la cadena de entrada. Por esta razón decimos que estas funciones resumen datos del conjunto dominio.

Orígenes del término El término hash proviene, aparentemente, de la analogía con el significado estándar (en inglés) de dicha palabra en el mundo real: picar y mezclar. Donald Knuth cree que H. P. Luhn, empleado de IBM, fue el primero en utilizar el concepto en un memorándum fechado en enero de 1953. Su utilización masiva no fue hasta después de 10 años.

Terminología asociada Al conjunto U se le llama dominio de la función hash. A un elemento de U se le llama preimagen o dependiendo del contexto clave o mensaje. Al conjunto M se le llama imagen de la función hash. A un elemento de M se le llama valor hash, código hash o simplemente hash. Se dice que se produce una colisión cuando dos entradas distintas de la función de hash producen la misma salida. De la definición de función hash podemos decir que U, el dominio de la función, puede tener infinitos elementos. Sin embargo M, el rango de la función, tiene un número finito de elementos debido a que el tamaño de sus cadenas es fijo. Por tanto la posibilidad de existencia de colisiones es intrínseca a la definición de función hash. Una buena función de hash es una que tiene pocas colisiones en el conjunto esperado de entrada. Es decir, se desea que la probabilidad de colisión sea muy baja. Función Hash 63

Parámetros adicionales La definición formal dada, a veces se generaliza para poder aprovechar las funciones hash en otros ámbitos. Para ello a la función hash se le añaden nuevos parámetros de forma que el valor hash no es sólo función del contenido en sí, sino además de otros nuevos factores. Para hallar valores hash de ficheros a veces se usan como parámetros, además del contenido en sí, diversos parámetros como el nombre del archivo, su longitud, hora de creación, etc. Otras veces se añaden parámetros que permiten configurar el comportamiento de la función. Por ejemplo, la función hash puede recibir como parámetro una función de generación de valores pseudoaleatorios que es usada dentro del algoritmo de la función hash. Otros ejemplos de parámetros son el uso de valores sal, el uso de claves secretas, el uso de parámetros que especifican el rango de la función (funciones hash de rango variable), el uso de parámetros que especifican el nivel de seguridad que se quiere en el valor hash de salida (funciones hash dinámicas),....

Funciones hash con clave Una función hash con clave H (en inglés keyed hash function) es una función hash H que tiene un parámetro K secreto K que pertenece al conjunto posible de claves y en la que para una entrada x, h (x) es el valor hash de x. K Al resto de funciones hash se dice que son sin clave (en inglés unkeyed hash function).

Propiedades La calidad de una función hash viene definida en base a satisfacer ciertas propiedades deseables en el contexto en el que se va a usar.

Bajo coste Calcular el valor hash necesita poco coste (computacional, de memoria,...).

Compresión Una función hash comprime datos si puede mapear un dominio con datos de longitud muy grande a datos con longitud más pequeña

Uniforme Se dice que una función hash es uniforme cuando para una clave elegida aleatoriamente es igualmente probable tener un valor hash determinado, independientemente de cualquier otro elemento. Para una función hash H uniforme del tipo H:{0,1}m→{0,1}n, es decir: • Las cadenas están construidas sobre un alfabeto de 2 símbolos (Alfabeto binario) • El dominio es el conjunto de las cadenas de longitud m • El rango es el conjunto de las cadenas de longitud n podemos decir que a cada resumen le corresponde 2m-n mensajes y que la probabilidad de que dos mensajes den como resultado la misma salida es 2-n Para algoritmos de búsqueda, si todas las entradas son igualmente probables, se busca esta propiedad para minimizar el número de colisiones ya que cuantas más colisiones haya, será mayor el tiempo de ejecución de las búsquedas. Función Hash 64

De rango variable En algunas funciones hash el rango de valores hash puede ser diferente a lo largo del tiempo. Ej: Funciones hash usadas para tablas hash que necesitan expandirse. En estos caso a la función hash se le debe pasar un parámetro que le permita saber en que rango se mueve la ejecución para hallar el valor hash.

Inyectividad. Función hash perfecta Se dice que la función hash es inyectiva cuando cada dato de entrada se mapea a un valor hash diferente. En este caso se dice que la función hash es perfecta. Para que se de es necesario que la cardinalidad del conjunto dominio sea inferior o igual a la cardinalidad del conjunto imagen. Normalmente sólo se dan funciones hash perfectas cuando las entradas están preestablecidas. Ejemplo:Mapear lo días del año en números del 1 al 366 según el orden de aparición Formalización: implica Cuando no se cumple la propiedad de inyectividad se dice que hay colisiones. Hay una colisión cuando y

Determinista Una función hash se dice que es determinista cuando dado una cadena de entrada siempre devuelve el mismo valor hash. Es decir, el valor hash es el resultado de aplicar un algoritmo que opera sólo sobre la cadena de entrada. Ejemplos de funciones hash no-deterministas son aquellas funciones hash que dependen de parámetros externos, tales como generadores de números pseudoaleatorios o la fecha. Tampoco son deterministas aquellas funciones hash que dependen de la dirección de memoria en la que está almacenada la cadena de entrada. Esa dirección es accidenteal y no se considera un cambio de la cadena entrada en sí. De hecho puede cambiar dinámicamente durante la propia ejecución del algoritmo de la función hash

Propiedades para analizar la resistencia frente a colisiones El estudio de este tipo de propiedades son muy útiles en el campo de la criptografía para los llamados 'códigos de detección de modificaciones'

Resistencia a la primera imagen [4]Se dice que una función hash tiene resistencia a la primera preimagen o simplemente que tiene resistencia a preimagen (del inglés preimage-resistant) si dado un valor hash y, es computacionalmente intratable encontrar un x, tal que h(x)=y.

Resistencia a la segunda preimagen [5]Se dice que una función hash tiene resistencia a la segunda preimagen (en inglés second preimage-resistant) si dado un mensaje x, es computacionalmente intratable encontrar un x', , tal que h(x)=h(x')

Resistencia a colisiones (CRHF) [6]Se dice que una función hash tiene resistencia a colisiones o que es resistente a colisiones o CRHF (del inglés Collision Resistant Hash Function) si encontrar un par con tal que es computacionalmente intratable. Es decir, es difícil encontrar dos entradas que tengan el mismo valor hash. Como encontrar una segunda preimagen no puede ser más fácil que encontrar una colisión, entonces la resistencia a colisiones incluye la propiedad de resitencia a la segunda preimagen.[7][8]. Por otro lado se puede decir que la mayoría de las funciones hash CRHFs son resistentes a preimagen.[9]. La resistencia a colisisiones implica resistencia a preimagen para funciones hash con salida aleatoria uniforme[10]. Función Hash 65

En algunos trabajos a estas funciones se les llama funciones hash de un sólo sentido fuertes (del inglés strong one way hash function) para resaltar que es fuerte debido a que hay libre elección de los dos valores x e y

Función hash de un solo sentido (OWHF) [11]Una función hash se dice que es una función hash de un solo sentido o que es OWHF (del inglés One-Way Hash Function) si tiene las propiedades de resistencia a preimagen y de resistencia a segunda preimagen. Es decir, es difícil encontrar una entrada cuya hash sea un valor hash preespecificado. Observar que es diferente a la definición general que se hace de funciones de un solo sentido: [12]Una función se dice que es una función de un solo sentido o que es OWF si para cada x del dominio de la función, es fácil computar f(x), pero para todo y del rango de f, es computacionalmente intratable encontrar cualquier x tal que y=f(x). La diferencia entre OWHF y OWF es que OWF no requiere que sea función hash ni que sea resistente a segunda preimagen. En algunos trabajos a estas funciones se les llama funciones hash de un sólo sentido débiles (del inglés strong one way hash function) para resaltar que es débil en contraste con CRHF (que es fuerte) debido a que al cumplir la propiedad de resistencia a segunda preimagen no hay libre elección en la selección del valor x, y por tanto del valor h(x), en el que se tiene que producir la colisión.

Resistencia a la casi colisión [13]H es resistente a la casi colisión (en inglés near-colission resistance) si es difícil encontrar dos mensajes y con para las cuales sus imágenes y difieran solamente en unos pocos bits. [14]Por ejemplo podemos tener una función resistente a colisiones de 256 bits que es no es resistente a la casi colisión porque se pueden encontrar casi-colisiones para los 224 bits de más a la izquierda.

Resistencia a las preimágenes parciales [15]Una función hash tiene resistencia a preimágenes parciales (en inglés Partial-preimage resistance) si es difícil encontrar una parte de la preimágen de un valor hash incluso conociendo el resto de la preimagen. Es decir se debe recurrir a la fuerza bruta: Si se desconocen t bits de la preimágen, se deben realizar en promedio 2n-t operaciones de hash encontrarlo. A una función hash resistente a preimágenes parciales también se le dice que es localmente de un sólo sentido (del inglés local one-wayness).

Con normalización de datos En algunas aplicaciones, las cadenas de entrada pueden contener características que son irrelevantes cuando comparamos las cadenas. Por ejemplo en algunas aplicaciones las mayúsculas pueden ser irrelevantes. Por tanto para hallar el valor hash es interesante ignorar las distinciones no relevantes entre las cadenas de entrada. De esta forma cadenas distintas con diferencias no relevantes, tienen asociados valores hash iguales.

Continuidad. Efecto avalancha Se dice que una función es continua cuando una modificación minúscula (ej un bit) en la cadena de entrada ocasiona pequeños cambios en el valor hash. En una función hash se dice que no hay correlación cuando los bits de las cadenas de entrada y los bits de las cadenas de salida no están relacionados, es decir cuando una modificación minúscula (ej un bit) en la cadena de entrada ocasiona cambios en el valor hash comparables a un cambio de cualquier otro tipo. Por tanto cualquier cambio en el mensaje original idealmente hace que cada uno de cualquier bit del valor hash resultante cambie con Función Hash 66

probabilidad 0.5. Cuando esto sucede (o casi) se dice que se produce un efecto avalancha En funciones hash usadas para búsqueda normalmente se buscan funciones tan continuas como sea posible; de forma que entradas que difieran un poco deberían tener valores hash similares o iguales. Sin embargo la continuidad no es deseable para funciones hash usadas para sumas de verificación o funciones criptográficas por evidentes razones.

Resistencia a la computación de nuevos valores hash [16]Una función hash con clave K, se dice que tiene resistencia a la computación de nuevos valores hash (en inglés Computation-resistance) si a partir de un rango de pares conocidos no puede ser computado para un nuevo dato x con para cualquier i, sin que K sea conocida. Observar que la propiedad anterior implica que no debería ser posible calcular K a partir de un rango de pares conocidos . A esta propiedad se la llama propiedad de no recuperación de clave (en inglés key non-recovery). El estudio de este tipo de propiedades son muy útiles en el campo de la criptografía para los llamados 'códigos de autenticación de mensajes'

Familias de funciones hash y propiedades asociadas

Motivación[17] Podríamos imaginarnos un algoritmo probabilístico de tiempo polinomial con dos mensajes codificados en el algoritmo que dan lugar a una colisión para una específica función hash. El algoritmo simplemente devolvería los dos mensajes que causan la colisión. Crear tal algoritmo puede ser extremadamente difícil, pero una vez construido podría ser ejecutado en tiempo polinomial. Sin embargo, definiendo una familia de funciones hash como una familia infinita de funciones hash nos impide que la búsqueda de este algoritmo tenga éxito para todas las funciones hash de la familia, porque hay infinitas. Por tanto las familias hash nos proporcionan un mecanismo interesante para el estudio y categorización de las funciones hash respecto a su fortaleza frente a la búsqueda de colisiones por parte de un adversario. Este tipo de estudios es muy útil en el campo de la criptografía para los llamados 'códigos de detección de modificaciones'.

Concepto Sea , el dominio de la función, sea el rango de la función. Sea el conjunto de todas las posibles claves (teóricamente es infinito aunque en la práctica es finito), Una familia de funciones hash es un conjunto infinito de funciones hash de la forma (notación equivalente , donde cada función de la familia es indexada por una clave que cumple las siguientes propiedades: • es accesible, es decir hay un algoritmo probabilístico de tiempo polinomial, que sobre una entrada devuelve una instancia • es muestreable, es decir, hay un algoritmo probabilístico de tiempo polinomial, que selecciona uniformemente elementos de . • es computable en tiempo polinomial, es decir, hay un algoritmo de tiempo polinomial (en l) que sobre una entrada computa . Ejemplo: SHA-1 es una sola instancia de función hash, no una familia. Sin embargo SHA-1 puede ser modificado para construir una familia finita de funciones. M. Bellare y P. Rogaway[18] modificaron SHA-1 de tal forma que la claves especifica las constantes usadas en la cuarta ronda de las funciones. En este caso el tamaño de la clave es de 128 bits y por tanto , y . Función Hash 67

Observar que en la definición de una función hash el dominio se puede formalizar como , sin embargo en una función hash definida como instancia de un elemento de una familia de funciones hash el dominio es . Esto es debido a que para que se cumplan las propiedades de seguridad es necesario que el dominio sea muestreado uniformemente en tiempo polinomial. Una familia de funciones puede siempre ser definida con aquel tamaño apropiado para acomodar cualquier mensaje que sea necesario.

Familia de funciones hash resistente a colisiones De forma informal una familia de funciones es familia de funciones hash resistente a colisiones, también llamadas CRHF por sus siglas en inglés (Collision Resistant Hash Function), dada una función escogida aleatoriamente de la familia, un adversario es incapaz de obtener una colisión para ella.[19]

Definición formal [20]Se dice que una familia de funciones hash es una (t,ε)-familia hash resistente a colisiones con la forma con n,l y k enteros positivos y n>=l, que satisfacen la siguiente condición: Sea un buscador de colisiones de cadenas que para un entrada K en el espacio de claves usa tiempo y obtiene como salida , un par tal que . Para cada , . Observar que la probabilidad es tomada sobre las elecciones aleatorias de . Mirando esta definición se ve que son interesantes aquellas familias que tienen un t/ε suficientemente grande. Estrictamente hablando hablamos de familias CRHF pero por simplicidad se suele hablar simplemente de CRHF. La definición no se mete en como se eligen las funciones hash de la familia. Este punto es crucial.[21] En realidad, en cualquier aplicación de funciones hash resistentes a colisiones, alguna parte P tienen que elegir una función de la familia de forma aleatoria para producir la descripción de la función. Es importante distinguir entre dos casos: • La elección aleatoria se puede hacer pública (o 'public-coin'). La elección aleatoria puede ser revelada como parte de la descripción de la función. • La elección aleatoria se tiene que mantener secreta (o 'secret-coin'). La revelación la elección aleatoria realizada puede que permita encontrar colisiones. Por tanto P tiene que mantener secreta la elección después de producir la descripción de la función. Evidentemente una familia CRHF elegible de forma pública (public-coin) también puede trabajar si uno elige o mantiene la elección de forma privada (secret-coin).

Función hash universal Una función hash universal es un familia de funciones donde la probabilidad de colisión entre dos textos escogidos es despreciable.[22]

Definición formal[23] Una k-familia de funciones hash universal es un conjunto H de funciones tal que para cada elemento y todos los (no necesariamente distintos) .

[24]Una familia de funciones hash es ε-casi universal o ε-AU (del inglés ε-almost universal) si es menor que &epsilon la probabilidad de que dos entradas distintas m,n tengan el mismo valor hash asociado, estando la función hash elegida aleatoriamente entre los miembros de . De la definición se percibe que son interesantes aquellas familias que tienen un valor pequeño de ε indicando que el adversario no puede encontrar un par de entradas que producen el mismo valor hash, para una función hash elegida aleatoriamente de entre los elementos la familia. Función Hash 68

Familia de funciones hash universal de un solo sentido Una familia de funciones hash universal de un solo sentido, también llamadas UOWHF por sus siglas en inglés (Universal One-Way Hash Function), es una familia de funciones hash universales donde, elegida una clave K aleatoriamente en el espacio de claves, dada una cadena x con valor hash h (x) es difícil encontrar un x' distinta de x K tal que h (x)=h (x'). Al par (x,x') se le llama par de colisión K K

Definición formal [25][26]Se dice que una familia de funciones hash es (t,ε)-función hash universal de un sólo sentido (UOWHF) si no existe ningún adversario que en tiempo menor que t pueda ganar el siguiente juego con probabilidad mayor o igual que ε: El adversario escoge un valor x del Rango, entonces recibe una clave K del espacio de claves escogida de forma aleatoria. El juego se gana si encuentra un x' tal que h (x)= h (x'). K K El adversario está compuesto por dos algoritmos . • sólo tiene como parámetro de entrada el conjunto de la familia de funciones hash. Produce como salida x y State. x es el valor hash objetivo y State es alguna información extra que puede ayudar a A a encontrar la 2 colisión. • tiene como parámetros de entrada K,x y State y produce como salida x' por tanto . siendo un par con tal que h (x)= h (x') K K Observar que, al igual que en la definición de (t,ε)-CRHF la probabilidad es tomada sobre las elecciones aleatorias de . La gran diferencia es que aquí la entrada x se fija primero. Mirando esta definición se ve que son interesantes aquellas familias que tienen un t/ε suficientemente grande.

Comparación UOWHF y CRHF[27] Una familia UOWHF es una noción más débil que una familia CRHF. En una CRHF, a el oponente primero se le da la clave y después ella o él tiene que producir la pareja de entradas que colisiona. Encontrar colisiones para un parámetro fijo de una UOWHF, puede que sea bastante más fácil, pero esto no ayudará a un oponente a violar la seguridad. Simon[28] ha demostrado que existe un oráculo relativo a el cual UOWHF existe, pero no CRHF.

Funciones hash iterativas. Construcción de Merkle-Damgård [29][30][31]Muchas funciones hash se construyen mediante el proceso iterativo siguiente hasta conseguir el valor hash de la entrada X, h(X): • El número de bits de la entrada X (en principio de longitud arbitraria) tiene que ser múltiplo de la longitud de bloque. Para conseguirlo se tiene una regla de padding que alarga la entrada a una longitud aceptable. Normalmente esta regla consiste en añadir al final de la entrada unos símbolos adicionales a los que se llama relleno o padding. • Se divide la entrada en bloques de longitud fija. Obteniendo un conjunto de bloques x ,...,x . 1 t • Se realiza un proceso iterativo de la siguiente forma: H =IV 0 H =f(x ,H ), i=1,2,...,t y i i i-1 h(X)=g(H ). t Al valor IV se le llama valor inicial y se representa por esas siglas por el término inglés Initial Value. A la función f se la llama función de ronda o función de compresión. A la función g se la llama transformación de salida. Lo que hace la función g es derivar a partir de H tantos bits como se quieran en la salida de la función. Frecuentemente t Función Hash 69

g es la función identidad o un truncamiento de H . t En este tipo de descripción de funciones hash hay dos elecciones importantes que afectarán a las propiedades que tendrá la función: • La elección de la regla de padding. Si lo que se quiere es evitar colisiones es recomendable que la regla de padding no permita que existan dos mensajes que sean rellenados a el mismo mensaje. • La elección de valor inicial (IV). Debería ser definido como parte de la descripción de la función hash. A las funciones que se construyen mediante el anterior sistema se dice que son son funciones hash iterativas. A esta forma de construcción recursiva se la conoce también como de Merkle-Damgård debido a que fue usado por primera vea por R. Merkle y I. Damgård independientemente en 1989.

Aplicaciones Las funciones hash son usadas en múltiples campos. Ejemplos: • Herramienta básica para la construcción de utilidades más complejas: • Construcción de estructuras de datos: Su uso en distintas estructuras de datos hacen más eficientes las búsquedas. Ej. tablas hash. • Construcción de esquemas de compromiso. Los esquemas de compromiso permiten que una entidad elija una valor entre un conjunto finito de posibilidades de tal forma que no pueda cambiarla. Esa entidad no tiene que revelar su elección hasta si acaso el momento final (la elección puede permanecer oculta). • Construcción de algoritmos de cifrado/descifrado. Por ejemplo se usa en la construcción de cifradores de flujo y de cifradores de bloque. • Construcción de algoritmos generadores de números pseudoaleatorios. • Construcción de cadenas pseudoaleatorias. Por ejemplo el llamado modelo de oráculo aleatorio se basa en considerar que funciones hash con ciertas propiedades se comportan como funciones que escogen cadenas al azar, se usa para el estudio de la seguridad los esquemas criptográficos. • Construcción de algoritmos de testeo de pertenencia o no a un conjunto.- Se han usado funciones hash para la construcción de acumuladores criptográficos y filtros de Bloom. Estas tecnologías permiten establecer mecanismos que permiten pronunciarse, a veces con cierto grado de error, sobre la pertenencia o no a cierto conjunto. • Construcción de métodos de generación de sellos de tiempo confiables. • Herramienta para proteger la integridad • En la firma digital • Como dato que se firma:En los algoritmos de firma convencionales normalmente en lugar de firmar todo el contenido se suele ser firmar sólo el valor hash del mismo. Algunas de las motivaciones para hacer esto son:[32] • Cuando se usa para firmar algoritmos de firma por bloques donde los mensajes son más largos que el bloque, no es seguro firmar mensajes bloque a bloque ya que un enigo podría borrar bloques del mensaje firmado o insertar bloques de su elección en el mensaje antes de que sea firmado. Al usar una función hash hacemos una transformación que hace a la firma dependiente de todas las partes del mensaje. • Normalmente los valores hash son mucho más cortos que los datos originales de entrada. Se puede mejorar mucho la velocidad de firma firmando el valor hash en lugar de firmar el dato original. • Si los mensajes a firmar pueden tener cierta estructura algebraica y el algoritmo de firma se comporta de forma que el sistema resultante puede ser vulnerable a criptoanálisis con ataques de texto escogido, podemos usar funciones hash para destruir esta estructura algebraica. • Como parte del algoritmo de firma: Se han desarrollado algoritmos de firma que usan funciones hash en el propio algoritmo de firma como una herramienta interna del mismo. Ejemplo de este tipo algoritmos son el Función Hash 70

esquema de firma de Merkle. • Suma de verificación (del inglés checksum): Cuando queremos almacenar o transmitir información, para protegernos frente a errores fortuitos en el almacenamiento o transmisión, es útil acompañar a los datos de valores hash obtenidos a partir de ellos aplicando funciones hash con ciertas propiedades de forma que puedan ser usados para verificar hasta cierto punto el propio dato. A el valor hash se le llama Suma de verificación. • Prueba de la integridad de contenidos.- Por ejemplo cuando se distribuye un contenido por la red, y se quiere estar seguro de que lo que le llega al receptor es lo que se está emitiendo, se proporciona un valor hash del contenido de forma que ese valor tiene que obtenerse al aplicar la función hash sobre el contenido distribuido asegurando así la integridad. A esto se le suele llamar checksum criptográfico debido a que es un checksum que requiere el uso de funciones hash criptográficas para que sea difícil generar otros ficheros falso que tengan el mismo valor hash. Otro ejemplo de uso esta tecnología para verificar la integridad es calcular y guardar el valor hash de archivos para poder verificar posteriormente que nadie (Ej un virus) los ha modificado. Si en lugar de verificar la integridad de un solo contenido lo que se quiere es verificar la integridad de un conjunto de elementos, se pueden usar algoritmos basados en funciones hash como los árboles de Merkle que se basan en aplicar reiteradamente las funciones hash sobre los elementos del conjunto y sobre los valores hash resultantes. • Herramientas vinculadas a la autenticación y control de acceso • Autenticación de entidades: Por ejemplo es frecuente el uso para este propósito de funciones hash deterministas con clave secreta que tienen ciertas propiedades (Códigos de autenticación de mensajes). En estos esquemas tanto el servicio de autenticación, o verificador, como la entidad que se quiere autenticar mantienen en secreto la clave de la función hash. El esquema funciona de la siguiente forma: El que se quiere autenticar genera un mensaje y calcula su valor hash. Estos dos datos se mandan al verificador. El verificador comprueba que el valor hash se corresponde con el mensaje enviado y de esta forma verifica que la entidad tiene la clave secreta y por otra parte puede asegurar que el mensaje es íntegro (no ha sido modificado desde que se calculó el valor hash). Observar que el esquema no tiene la propiedad del no-repudio por parte del que se quiere autenticar ya que el verificador, al disponer de la clave secreta, puede generar también los valores hash. • Protección de claves: Para comprobar la corrección de una clave no es necesario tener la clave almacenada, lo que puede ser aprovechado para que alguien no autorizado acceda a ella, sino almacenar el valor hash resultante de aplciar una función hash determinista. De esta forma para verificar si una clave es correcta basta con aplicar la función hash y verificar si el resultado coincide con el que tenemos almacenado. • Derivación de claves: Por ejemplo en algunas aplicaciones usan funciones hash para derivar una clave de sesión a partir de un número de transacción y una clave maestra. Otro ejemplo de aplicación sería el uso de funciones hash para conseguir sistemas de autenticación con claves de un solo uso o OTP (del inglés One Time Password). En este tipo de sistemas la clave es válida para un solo uso. Estos sistemas están basados se basan en tener un semilla inicial y luego ir generando claves (mediante un algoritmo que puede usar funciones hash) que pueden tener un solo uso y así evitar ataques de REPLAY. • Herramienta para la identificación y la rápida comparación de datos: Se pueden usar funciones hash para proporcionar una identificación de objetos o situaciones. Una buena función hash para este propósito debería ser rápida y asegurarse de que dos objetos o situaciones que se considerar iguales den lugar al mismo valor hash. Observar que dos objetos o situaciones pueden ser considerados iguales sin ser idénticos. Por ejemplo podemos considerar iguales a dos ficheros que son distintos bit a bit porque realmente son la digitalización de la misma película. Es labor del diseño de la función hash capturar la esencia del criterio de igualdad. Por otra parte la evaluación de la función hash debería ser poco costosa para facilitar la rápida comparación de elementos candidatos a ser iguales y de esta forma poder implementar algoritmos de búsqueda rápidos. • Huellas digitales.- El uso de funciones hash aplicados a cadenas permiten obtener valores hash que pueden usarse detectar fácilmente la aparición de esos datos en distintos sitios. Pueden ser usados para distintos usos Función Hash 71

como búsqueda de virus, autenticación con datos biométricos, detección de copias,...La idea puede usarse más allá de textos y ser aplicado a cualquier tipo de contenido multimedia:[33][34] Las funciones hash específicamente diseñadas para este propósito obtienen valores hash que permiten detectar características intrínsecas del contenido multimedia, de forma que se pueda identificar si dos archivos diferentes se corresponden con el mismo contenido multimedia. Como aplicación práctica de este tipo de algoritmo tenemos los programas que se ejecutan en dispositivos móviles y que son capaces de adivinar el título de la canción que está sonando en la habitación solamente capturando el sonido y comparándolo con estos valores hash. Este tipo de algoritmos también se puede utilizar para protección de contenidos multimedia ya que permite validar automáticamente si cierto fichero multimedia está protegido o no por derechos de autor. • Identificación de contenidos: En algunas aplicaciones se usa el valor hash de un contenido multimedia para identificar ese contenido independientemente de su nombre o ubicación. Esto es ampliamente usado en redes Peer-to-peer que intercambian de archivos, tales como Kazaa, Ares Galaxy, Overnet, BitTorrent. • Identificar un registro en una base de datos y permitir con ello un acceso más rápido a los registros (incluso más rápido que teniendo índices). • Algorítmos de búsqueda de subcadenas: Los algoritmos de búsqueda de subcadenas tratan el problema de buscar subcadenas, a la que llaman patrón, dentro de otra cadena a la que llaman texto. Hay algoritmos de este tipo que usan funciones hash en su implementación. Ejemplo: algoritmo Karp-Rabin. • Detección de virus: Para detectar los virus muchos antivirus definen funciones hash que capturan la esencia del virus y que permiten distinguirlos de otros programas o virus. Es lo que se llama firma del virus. Estas firmas son usadas por los antivirus para poder detectarlos. Muchas de las aplicaciones de las funciones hash son relativas al campo de la criptografía ( Cifradores, acumuladores criptográficos, firma digital, protocolos criptográficos de autenticación,...). La Criptografía es una rama de las matemáticas que proporciona herramientas para conseguir seguridad en los sistemas de información. Las funciones hash interesantes en el área de la criptografía se caracterizan por cumplir una serie de propiedades que permiten a las utilidades criptográficas que las utilizan ser resistente frente ataques que intentan vulnerar la seguridad del sistema. A las funciones hash que cumplen estas propiedades se las llama funciones hash criptográficas.

Véase también • función hash criptográfica • Código de detección de modificaciones • Código de autenticación de mensajes

Referencias

[1] H. Tiwari, K. Asawa "Cryptographic Hash Function: An Elevated View", European Journal of Scientific Research, 2010

[2] A. J. Menezes et all, " Handbook of Applied Cryptography (http:/ / www. cacr. math. uwaterloo. ca/ hac/ )", CRC Press 2011 [3] D. Henrici,"Concepts, Protocols, And Architectures". Lectures Notes in Electrical Engineering. Springer-Verlag 2008.

[4] A. J. Menezes et all, " Handbook of Applied Cryptography (http:/ / www. cacr. math. uwaterloo. ca/ hac/ )", CRC Press 2011

[5] A. J. Menezes et all, " Handbook of Applied Cryptography (http:/ / www. cacr. math. uwaterloo. ca/ hac/ )", CRC Press 2011

[6] A. J. Menezes et all, " Handbook of Applied Cryptography (http:/ / www. cacr. math. uwaterloo. ca/ hac/ )", CRC Press 2011 [7] Bart Preneel,"The State of Cryptographic Hash functions. [8] I. B. Damgard, "Collision free hash functions and public key signatures schemes". Advances in Cryptology- Crypto'89. LNCS 304 pages 203-216. Springer 1987

[9] A. J. Menezes et all, " Handbook of Applied Cryptography (http:/ / www. cacr. math. uwaterloo. ca/ hac/ )", CRC Press 2011 [10] Kazumaro Aoki, Yu Sasaki, "Meet in the midle preimage attacks against reduced SHA-0 and SHA-1" [11] H. Tiwari et all, "Cryptographic Hash Function:An elevated View", European Jorunal of Scientific Research, Vol 43 pp.452-465. 2010

[12] A. J. Menezes et all, " Handbook of Applied Cryptography (http:/ / www. cacr. math. uwaterloo. ca/ hac/ )", CRC Press 2011 [13] W. R. Speirs,"Dynamic cryptographic hash functions", Thesis. Purdue University School.2007 [14] Peter Stavroulakis et all,"Handbook of Information and Communication Security", Spring 2010 [15] Dirk Henric,"RFID security and privacy: concepts, protocols, and architectures", Springer 2008 Función Hash 72

[16] Günter Schäfer,"Security in fixed and wireless networks: an introduction to securing data communications". Willey 2003

[17] William Speirs, " Dynamic cryptographic hash functions (https:/ / www. cerias. purdue. edu/ assets/ pdf/ bibtex_archive/ 2007-20. pdf)"

[18] Mihir Bellare and Phillip Rogaway. " Introduction to modern cryptography. Chapter 5 (http:/ / www-cse. ucsd. edu/ users/ mihir/ cse207/

w-hash. pdf).September 2005. [19] Chum-Yuan Hsiao et all, "Finding Collision on a Public Road, or Do Secure Hash Functions Need Secret Coins?" [20] "Signature Scheme in Multi-User Setting", The Institute of Electronics, Information and Communication Engineers, 2006 [21] Chun-Yuan Hsiao et all, "Finding Collisions on a Public Road, or Do Secure Hash Functions Need Secret Coins

[22] Mridul Nandi," A Generic Method to Extend Message Space of a Strong Pseudorandom Permutation (http:/ / www. scielo. org. mx/ pdf/

cys/ v12n3/ v12n3a4. pdf)" [23] A. R. Caldebank et all, "Improved Range Summable Random Variable Construction Algorithms", Proceedings of the 16 Annual ACM-SIAM Symposium on Discrete Algorithms [24] Ted Krovetz,"Message Authentication on 64-Bit Architectures", Selected Areas in Cryptography, LNCS 4356, Springer.2006. [25] Ilya Mironov,"Collision-Resistant No More: Hash-and-Sign Paradigm Revisited", Public Key Cryptography PKC 2006, LNCS 3958. Springer 2006 [26] D. Hong et all, "Higher Order Universal One-Way Hash Functions",Center for Information Security Technologies, Korea University, Seoul,Korea. [27] Henk C. A. Van Tilborg,"Encyclopedia of Cryptography and Security" Second Edition. pg 1349. Springer 2011 [28] D. Simon, "Finding collisions on a one-way street:Can secure hash functions be based on general assumptions?, EUROCRYPT 98 pp 334-345, 1998 [29] H. Tiwari,"Cryptographic Hash Function: An Elevated View", European journal of Scientific Research, Vol 43 pp.452-465.2010 [30] Bart Preneel,"Cryptographic Primitives for Information Authentication-State of the Art", Katholieke Universiteit Leuven, COSIC'97 LNCS 1528 1998 [31] Chris Mitchell,"Developments in Security Mechanism Standards", "Internet and Intranet Security Management: Risks and Solutions", editado por L. Janczewski,Idea Group Publishing.2000

[32] Ivan Bjerre Damgård, " Collision free hash functions and public key signature schemes (https:/ / hkn. eecs. berkeley. edu/ ~chris/ temp/

damgard. pdf)",Advances in Cryptology - EUROCRYPT'87, Lncs 304 PP 203-216. Springer-Verlag Berlin Heidelberg 1988

[33] P. Cano et all. A Review of Audio Fingerprinting (http:/ / www. music. mcgill. ca/ ~ich/ classes/ mumt611_08/ fingerprinting/

cano05review. pdf) Journal of VLSI Signal Processing 41, 271–284, 2005

[34] Loubna Bouarfa. Research Assignment on Video Fingerprinting (http:/ / ict. ewi. tudelft. nl/ pub/ ben/ Research Assignment Loubna

Bouarfa - Video fingerprinting. pdf) Faculty of Electrical Engineering, Mathematics and Computer Science Delft University of Technology

Enlaces externos

• Funciones hash para búsqueda en tablas hash (http:/ / burtleburtle. net/ bob/ hash/ evahash. html) (en inglés).

• Generador de Hashes (http:/ / www. sinfocol. org/ herramientas/ hashes. php) Generador Online de Hashes (CRCs, MD2, MD4, MD5, SHA1, Tiger, Snefru, RipeMD, Whirlpool, Haval, entre otros) Aproximadamente 123 algoritmos, y 200 modos (Hex, Base64)

http:/ / www. schneier. com/ threefish. html Árbol (informática) 73 Árbol (informática)

En ciencias de la informática, un árbol es una estructura de datos ampliamente usada que imita la forma de un árbol (un conjunto de nodos conectados). Un nodo es la unidad sobre la que se construye el árbol y puede tener cero o más nodos hijos conectados a él. Se dice que un nodo es padre de un nodo si existe un enlace desde hasta (en ese caso, también decimos que es hijo de ). Sólo puede haber un único nodo sin padres, que llamaremos raíz. Un nodo que no tiene hijos se conoce como hoja. Los demás nodos (tienen padre y uno o varios hijos) se les conoce como rama.

Definición Formalmente, podemos definir un árbol de la siguiente forma: • Caso base: un árbol con sólo un nodo (es a la vez raíz del árbol y hoja). • Un nuevo árbol a partir de un nodo y árboles de raíces con elementos cada uno, puede construirse estableciendo una relación padre-hijo entre y cada una de las raíces de los árboles. El árbol resultante de nodos tiene como raíz el nodo , los nodos son los hijos de y el conjunto de nodos hoja está formado por la unión de los conjuntos hojas iniciales. A cada uno de los árboles se les denota ahora subárboles de la raíz. Una sucesión de nodos del árbol, de forma que entre cada dos nodos consecutivos de la sucesión haya una relación de parentesco, decimos que es un recorrido árbol. Existen dos recorridos típicos para listar los nodos de un árbol: primero en profundidad y primero en anchura. En el primer caso, se listan los nodos expandiendo el hijo actual de cada nodo hasta llegar a una hoja, donde se vuelve al nodo anterior probando por el siguiente hijo y así sucesivamente. En el segundo, por su parte, antes de listar los nodos de nivel (a distancia aristas de la raíz), se deben haber listado todos los de nivel . Otros recorridos típicos del árbol son preorden, postorden e inorden: • El recorrido en preorden, también llamado orden previo consiste en recorrer en primer lugar la raíz y luego cada uno de los hijos en orden previo. • El recorrido en inorden, también llamado orden simétrico (aunque este nombre sólo cobra significado en los árboles binarios) consiste en recorrer en primer lugar , luego la raíz y luego cada uno de los hijos en orden simétrico. • El recorrido en postorden, también llamado orden posterior consiste en recorrer en primer lugar cada uno de los hijos en orden posterior y por último la raíz. Finalmente, puede decirse que esta estructura es una representación del concepto de árbol en teoría de grafos. Un árbol es un grafo conexo y acíclico. Árbol (informática) 74

Tipos de árboles

• Árboles Binarios • Árbol de búsqueda binario auto-balanceable • Árboles AVL • Árboles Rojo-Negro • Árbol AA • Árboles Multicamino • Árboles B (Arboles de búsqueda multicamino autobalanceados) • Árbol-B+ • Árbol-B*

Ejemplo de árbol (binario).

Operaciones de árboles. Representación Las operaciones comunes en árboles son: • Enumerar todos los elementos. • Buscar un elemento. • Dado un nodo, listar los hijos (si los hay). • Borrar un elemento. • Eliminar un subárbol (algunas veces llamada podar). • Añadir un subárbol (algunas veces llamada injertar). • Encontrar la raíz de cualquier nodo. Por su parte, la representación puede realizarse de diferentes formas. Las más utilizadas son: • Representar cada nodo como una variable en el heap, con punteros a sus hijos y a su padre. • Representar el árbol con un array donde cada elemento es un nodo y las relaciones padre-hijo vienen dadas por la posición del nodo en el array.

Uso de los árboles Usos comunes de los árboles son: • Representación de datos jerárquicos. • Como ayuda para realizar búsquedas en conjuntos de datos (ver también: algoritmos de búsqueda en Árboles).

Véase también • Partición binaria del espacio • Heap • Árbol (teoría de grafos) • Estructura de un árbol • Árbol exponencial Árbol (informática) 75

Algoritmos de búsqueda en árboles • Recorrido de árboles • Búsqueda en profundidad • Búsqueda en anchura • Algoritmo de búsqueda A*

Árbol multicamino

Los árboles multicamino o árboles multirrama son estructuras de datos de tipo árbol usadas en computación.

Definición Un árbol multicamino posee un grado g mayor a dos, donde cada nodo de información del árbol tiene un máximo de g hijos. Sea un árbol de m-caminos A, es un árbol m-caminos si y solo si: • A está vacío • Cada nodo de A muestra la siguiente estructura: [nClaves,Enlace ,Clave ,...,Clave ,Enlace ] 0 1 nClaves nClaves nClaves es el número de valores de clave de un nodo, pudiendo ser: 0 <= nClaves <= g-1 Enlace , son los enlaces a los subárboles de A, pudiendo ser: 0 <= i <= nClaves i Clave , son los valores de clave, pudiendo ser: 1 <= i <= nClaves i • Clave < Clave i i+1 • Cada valor de clave en el subárbol Enlace es menor que el valor de Clave i i+1 • Los subárboles Enlace , donde 0 <= i <= nClaves, son también árboles m-caminos. i Existen muchas aplicaciones en las que el volumen de la información es tal, que los datos no caben en la memoria principal y es necesario almacenarlos, organizados en archivos, en dispositivos de almacenaminento secundario. Esta organización de archivos debe ser suficientemente adecuada como para recuperar los datos del mismo en forma eficiente.

Ventajas e inconvenientes La principal ventaja de este tipo de árboles consiste en que existen más nodos en un mismo nivel que en los árboles binarios con lo que se consigue que, si el árbol es de búsqueda, los accesos a los nodos sean más rápidos. El inconveniente más importante que tienen es la mayor ocupación de memoria, pudiendo ocurrir que en ocasiones la mayoría de los nodos no tengan descendientes o al menos no todos los que podrían tener desaprovechándose por tanto gran cantidad de memoria. Cuando esto ocurre lo más frecuente es transformar el árbol multicamino en su binario de búsqueda equivalente. Árbol multicamino 76

Nota Un tipo especial de árboles multicamino utilizado para solucionar el problema de la ocupación de memoria son los árboles B.

Véase también • Árbol-B • Árbol-B+ • Árbol-B*

Árbol-B

En las ciencias de la computación, los árboles-B o B-árboles son estructuras de datos de árbol que se encuentran comúnmente en las implementaciones de bases de datos y sistemas de archivos. Son árboles binarios de búsqueda en los cuales cada nodo Ejemplo de árbol B. puede poseer más de dos hijos.[1] Los árboles B mantienen los datos ordenados y las inserciones y eliminaciones se realizan en tiempo logarítmico amortizado.

Definición La idea tras los árboles-B es que los nodos internos deben tener un número variable de nodos hijo dentro de un rango predefinido. Cuando se inserta o se elimina un dato de la estructura, la cantidad de nodos hijo varía dentro de un nodo. Para que siga manteniéndose el número de nodos dentro del rango predefinido, los nodos internos se juntan o se parten. Dado que se permite un rango variable de nodos hijo, los árboles-B no necesitan rebalancearse tan frecuentemente como los árboles binarios de búsqueda auto-balanceables, pero por otro lado pueden desperdiciar memoria, porque los nodos no permanecen totalmente ocupados. Los límites superior e inferior en el número de nodos hijo son definidos para cada implementación en particular. Por ejemplo, en un árbol-B 2-3 (A menudo simplemente llamado árbol 2-3 ), cada nodo sólo puede tener 2 ó 3 nodos hijo. Un árbol-B se mantiene balanceado porque requiere que todos los nodos hoja se encuentren a la misma altura. Los árboles B tienen ventajas sustanciales sobre otras implementaciones cuando el tiempo de acceso a los nodos excede al tiempo de acceso entre nodos. Este caso se da usualmente cuando los nodos se encuentran en dispositivos de almacenamiento secundario como los discos rígidos. Al maximizar el número de nodos hijo de cada nodo interno, la altura del árbol decrece, las operaciones para balancearlo se reducen, y aumenta la eficiencia. Usualmente este valor se coloca de forma tal que cada nodo ocupe un bloque de disco, o un tamaño análogo en el dispositivo. Mientras que los árboles B 2-3 pueden ser útiles en la memoria principal, y además más fáciles de explicar, si el tamaño de los nodos se ajustan para caber en un bloque de disco, el resultado puede ser un árbol B 129-513. Los creadores del árbol B, Rudolf Bayer y Ed McCreight, no han explicado el significado de la letra B de su nombre. Se cree que la B es de balanceado, dado que todos los nodos hoja se mantienen al mismo nivel en el árbol. La B también puede referirse a Bayer, o a Boeing, porque sus creadores trabajaban en el Boeing Scientific Research Labs en ese entonces. Árbol-B 77

Definición técnica B-árbol es un árbol de búsqueda que puede estar vacío o aquel cuyos nodos pueden tener varios hijos, existiendo una relación de orden entre ellos, tal como muestra el dibujo. Un árbol-B de orden M (el máximo número de hijos que puede tener cada nodo) es un árbol que satisface las siguientes propiedades: 1. Cada nodo tiene como máximo M hijos. 2. Cada nodo (excepto raíz y hojas) tiene como mínimo (M+1)/2 hijos. 3. La raíz tiene al menos 2 hijos si no es un nodo hoja. 4. Todos los nodos hoja aparecen al mismo nivel. 5. Un nodo no hoja con k hijos contiene k-1 elementos almacenados. 6. Los hijos que cuelgan de la raíz (r1, ···, rm) tienen que cumplir ciertas condiciones: 1. El primero tiene valor menor que r1. 2. El segundo tiene valor mayor que r1 y menor que r2, etc. 3. El último hijo tiene valor mayor que rm.

Altura: El mejor y el peor caso En el mejor de los casos,la altura de un árbol-B es:

En el peor de los casos,la altura de un árbol-B es:

Donde M es el número máximo de hijos que puede tener un nodo.

Estructura de los nodos Cada elemento de un nodo interno actúa como un valor separador, que lo divide en subárboles. Por ejemplo, si un nodo interno tiene tres nodos hijo, debe tener dos valores separadores o elementos a y a . Todos los valores del 1 2 subárbol izquierdo deben ser menores a a , todos los valores del subárbol del centro deben estar entre a y a , y 1 1 2 todos los valores del subárbol derecho deben ser mayores a a . 2 Los nodos internos de un árbol B, es decir los nodos que no son hoja, usualmente se representan como un conjunto ordenado de elementos y punteros a los hijos. Cada nodo interno contiene un máximo de U hijos y, con excepción del nodo raíz, un mínimo de L hijos. Para todos los nodos internos exceptuando la raíz, el número de elementos es uno menos que el número de punteros a nodos. El número de elementos se encuentra entre L-1 y U-1. El número U debe ser 2L o 2L-1, es decir, cada nodo interno está por lo menos a medio llenar. Esta relación entre U y L implica que dos nodos que están a medio llenar pueden juntarse para formar un nodo legal, y un nodo lleno puede dividirse en dos nodos legales (si es que hay lugar para subir un elemento al nodo padre). Estas propiedades hacen posible que el árbol B se ajuste para preservar sus propiedades ante la inserción y eliminación de elementos. Los nodos hoja tienen la misma restricción sobre el número de elementos, pero no tienen hijos, y por tanto carecen de punteros. El nodo raíz tiene límite superior de número de hijos, pero no tiene límite inferior. Por ejemplo, si hubiera menos de L-1 elementos en todo el árbol, la raíz sería el único nodo del árbol, y no tendría hijos. Un árbol B de altura n+1 puede contener U veces por elementos más que un árbol B de profundidad n, pero el costo en la búsqueda, inserción y eliminación crece con la altura del árbol. Como todo árbol balanceado, el crecimiento del costo es más lento que el del número de elementos. Árbol-B 78

Algunos árboles balanceados guardan valores sólo en los nodos hoja, y por lo tanto sus nodos internos y nodos hoja son de diferente tipo. Los árboles B guardan valores en cada nodo, y pueden utilizar la misma estructura para todos los nodos. Sin embargo, como los nodos hoja no tienen hijos, una estructura especial para éstos mejora el funcionamiento. Class nodo árbol B en c++

#define TAMANO 1000

struct stclave { int valor; long registro; };

class bnodo { public: bnodo (int nClaves); // Constructor ~bnodo (); // Destructor

private: int clavesUsadas; stclave *clave; bnodo **puntero; bnodo *padre;

friend class btree; }; Árbol-B 79

Algoritmos

Búsqueda La búsqueda es similar a la de los árboles binarios. Se empieza en la raíz, y se recorre el árbol hacia abajo, escogiendo el sub-nodo de acuerdo a la posición relativa del valor buscado respecto a los valores de cada nodo. Típicamente se utiliza la búsqueda binaria para determinar esta posición relativa. Procedimiento 1. Situarse en el nodo raíz. 2. (*) Comprobar si contiene la clave a buscar. 1. Encontrada fin de procedimiento. 2. No encontrada: 1. Si es hoja no existe la clave. 2. En otro caso el nodo actual es el hijo que corresponde: 1. La clave a buscar k < k1: hijo izquierdo. 2. La clave a buscar k > ki y k < ki+1 hijo iésimo. 3. Volver a paso 2(*).

Inserción

Todas las inserciones se hacen en los nodos hoja. 1. Realizando una búsqueda en el árbol, se halla el nodo hoja en el cual debería ubicarse el nuevo elemento. 2. Si el nodo hoja tiene menos elementos que el máximo número de elementos legales, entonces hay lugar para uno más. Inserte el nuevo elemento en el nodo, respetando el orden de los elementos. 3. De otra forma, el nodo debe ser dividido en dos nodos. La división se realiza de la siguiente manera: 1. Se escoge el valor medio entre los elementos del nodo y el nuevo elemento. 2. Los valores menores que el valor medio se colocan en el nuevo ejemplo2 inserción en árbol B. nodo izquierdo, y los valores mayores que el valor medio se colocan en el nuevo nodo derecho; el valor medio actúa como valor separador. 3. El valor separador se debe colocar en el nodo padre, lo que puede provocar que el padre sea dividido en dos, y así sucesivamente. Si las divisiones de nodos suben hasta la raíz, se crea una nueva raíz con un único elemento como valor separador, y dos hijos. Es por esto por lo que la cota inferior del tamaño de los nodos no se aplica a la raíz. El máximo número de elementos por nodo es U-1. Así que debe ser posible dividir el número máximo de elementos U-1 en dos nodos legales. Si este número fuera impar, entonces U=2L, y cada uno de los nuevos nodos tendrían (U-2)/2 = L-1 elementos, y por lo tanto serían nodos legales. Si U-1 fuera par, U=2L-1, así que habría 2L-2 elementos en el nodo. La mitad de este número es L-1, que es el número mínimo de elementos permitidos por nodo. Un algoritmo mejorado admite una sola pasada por el árbol desde la raíz,hasta el nodo donde la inserción tenga lugar,dividiendo todos los nodos que estén llenos encontrados a su paso.Esto evita la necesidad de volver a cargar en memoria los nodos padres,que pueden ser caros si los nodos se encuentran en una memoria secundaria.Sin embargo,para usar este algoritmo mejorado, debemos ser capaces de enviar un elemento al nodo padre y dividir el resto U-2 elementos en 2 nodos legales,sin añadir un nuevo elemento.Esto requiere que U=2L en lugar de U=L-1,lo que explica por qué algunos libros de texto imponen este requisito en la definición de árboles-B. Árbol-B 80

Eliminación La eliminación de un elemento es directa si no se requiere corrección para garantizar sus propiedades. Hay dos estrategias populares para eliminar un nodo de un árbol B. • localizar y eliminar el elemento, y luego corregir, o • hacer una única pasada de arriba a abajo por el árbol, pero cada vez que se visita un nodo, reestructurar el árbol para que cuando se encuentre el elemento a ser borrado, pueda eliminarse sin necesidad de continuar reestructurando Se pueden dar dos problemas al eliminar elementos: primero, el elemento puede ser un separador de un nodo interno. Segundo, puede suceder que al borrar el elemento, el número de elementos del nodo quede debajo de la cota mínima. Estos problemas se tratan a continuación en orden.

Eliminación en un nodo hoja • Busque el valor a eliminar. • Si el valor se encuentra en un nodo hoja, se elimina directamente la clave, posiblemente dejándolo con muy pocos elementos; por lo que se requerirán cambios adicionales en el árbol.

Eliminación en un nodo interno

Cada elemento de un nodo interno actúa como valor separador para dos subárboles, y cuando ese elemento es eliminado, pueden suceder dos casos. En el primero, tanto el hijo izquierdo como el derecho tienen el número mínimo de elementos, L-1. Pueden entonces fundirse en un único nodo con 2L-2 elementos, que es un número que no excede U-1 y por lo tanto es un nodo legal. A menos que se sepa que este árbol B en particular no tiene datos duplicados, también se debe eliminar el elemento en cuestión (recursivamente) del nuevo nodillo.

En el segundo caso, uno de los dos nodos hijos tienen un número de elementos mayor que el mínimo. Entonces se debe hallar un nuevo separador para estos dos subárboles. Note que el mayor elemento del árbol izquierdo es el mayor elemento que es menor que el separador. De la misma forma, el menor elemento del subárbol derecho es el menor elemento que es mayor que el separador. eliminar clave 20 de un nodo interno. Ambos elementos se encuentran en nodos hoja, y cualquiera de los dos puede ser el nuevo separador. • Si el valor se encuentra en un nodo interno, escoja un nuevo separador (puede ser el mayor elemento del subárbol izquierdo o el menor elemento del subárbol derecho), elimínelo del nodo hoja en que se encuentra, y reemplace el elemento a eliminar por el nuevo separador. • Como se ha eliminado un elemento de un nodo hoja, se debe tratar este caso de manera equivalente. Árbol-B 81

Rebalanceo después de la eliminación Si al eliminar un elemento de un nodo hoja el nodo se ha quedado con menos elementos que el mínimo permitido, algunos elementos se deben redistribuir. En algunos casos el cambio lleva la deficiencia al nodo padre, y la redistribución se debe aplicar iterativamente hacia arriba del árbol, quizá incluso hasta a la raíz. Dado que la cota mínima en el número de elementos no se aplica a la raíz, el problema desaparece cuando llega a ésta. La estrategia consiste en hallar un hermano para el nodo deficiente que tenga más del mínimo número de elementos y redistribuir los elementos entre los hermanos para que todos tengan más del mínimo. Esto también cambia los separadores del nodo padre. • Si el nodo hermano inmediato de la derecha del nodo deficiente tiene más del mínimo número de elementos, escoja el valor medio entre el separador y ambos hermanos como nuevo separador y colóquelo en el padre. • Redistribuya los elementos restantes en los nodos hijo derecho e izquierdo. • Redistribuya los subárboles de los dos nodos . Los subárboles son trasplantados por completo, y no se alteran si se mueven a un otro nodo padre, y esto puede hacerse mientras los elementos se redistribuyen. • Si el nodo hermano inmediato de la derecha del nodo deficiente tiene el mínimo número de elementos, examine el nodo hermano inmediato de la izquierda. • Si los dos nodos hermanos inmediatos tienen el mínimo número de elementos, cree un nuevo nodo con todos los elementos del nodo deficiente, todos los elementos de uno de sus hermanos, colocando el separador del padre entre los elementos de los dos nodos hermanos fundidos. • Elimine el separador del padre, y reemplace los dos hijos que separaba por el nuevo nodo fundido. • Si esa acción deja al número de elementos del padre por debajo del mínimo, repita estos pasos en el nuevo nodo deficiente, a menos que sea la raíz, ya que no tiene cota mínima en el número de elementos.

Construcción Inicial En aplicaciones, es frecuentemente útil construir un árbol-B para representar un gran número de datos existentes y después actualizarlo de forma creciente usando operaciones Standard de los árboles-B. En este caso, el modo más eficiente para construir el árbol-B inicial no sería insertar todos los elementos en el conjunto inicial sucesivamente, si no construir el conjunto inicial de nodos hoja directamente desde la entrada, y después construir los nodos internos a partir de este conjunto. Inicialmente, todas las hojas excepto la última tienen un elemento más, el cual será utilizado para construir los nodos internos. Por ejemplo, si los nodos hoja tienen un tamaño máximo de 4 y el conjunto inicial es de enteros desde el 1 al 24, tenemos que construir inicialmente 5 nodos hoja conteniendo 5 valores cada uno (excepto el último que contiene 4):

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

Construiremos el siguiente nivel hacia arriba desde las hojas tomando el último elemento de cada hoja excepto el último. De nuevo, cada nodo excepto el último contendrá un valor más. En el ejemplo, es supuesto que los nodos internos contienen como mucho 2 valores (por lo que pueden tener 3 hijos). Luego el siguiente nivel de nodos internos nos quedaría de la siguiente manera:

5 10 15 20

1 2 3 4 6 7 8 9 11 12 13 14 16 17 18 19 21 22 23 24 Árbol-B 82

Este proceso se continuará hasta que alcancemos un nivel con un solo nodo y no esta sobrecargado. En nuestro ejemplo solo nos quedaría el nivel de la raíz:

15

5 10 20

1 2 3 4 6 7 8 9 11 12 13 14 16 17 18 19 21 22 23 24

Notas Cada nodo tendrá siempre entre L y U hijos incluidos con una excepción: El nodo raíz debe tener entre 2 y U hijos. En otras palabras, la raíz está exenta de la restricción del límite inferior. Esto permite al árbol sostener un pequeño número de elementos. Un nodo raíz con un solo hijo no tendría sentido, ya que podríamos añadírselo a la raíz. Un nodo raíz sin hijos es también innecesario, ya que un árbol sin hijos se suele representar sin raíz.

Multi-modo:combinar y dividir Es posible modificar el algoritmo anterior, cuando tratamos de encontrar más elementos para un nodo al que le faltan, examinamos a los hermanos, y si alguno tiene más del valor mínimo de números, reordenamos los valores de los hermanos de un extremo a otro para rellenar al mínimo el nodo al que le faltan. De la misma manera, cuando un nodo se divide, los elementos extra pueden ser movidos cerca, por ejemplo a hermanos menos poblados; o la división puede dar lugar a un número de hermanos, redistribuyendo los elementos entre ellos en lugar de dividir un nodo. En la práctica, el uso más común de los árboles-B implica mantener los nodos una memoria secundaria, donde será lento acceder a un nodo que no haya sido usado con anterioridad. Utilizando solo divisiones y combinaciones, disminuimos el número de nodos que se necesitan para la mayoría de situaciones comunes, pero podrían ser útiles en otras.

Relación entre U y L Es casi universal el dividir nodos eligiendo un elemento medio y creando dos nuevos nodos. Esto limita la relación entre L y U. Si intentamos insertar un elemento dentro de un nodo con U elementos, esto conlleva una redistribución de U elementos. Uno de estos, el intermedio, será trasladado al nodo padre, y los restantes serán divididos equitativamente, en la medida de lo posible, entre los dos nuevos nodos. Por ejemplo, en un árbol-B 2-3, añadiendo un elemento a un nodo que ya contiene 3 hijos, y por consiguiente 2 valores separadores (padres), da lugar a 3 valores (los dos separadores y el nuevo valor). El valor medio se convierte en el nuevo separador (padre), y los otros valores se hacen independientes y con 2 hijos. Por lo general, si U es impar, cada uno de los nuevos nodos tienen (U+2)/2 hijos. Si U es par, unos tiene U/2 hijos y el otro U/2+1. Si un nodo está completo y se divide exactamente en 2 nodos, L debe tener un tamaño permitido, lo suficiente pequeño, una vez q el nodo ha sido divido. También es posible dividir nodos completos en más de dos nodos nuevos. Eligiendo dividir un nodo en más de 2 nodos nuevos requerirá un valor más pequeño para L para el mismo valor de U. Como L se hace más pequeño, esto permite que haya más espacio sin usar en los nodos. Esto disminuirá la frecuencia de división de nodos, pero de la misma manera aumentará la cantidad de memoria que se necesita para almacenar el mismo número de valores, y el número de nodos que tienen que ser examinados para una operación Árbol-B 83

particular.

Acceso concurrente Lehman y Yao nos mostraron que uniendo los bloques de árboles en cada nivel, con un puntero al siguiente nivel, en una estructura de árbol, donde los permisos de lectura de los bloques del árbol se pueden evitar, por que el árbol desciende desde la raíz hasta las hojas por búsqueda e inserción. Los permisos de escritura solo se requieren cuando un bloque del árbol es modificado. Minimizando los permisos a un nodo colgante simple, solo durante su modificación ayuda a maximizar el acceso concurrente por múltiples usuarios. Un dato a ser considerado en las bases de datos, por ejemplo y/o otro árbol basado en ISAM (Métodos Indexados de Acceso Secuencial) métodos de almacenamiento.

Véase también • Árbol • Árbol binario • Árbol-B+ • Árbol-B* • Partición de espacio binario • Árbol rojo-negro • Árbol AA • Skip list

Referencias [1] Cormen, Thomas; Leiserson, Charles; Rivest, Ronald; Stein, Clifford (2001), Introduction to Algorithms, MIT Press and McGraw-Hill, pp. 434–454, ISBN 0-262-03293-7

Enlaces externos

• Ejemplo de funcionamiento del árbol 2-3-4 (la variante más simple de árbol-B) (http:/ / www. cse. ohio-state. edu/

~bondhugu/ acads/ 234-tree/ index. shtml) (en inglés)

• Applet de ejemplo del funcionamiento del árbol B (http:/ / slady. net/ java/ bt/ ) (en inglés)

• Tutorial sobre árboles B (http:/ / usuarios. lycos. es/ arbolesbpro/ )

• Indexación de datos con árbol B en Java (http:/ / mmengineer. blogspot. com/ 2007/ 12/

indexacion-java-estructura-de-datos. html) Árbol-B+ 84 Árbol-B+

En ciencia de la computación, un árbol-B es un tipo de estructura de datos de árboles. Representa una colección de datos ordenados de manera que se permite una inserción y borrado eficientes de elementos. Es un índice, multinivel, dinámico, con un límite máximo y mínimo en el número de claves por nodo.

Un árbol-B+ es una variación de un árbol-B. En un árbol-B+, en contraste respecto un árbol-B, toda la información se guarda en las hojas. Los nodos internos sólo contienen Un árbol B+ simple (una variación del árbol B) que enlaza los elementos 1 al 7 a valores de datos d -d . Note la lista enlazada (en rojo) que permite el recorrido de los elementos claves y punteros. Todas las hojas se 1 7 en orden. encuentran en el mismo, más bajo nivel. Los nodos hoja se encuentran unidos entre sí como una lista enlazada para permitir búsqueda secuencial. El número máximo de claves en un registro es llamado el orden del árbol-B+. El mínimo número de claves por registro es la mitad del máximo número de claves. Por ejemplo, si el orden de un árbol-B+ es n, cada nodo (exceptuando la raíz) debe tener entre n/2 y n claves. El número de claves que pueden ser indexadas usando un árbol-B+ está en función del orden del árbol y su altura.

Altura: El mejor y el peor caso Dado un M, el cual corresponde al número máximo de hijos que un nodo puede contener. La altura h de un árbol-B+ (El peor caso):

La altura h de un árbol-B+ (Mejor caso) :

Este caso, es debido a que, si guardamos menos hijos en los nodos, se necesitarán más niveles para almacenar todo.

Cantidad de claves Para un árbol-B+ de orden n, con una altura h: • Número máximo de claves es: • Número mínimo de claves es:

Enlaces externos

• http:/ / www. seanster. com/ BplusTree/ BplusTree. html Árbol-B* 85 Árbol-B*

Un árbol-B* es una estructura de datos de árbol, una variante de Árbol-B utilizado en los sistemas de ficheros HFS y Reiser4, que requiere que los nodos no raíz estén por lo menos a 2/3 de ocupación en lugar de 1/2. Para mantener esto los nodos, en lugar de generar inmediatamente un nodo cuando se llenan, comparten sus claves con el nodo adyacente. Cuando ambos están llenos, entonces los dos nodos se transforman en tres. También requiere que la clave más a la izquierda no sea usada nunca. No se debe confundir un árbol-B* con un árbol-B+, en el que los nodos hoja del árbol están conectados entre sí a través de una lista enlazada, aumentando el coste de inserción para mejorar la eficiencia en la búsqueda. Reiser4 86 Reiser4

Reiser4

Desarrollador(a) Namesys Nombre completo Reiser4 Introducido 2004 (Linux) Identificador de la partición Apple_UNIX_SVR2 (Apple Partition Map) 0x83 (MBR) EBD0A0A2-B9E5-4433-87C0-68B6B72699C7 (GPT) Estructuras Contenido del directorio Dancing B*-tree Localización de archivo Bloques malos Límites Máxima dimensión de archivo 8 TiB on x86 Máximo número de archivos Tamaño máximo del nombre de archivo 3976 bytes Tamaño máximo del volumen Caracteres permitidos en nombres de archivo Todos los caracteres excepto NULL y '/' Características Fechas registradas modificación(mtime), cambios en los metadatos (ctime), acceso (atime)

[1] Rango de fecha fechas de 64-bit Bifurcaciones Atributos extendidos Atributos Permisos de acceso a archivos Permisos de Unix, ACLs y atributos de seguridad arbitrarios Compresión transparente Versión 4.1 (beta) Cifrado transparente Versión 4.1 (beta) Sistemas operativos soportados Linux

Reiser4 es un sistema de archivos para ordenadores. Se trata de la versión más reciente del sistema de archivos ReiserFS, reescrito desde cero, desarrollado por Namesys [2] y patrocinado por la DARPA y Linspire. Actualmente no se distribuye de forma conjunta con el kernel de Linux y por tanto no es soportado por muchas distribuciones. De hecho, su predecesor, Reiser3 se encuentra mucho más expandido. Reiser4 se encuentra disponible en la rama -mm del kernel de Linux, mantenida por Andrew Morton. Los desarrolladores del kernel de Linux sostienen que Reiser4 no sigue la convención de codificación estándar,[3] mientras que Hans Reiser argumenta que la verdadera razón es debida a motivos políticos.[4] Reiser4 87

Características • Journaling más eficiente gracias a la técnica de "wandering log". • Soporte más eficiente de archivos pequeños, en términos de espacio en disco y velocidad gracias a "tail packing". • Administración más rápida de directorios con un número elevado de ficheros. • Infraestructura de plugins más flexible (a través de tipos especiales de metadatos: cifrado, compresión). • Soporte transaccional. • Optimización dinámica de la estructura del disco a través del método "allocate-on-flush", llamado "delayed allocation" en el sistema de ficheros XFS. • Transacciones atómicas. • Integración de metadatos en el espacio de nombres del sistema de archivos. Algunas de las características más avanzadas de Reiser4 (como transacciones definidas por el usuario) no se encuentran disponibles debido a la falta de una API en la capa VFS del kernel para ellas. Actualmente, Reiser4 carece de algunas utilidades estándar, como un repacker (similar a un desfragmentador proporcionado con otros sistemas de ficheros). Sus creadores dicen que se implementará más tarde; o más temprano si alguien les paga.[5]

Rendimiento Reiser4 usa árboles B* en conjunto con los "dancing tree balancing", donde los nodos poco poblados no se fusionan hasta que se graban a disco, exceptuando volcados de memoria o cuando se completa una transacción. Tal sistema permite crear ficheros y directorios sin tener que malgastar tiempo y espacio mediante bloques de tamaño prefijado. En el año 2004, las pruebas de rendimiento realizadas por Namesys [2], mostraron que Reiser4 es de 10 a 15 veces más rápido que ext3 en la administración de ficheros más pequeños de 1KB. En el uso diario, las pruebas sugirieron que duplicaría el rendimiento respecto a ext3.[6] Otras pruebas mostraron que Reiser4 era más lento en otras operaciones.[7]

Enlaces externos • Página de Reiser4 [8] • Desarrolladores de Reiser4 [9] • Introducción a Reiser4 [10] • Parches actualizados de Reiser4 después del cierre de Namesys [11]

Referencias [1] Documentation/filesystems/reiser4.txt from a reiser4-patched kernel source, "By default file in reiser4 have 64 bit timestamps."

[2] http:/ / en. wikipedia. org/ wiki/ Namesys

[3] « Linux: Porqué Reiser4 no se encuentra en el kernel (http:/ / kerneltrap. org/ node/ 6844)». Kerneltrap (19 de septiembre del 2005).

[4] Reiser, Hans (21 de julio, 2006). « The "'official' point of view" expressed by kernelnewbies.org regarding reiser4 inclusion (http:/ / lkml. org/

lkml/ 2006/ 7/ 21/ 109)». Consultado el 01-03-2008.

[5] Reiser, Hans (16 de septiembre, 2004). « Re: Benchmark : ext3 vs reiser4 and effects of fragmentation. (http:/ / www. xy1. org/

reiserfs-list@namesys. com/ msg04018. html)». Namesys, ReiserFS mailing list.

[6] Hans Reiser (20 de noviembre, 2003). « Benchmarks de ReiserFS Versión 4 (http:/ / www. namesys. com/ benchmarks. html)». Namesys.

[7] Justin Piszcz (Enero del de 2006). « Benchmarking Filesystems Part II (http:/ / linuxgazette. net/ 122/ TWDT. html#piszcz)».

[8] http:/ / www. namesys. com/ v4/ v4. html

[9] http:/ / www. namesys. com/ devels. html

[10] http:/ / www. kuro5hin. org/ story/ 2003/ 8/ 9/ 172159/ 7912

[11] http:/ / chichkin_i. zelnet. ru/ namesys/ Hans Reiser 88 Hans Reiser

Hans Reiser (nacido en diciembre de 1963) es un programador estadounidense famoso por sus aportes a la comunidad de software libre en el campo de los sistemas de ficheros. En particular, es el máximo responsable del desarrollo del sistema de ficheros ReiserFS, y su nueva versión Reiser4. En 1997, Reiser fundó la empresa Namesys, especializada en sistemas operativos y en el desarrollo y soporte de sus sistemas de ficheros. Reiser residía en Oakland, California. El 10 de octubre de 2006, fue acusado del asesinato de su esposa, Nina Reiser, y fue encontrado culpable el 28 de abril de 2008 por un jurado popular. Cumple condena de 15 años en Mule Creek State Prison, Ione, California.

Biografía

Hans Reiser, hijo de Ramón Reiser y Beverly Palmer, nació en diciembre de 1963. Creció en California y dejó los estudios antes de Hans Reiser en 2005. cumplir los 14 años, ya que discrepaba con el sistema de escolarización convencional. Más tarde, con 15 años, fue aceptado en la Universidad de California, en Berkeley, donde obtuvo un certificado de estudios en física, matemáticas y otros temas relacionados. Reiser fue uno de los miembros fundadores del "Open Computing Facility" en Berkeley. Aunque quería alcanzar cotas más elevadas en su educación, no continuó con ello, citando las mismas razones por las cuales dejó anteriormente los estudios. [1] Por lo tanto, al no poder seguir estudiando, comenzó a trabajar en el campo de la computación mientras fundaba y construía su empresa, Namesys Inc. Previamente, Reiser trabajó en Synopsys, IBM, Premos y ARDC.

En 1999, mientras trabajaba en Rusia, conoció a Nina Sharanova,[2] rusa de nacimiento, obstetra y ginecóloga, con la que se casó tiempo después. Tuvieron dos hijos, Rory y Niorlene. Los Reiser se separaron en mayo de 2004, y Nina firmó el divorcio tres meses después, alegando diferencias irreconciliables y que sus hijos apenas conocían a su padre, debido a que se pasaba la mayor parte del tiempo fuera de casa debido al trabajo. A Nina se le adjudicó la custodia legal de los niños y a Hans un régimen de visitas a medias con Nina. El divorcio nunca fue consumado.[3] Nina Reiser obtuvo una orden de alejamiento contra Hans en diciembre de 2004, después de que ella alegara que Hans la había empujado, en el punto álgido de su divorcio.[4] Recusó la orden a finales de 2005 debido al enfriamiento de sus relaciones.[5] A cambio, Hans estuvo de acuerdo en que durante un año no pudiera "ni contactar, ni acosar, ni molestar la paz" de Nina en su casa y su lugar de trabajo, y permanecer como mínimo a 100 yardas (91 metros) de ella. En mayo, Nina alegó en los tribunales que Hans no había pagado la mitad de los gastos ocasionados por los cuidados médicos de los niños.[6] En septiembre de 2006 su esposa separada, Nina Reiser, desapareció bajo extrañas circunstancias. En octubre de ese mismo año, Reiser, sospechoso de homicidio, fue detenido por las autoridades de Oakland en California, quienes examinaron su casa y le tomaron una muestra de ADN en busca de evidencias.[7] En abril de 2008 fue declarado culpable de homicido en primer grado.[8] La fiscalía aceptó un acuerdo por el que Reiser revelaría la localización del cadáver de su esposa a cambio de rebajar su condena a la de homicidio en segundo grado. El acuerdo se realizó con el consentimiento de la familia de Nina, y fue ratificado por el juez Goodman.[9][10] El lunes 7 de julio de 2008, Reiser condujo a la policía al lugar donde el Hans Reiser 89

cadáver de Nina estaba enterrado, en las colinas de Oakland. El abogado de Reiser dijo que los restos se encontraron enterrados en la ladera de una colina a menos de 800 m de la casa donde Reiser vivió con su madre, y donde Nina Reiser fue vista viva por última vez el 3 de septiembre de 2006.[11] El detective de homicidios de Oakland, Teniente Ersie Joyner, afirmó que Reiser les condujo directamente al lugar exacto, sin ningún titubeo o duda.[10] Reiser dijo que esperaba que existiera un cerezo marcando el lugar de la tumba. El 8 de julio, el forense identificó positivamente los restos óseos como los de Nina Reiser.[9] El 29 de agosto de 2008, Reiser fue sentenciado a 15 años de prisión, de acuerdo con los cargos de asesinato en segundo grado. Reiser no puede apelar la sentencia como resultado del acuerdo con el fiscal.[12] El 5 de septiembre de 2008, Hans Reiser llegó a la prisión estatal de San Quintín para iniciar el cumplimiento de la pena.[13][14] En enero de 2009, Reiser fue atacado por varios reclusos de la prisión de San Quintín e ingresado en la enfermería para su recuperación.[15][16] El 28 de enero de 2009, fue trasladado a la prisión estatal de Mule Creek.[17]

Referencias

[1] Andrews, Jeremy (2005-09-13). « Entrevista con Hans Reiser (http:/ / kerneltrap. org/ node/ 5654)». KernelTrap.org.

[2] About Nina (http:/ / www. ninareiser. com/ aboutnina. html)

[3] Lee, Henry K. (October 11, 2006). Hans Reiser tiene un rayo de esperanza (http:/ / sfgate. com/ cgi-bin/ article. cgi?f=/ c/ a/ 2006/ 10/ 11/

BAGQJLNA3U54. DTL). San Francisco Chronicle. .

[4] Lee, Henry K.; Zamora, Jim Herron (September 14, 2006). Búsqueda en la casa de Hans - La esposa desaparecida (http:/ / sfgate. com/

cgi-bin/ article. cgi?f=/ c/ a/ 2006/ 09/ 14/ BAGPJL5DHV1. DTL). San Francisco Chronicle. .

[5] Lee, Henry K. (October 10, 2006). Marido de mujer desaparecida arrestado bajo sospecha de asesinato (http:/ / sfgate. com/ cgi-bin/ article.

cgi?f=/ c/ a/ 2006/ 10/ 10/ BAGERLM3RR15. DTL). San Francisco Chronicle. .

[6] Abogado dice que el marido de la mujer desaparecida desconfía de la policía (http:/ / www. ktvu. com/ news/ 9889281/ detail. html). KTVU. September 19, 2006. .

[7] Husband of missing Oakland mom arrested on suspicion of murder (http:/ / sfgate. com/ cgi-bin/ article. cgi?f=/ c/ a/ 2006/ 10/ 10/

BAGERLM3RR15. DTL)

[8] Hans Reiser Guilty of First Degree Murder (http:/ / blog. wired. com/ 27bstroke6/ 2008/ 04/ reiser-guilty-o. html)

[9] Metinko, Chris; Harry Harris (08-07-2008). Reiser takes plea deal for lesser sentence. (http:/ / www. mercurynews. com/ ci_9820424). Mercury News/Oakland Tribune. . Consultado el 09-07-2008.

[10] Lee, Henry K. (July 9, 2008). Reiser deal ultimately hinges on judge's OK. (http:/ / www. sfgate. com/ cgi-bin/ article. cgi?f=/ c/ a/ 2008/ 07/

09/ MNDT11LOTI. DTL). San Francisco Chronicle. . Consultado el 09-07-2008.

[11] Lee, Henry K.; Jaxon Van Derbeken, Chronicle Staff Writers (07-07-2008). « Wife-killer leads cops to body in deal with D.A. (http:/ / www.

sfgate. com/ cgi-bin/ article. cgi?f=/ c/ a/ 2008/ 07/ 07/ BAN011LDR8. DTL)». SFGate. Consultado el 08-07-2008.

[12] « Reiser confesses to strangling estranged wife (http:/ / www. sfgate. com/ cgi-bin/ article. cgi?f=/ c/ a/ 2008/ 08/ 29/ BAIQ12KT15. DTL)». SFGate. 29-08-2008. . Consultado el 30-08-2008.

[13] Lee, Henry K. (19-11-2008). « Hans Reiser Case: November 19, 2008 (http:/ / www. sfgate. com/ cgi-bin/ blogs/ sfgate/ detail?blogid=37& entry_id=32797)». SFGate. Consultado el 19-11-2008.

[14] Kravets, David (19-11-2008). « Linux Guru Reiser Seeks New Murder Trial (http:/ / blog. wired. com/ 27bstroke6/ 2008/ 11/

linux-guru-reis. html)». Wired Blog Network. Consultado el 19-11-2008.

[15] « San Quentin Prisoner Beaten (http:/ / www. kcbs. com/ pages/ 3634907. php?)». KCBS (10-01-2009). Consultado el 10-01-2009.

[16] « Hans Reiser Attacked In Prison (http:/ / cbs5. com/ crime/ hans. reiser. attack. 2. 905257. html)», Jan 11, 2009. Consultado el 15 de julio

de 2010. Uso incorrecto de la plantilla enlace roto (enlace roto disponible en Internet Archive; véase el historial (http:/ / web. archive. org/

web/ */ {{{1}}}) y la última versión (http:/ / web. archive. org/ web/ 2/ {{{1}}})).

[17] Reiser, Hans (11-06-2009). « Miscellaneous Received (http:/ / apps. alameda. courts. ca. gov/ domainweb/

service?Servicename=DomainWebService& PageName=Image& ID=7& Parent=15766299& Action=23059652)». Alameda County Superior Court. Consultado el 17-06-2009. Hans Reiser 90

Enlaces externos

• Namesys (http:/ / namesys. com/ )

• Hans Reiser's Resume (http:/ / idiom. com/ ~beverly/ hans_resume. html) (en inglés)

• Entrevista en KernelTrap.org (http:/ / kerneltrap. org/ node/ 5654) (en inglés)

• Hans Reiser arrestado el 10 de octubre (http:/ / www. linuxpreview. org/ modules. php?name=News&

file=article& sid=3218) (en español) ReiserFS 91 ReiserFS

ReiserFS

Desarrollador(a) Namesys Nombre completo ReiserFS Introducido 2001 (Linux 2.4.1) Identificador de la partición Apple_UNIX_SVR2 (Apple Partition Map) 0x83 (MBR) EBD0A0A2-B9E5-4433-87C0-68B6B72699C7 (GPT) Estructuras Contenido del directorio Árbol-B+

Localización de archivo Bitmap [1] Bloques malos Límites

Máxima dimensión de archivo 8 TiB [2]

32 Máximo número de archivos 2 (~4 mil millones) [2] Tamaño máximo del nombre de archivo 255 bytes

Tamaño máximo del volumen 16 TiB [2] Caracteres permitidos en nombres de archivo All bytes except NUL and '/' Características Fechas registradas modification (mtime), metadata change (ctime), access (atime) Rango de fecha December 14, 1901 - January 18, 2038 Bifurcaciones Extended attributes Atributos Permisos de acceso a archivos Unix permissions, ACLs and arbitrary security attributes Compresión transparente No Cifrado transparente {{{encryption}}} Sistemas operativos soportados Linux

ReiserFS es un sistema de archivos de propósito general, diseñado e implementado por un equipo de la empresa Namesys [2], liderado por Hans Reiser. Actualmente es soportado por Linux y existen planes de futuro para incluirlo en otros sistemas operativos. También es soportado por Windows (de forma no oficial), aunque por el momento de manera inestable y rudimentaria (ReiserFS bajo windows [3]). A partir de la versión 2.4.1 de Linux, ReiserFS se convirtió en el primer sistema de ficheros con journal en ser incluido en el núcleo estándar. También es el sistema de archivos por defecto en varias distribuciones, como SuSE (excepto en openSuSE 10.2 cuyo formato por defecto es ext3), Xandros, Yoper, Linspire, Kurumin Linux, FTOSX, Libranet y Knoppix. Con la excepción de actualizaciones de seguridad y parches críticos, Namesys [2] ha cesado el desarrollo de ReiserFS (también llamado reiser3) para centrarse en Reiser4, el sucesor de este sistema de archivos. ReiserFS 92

Características ReiserFS ofrece funcionalidades que pocas veces se han visto en otros sistemas de archivos: • Journaling. Esta es la mejora a la que se ha dado más publicidad, ya que previene el riesgo de corrupción del sistema de archivos. • Reparticionamiento con el sistema de ficheros montado y desmontado. Podemos aumentar el tamaño del sistema de ficheros mientras lo tenemos montado y desmontado (online y offline). Para disminuirlo, únicamente se permite estando offline (desmontado). Namesys nos proporciona las herramientas para estas operaciones, e incluso, podemos usarlas bajo un gestor de volúmenes lógicos como LVM o EVMS. • Tail packing, un esquema para reducir la fragmentación interna.

Rendimiento Comparado con ext2 y ext3 en el uso de archivos menores de 4k, ReiserFS es normalmente más rápido en un factor de 10–15. Esto proporciona una elevada ganancia en las news, como por ejemplo Usenet, caches para servicios HTTP, agentes de correo y otras aplicaciones en las que el tiempo de acceso a ficheros pequeños debe ser lo más rápida posible.

Desventajas • Los usuarios que usen como sistema de ficheros ext2, deben formatear sus discos, aunque no así los que usen ext3. • ReiserFS en versiones del kernel anteriores a la 2.4.10 se considera inestable y no se recomienda su uso, especialmente en conjunción con NFS • Algunas operaciones sobre archivos (por ejemplo unlink(2)) no son síncronas bajo ReiserFS, lo que pueden causar comportamientos extraños en aplicaciones fuertemente basadas en locks de archivos. • No se conoce una forma de desfragmentar un sistema de archivos ReiserFS, aparte de un volcado completo y su restauración. • Tempranas implementaciones de ReiserFS (anteriores a la incluida en el kernel 2.6.2), eran susceptibles de problemas de escrituras fuera de orden, lo que provocaba que archivos siendo escritos durante una caída del sistema, ganaran un pico de bytes extras de basura en el siguiente montado del sistema de archivos. La implementación actual de journaling, es correcta en este aspecto, manteniendo el journaling ordenado, del estilo de ext3.

Diseño ReiserFS almacena metadatos sobre los ficheros, entradas de directorio y listas de inodos en un único árbol B+ cuya clave principal es un identificador único. Los bloques de disco asignados a los nodos del árbol son los "bloques internos formateados" y los bloques de las hojas son los "bloques de hojas formateados". Todos los bloques restantes son los "bloques sin formatear", que contienen los datos de los ficheros. Los directorios con muchas entradas, ya sean directas o indirectas, que no caben en un sólo nodo, se reparten con el nodo vecino de la derecha. La asignación de bloques se lleva a cabo mediante un bitmap de espacio libre almacenado en localizaciones fijas. En contraste, ext2 y otros sistemas de ficheros, usan una fórmula fija para calcular localizaciones de inodos, por lo que limitan el número de archivos que pueden almacenar. Otros también almacenan los directorios como una simple lista de entradas, lo que provoca que las búsquedas y modificaciones sean operaciones lineales temporalmente y degradan el rendimiento de directorios con muchos archivos. El árbol B+ en ReiserFS evita éstos problemas. ReiserFS 93

Versiones Existen principalmente dos versiones de este sistema de ficheros: la 3.5 y la 3.6. Las características son las siguientes:

3.5 3.6

Número máximo de 2 32 - 3 = 4 Gi - 3 232 - 3 = 4 Gi - 3 ficheros

Número máximo de 518701895, pero en la práctica este valor se encuentra 232 - 4 = 4 Gi - 4, pero en la práctica este valor se encuentra ficheros que puede limitado por una función de hash. El hash r5 permite limitado por una función de hash. El hash r5 permite entre 1 contener un directorio entre 1 y 200000 nombres de ficheros sin colisiones. y 200000 nombres de ficheros sin colisiones.

Tamaño máximo de un 231 - 1 = 2 Gi - 1 260 - algunos bytes = 1 Ei, pero la cache de páginas lo limita fichero a 8 Ti en arquitecturas de 32 bits.

Número máximo de links 216 = 64 Ki 232 = 4 Gi a un fichero

Tamaño máximo del 232 (4K) bloques = 16 Ti 232 (4K) bloques = 16 Ti sistema de ficheros

Véase también • ext3 • ext4 • XFS • JFS • Reiser4

Enlaces externos • Sitio oficial de ReiserFS [4]

References

[1] http:/ / namesys. com/ X0reiserfs. html#nodelayout

[2] http:/ / namesys. com/ faq. html#reiserfsspecs

[3] http:/ / p-nand-q. com/ download/ rfstool. html

[4] http:/ / www. namesys. com/ Teoría del Big Bang 94 Teoría del Big Bang

En cosmología física, la teoría del Big Bang o teoría de la gran explosión es un modelo científico que trata de explicar el origen del Universo y su desarrollo posterior a partir de una singularidad espaciotemporal. Técnicamente, este modelo se basa en una colección de soluciones de las ecuaciones de la relatividad general, llamados modelos de Friedmann- Lemaître - Robertson - Walker. El término "Big Bang" se utiliza tanto para referirse específicamente al momento en el que se inició la expansión observable del Universo (cuantificada en la ley de Hubble), como en un sentido más general para referirse al paradigma cosmológico que explica el origen y la evolución del mismo.

Según la teoría del Big Bang, el Universo se originó en una singularidad espaciotemporal de densidad infinita matemáticamente paradójica. El espacio se ha expandido desde entonces, por lo que los objetos astrofísicos se han alejado unos respecto de los otros.

Introducción

Curiosamente, la expresión Big Bang proviene -a su pesar- del astrofísico inglés Fred Hoyle, uno de los detractores de esta teoría y, a su vez, uno de los principales defensores de la teoría del estado estacionario, quien en 1949, durante una intervención en la BBC dijo, para mofarse, que el modelo descrito era sólo un big bang (gran explosión). No obstante, hay que tener en cuenta que en el inicio del Universo ni hubo explosión ni fue grande, pues en rigor surgió de una «singularidad» infinitamente pequeña, seguida de la expansión del propio espacio.[1]

La idea central del Big Bang es que la teoría de la relatividad general puede combinarse con las observaciones de isotropía y homogeneidad a gran escala de la distribución de galaxias y los cambios de posición entre ellas, permitiendo extrapolar las condiciones del Universo antes o Imagen proporcionada por el telescopio Hubble del espacio después en el tiempo. lejano, cuando el universo era más caliente y más concentrado de acuerdo con la teoría del Big Bang. Una consecuencia de todos los modelos de Big Bang es que, en el pasado, el Universo tenía una temperatura más alta y mayor densidad y, por tanto, las condiciones del Universo actual son muy diferentes de las condiciones del Universo pasado. A partir de este modelo, George Gamow en 1948 Teoría del Big Bang 95

pudo predecir que debería de haber evidencias de un fenómeno que más tarde sería bautizado como radiación de fondo de microondas

Breve historia de su génesis y desarrollo Para llegar al modelo del Big Bang, muchos científicos, con diversos estudios, han ido construyendo el camino que lleva a la génesis de esta explicación. Los trabajos de Alexander Friedman, del año 1922, y de Georges Lemaître, de 1927, utilizaron la teoría de la relatividad para demostrar que el universo estaba en movimiento constante. Poco después, en 1929, el astrónomo estadounidense Edwin Hubble (1889-1953) descubrió galaxias más allá de la Vía Láctea que se alejaban de nosotros, como si el Universo se expandiera constantemente. En 1948, el físico ucraniano nacionalizado estadounidense, George Gamow (1904-1968), planteó que el universo se creó a partir de una gran explosión (Big Bang). Recientemente, ingenios espaciales puestos en órbita (COBE) han conseguido "oír" los vestigios de esta gigantesca explosión primigenia. De acuerdo con la teoría, un universo homogéneo e isótropo lleno de materia ordinaria, podría expandirse indefinidamente o frenar su expansión lentamente, hasta producirse una contracción universal. El fin de esa contracción se conoce con un término contrario al Big Bang: el Big Crunch o 'Gran Colapso' o un Big Rip o Gran desgarro. Si el Universo se encuentra en un punto crítico, puede mantenerse estable ad eternum. Muy recientemente se ha comprobado que actualmente existe una expansión acelerada del universo hecho no previsto originalmente en la teoría y que ha llevado a la introducción de la hipótesis adicional de la energía oscura (este tipo de materia tendría propiedades especiales que permitirían comportar la aceleración de la expansión). La teoría del Big Bang se desarrolló a partir de observaciones y avances teóricos. Por medio de observaciones, en la década de 1910, el astrónomo estadounidense Vesto Slipher y, después de él, Carl Wilhelm Wirtz, de Estrasburgo, determinaron que la mayor parte de las nebulosas espirales se alejan de la Tierra; pero no llegaron a darse cuenta de las implicaciones cosmológicas de esta observación, ni tampoco del hecho de que las supuestas nebulosas eran en realidad galaxias exteriores a nuestra Vía Láctea. Además, la teoría de Albert Einstein sobre la relatividad general (segunda década del siglo XX) no admite soluciones estáticas (es decir, el Universo debe estar en expansión o en contracción), resultado que él mismo consideró equivocado, y trató de corregirlo agregando la constante cosmológica. El primero en aplicar formalmente la relatividad a la cosmología, sin considerar la constante cosmológica, fue Alexander Friedman, cuyas ecuaciones describen el Universo Friedman-Lemaître-Robertson-Walker, que puede expandirse o contraerse. Entre 1927 y 1930, el sacerdote belga Georges Lemaître[2] obtuvo independientemente las ecuaciones Friedman-Lemaître-Robertson-Walker y propuso, sobre la base de la recesión de las nebulosas espirales, que el Universo se inició con la explosión de un átomo primigenio, lo que más tarde se denominó "Big Bang". En 1929, Edwin Hubble realizó observaciones que sirvieron de fundamento para comprobar la teoría de Lemaître. Hubble probó que las nebulosas espirales son galaxias y midió sus distancias observando las estrellas variables cefeidas en galaxias distantes. Descubrió que las galaxias se alejan unas de otras a velocidades (relativas a la Tierra) directamente proporcionales a su distancia. Este hecho se conoce ahora como la ley de Hubble (véase Edwin Hubble: Marinero de las nebulosas, texto escrito por Edward Christianson). Según el principio cosmológico, el alejamiento de las galaxias sugería que el Universo está en expansión. Esta idea originó dos hipótesis opuestas. La primera era la teoría Big Bang de Lemaître, apoyada y desarrollada por George Gamow. La segunda posibilidad era el modelo de la teoría del estado estacionario de Fred Hoyle, según la cual se genera nueva materia mientras las galaxias se alejan entre sí. En este modelo, el Universo es básicamente el mismo en un momento dado en el tiempo. Durante muchos años hubo un número de adeptos similar para cada teoría. Con el pasar de los años, las evidencias observacionales apoyaron la idea de que el Universo evolucionó a partir de un estado denso y caliente. Desde el descubrimiento de la radiación de fondo de microondas, en 1965, ésta ha sido considerada la mejor teoría para explicar el origen y evolución del cosmos. Antes de finales de los años sesenta, Teoría del Big Bang 96

muchos cosmólogos pensaban que la singularidad infinitamente densa del tiempo inicial en el modelo cosmológico de Friedman era una sobreidealización, y que el Universo se contraería antes de empezar a expandirse nuevamente. Ésta es la teoría de Richard Tolman de un Universo oscilante. En los años 1960, Stephen Hawking y otros demostraron que esta idea no era factible, y que la singularidad es un componente esencial de la gravedad de Einstein. Esto llevó a la mayoría de los cosmólogos a aceptar la teoría del Big Bang, según la cual el Universo que observamos se inició hace un tiempo finito. Prácticamente todos los trabajos teóricos actuales en cosmología tratan de ampliar o concretar aspectos de la teoría del Big Bang. Gran parte del trabajo actual en cosmología trata de entender cómo se formaron las galaxias en el contexto del Big Bang, comprender lo que allí ocurrió y cotejar nuevas observaciones con la teoría fundamental. A finales de los años 1990 y principios del siglo XXI, se lograron grandes avances en la cosmología del Big Bang como resultado de importantes adelantos en telescopía, en combinación con grandes cantidades de datos satelitales de COBE, el telescopio espacial Hubble y WMAP. Estos datos han permitido a los cosmólogos calcular muchos de los parámetros del Big Bang hasta un nuevo nivel de precisión, y han conducido al descubrimiento inesperado de que el Universo está en aceleración.

Visión general

Descripción del Big Bang

Michio Kaku ha señalado cierta paradoja en la denominación big bang (gran explosión): en cierto modo no puede haber sido grande ya que se produjo exactamente antes del surgimiento del espacio-tiempo, habría sido el mismo big bang lo que habría generado las dimensiones desde una singularidad; tampoco es exactamente una explosión en el sentido propio del término ya que no se propagó fuera de sí mismo.

Basándose en medidas de la expansión del Universo utilizando observaciones de las supernovas tipo 1a, en función El Universo ilustrado en tres dimensiones espaciales y una dimensión temporal. de la variación de la temperatura en diferentes escalas en la radiación de fondo de microondas y en función de la correlación de las galaxias, la edad del Universo es de aproximadamente 13,7 ± 0,2 miles de millones de años. Es notable el hecho de que tres mediciones independientes sean consistentes, por lo que se consideran una fuerte evidencia del llamado modelo de concordancia que describe la naturaleza detallada del Universo.

El universo en sus primeros momentos estaba lleno homogénea e isótropamente de una energía muy densa y tenía una temperatura y presión concomitantes. Se expandió y se enfrió, experimentando cambios de fase análogos a la condensación del vapor o a la congelación del agua, pero relacionados con las partículas elementales. Aproximadamente 10-35 segundos después del tiempo de Planck un cambio de fase causó que el Universo se expandiese de forma exponencial durante un período llamado inflación cósmica. Al terminar la inflación, los componentes materiales del Universo quedaron en la forma de un plasma de quarks-gluones, en donde todas las partes que lo formaban estaban en movimiento en forma relativista. Con el crecimiento en tamaño del Universo, la Teoría del Big Bang 97

temperatura descendió, y debido a un cambio aún desconocido denominado bariogénesis, los quarks y los gluones se combinaron en bariones tales como el protón y el neutrón, produciendo de alguna manera la asimetría observada actualmente entre la materia y la antimateria. Las temperaturas aún más bajas condujeron a nuevos cambios de fase, que rompieron la simetría, así que les dieron su forma actual a las fuerzas fundamentales de la física y a las partículas elementales. Más tarde, protones y neutrones se combinaron para formar los núcleos de deuterio y de helio, en un proceso llamado nucleosíntesis primordial. Al enfriarse el Universo, la materia gradualmente dejó de moverse de forma relativista y su densidad de energía comenzó a dominar gravitacionalmente sobre la radiación. Pasados 300.000 años, los electrones y los núcleos se combinaron para formar los átomos (mayoritariamente de hidrógeno). Por eso, la radiación se desacopló de los átomos y continuó por el espacio prácticamente sin obstáculos. Ésta es la radiación de fondo de microondas. Al pasar el tiempo, algunas regiones ligeramente más densas de la materia casi uniformemente distribuida crecieron gravitacionalmente, haciéndose más densas, formando nubes, estrellas, galaxias y el resto de las estructuras astronómicas que actualmente se observan. Los detalles de este proceso dependen de la cantidad y tipo de materia que hay en el Universo. Los tres tipos posibles se denominan materia oscura fría, materia oscura caliente y materia bariónica. Las mejores medidas disponibles (provenientes del WMAP) muestran que la forma más común de materia en el universo es la materia oscura fría. Los otros dos tipos de materia sólo representarían el 20 por ciento de la materia del Universo. El Universo actual parece estar dominado por una forma misteriosa de energía conocida como energía oscura. Aproximadamente el 70 por ciento de la densidad de energía del universo actual está en esa forma. Una de las propiedades características de este componente del universo es el hecho de que provoca que la expansión del universo varíe de una relación lineal entre velocidad y distancia, haciendo que el espacio-tiempo se expanda más rápidamente que lo esperado a grandes distancias. La energía oscura toma la forma de una constante cosmológica en las ecuaciones de campo de Einstein de la relatividad general, pero los detalles de esta ecuación de estado y su relación con el modelo estándar de la física de partículas continúan siendo investigados tanto en el ámbito de la física teórica como por medio de observaciones. Más misterios aparecen cuando se investiga más cerca del principio, cuando las energías de las partículas eran más altas de lo que ahora se puede estudiar mediante experimentos. No hay ningún modelo físico convincente para el primer 10-33 segundo del universo, antes del cambio de fase que forma parte de la teoría de la gran unificación. En el "primer instante", la teoría gravitacional de Einstein predice una singularidad gravitacional en donde las densidades son infinitas. Para resolver esta paradoja física, hace falta una teoría de la gravedad cuántica. La comprensión de este período de la historia del universo figura entre los mayores problemas no resueltos de la física.

Base teórica En su forma actual, la teoría del Big Bang depende de tres suposiciones: 1. La universalidad de las leyes de la física, en particular de la teoría de la relatividad general 2. El principio cosmológico 3. El principio de Copérnico Inicialmente, estas tres ideas fueron tomadas como postulados, pero actualmente se intenta verificar cada una de ellas. La universalidad de las leyes de la física ha sido verificada al nivel de las más grandes constantes físicas, llevando su margen de error hasta el orden de 10-5. La isotropía del universo que define el principio cosmológico ha sido verificada hasta un orden de 10-5. Actualmente se intenta verificar el principio de Copérnico observando la interacción entre grupos de galaxias y el CMB por medio del efecto Sunyaev-Zeldovich con un nivel de exactitud del 1 por ciento. La teoría del Big Bang utiliza el postulado de Weyl para medir sin ambigüedad el tiempo en cualquier momento en el pasado a partir del la época de Planck. Las medidas en este sistema dependen de coordenadas conformales, en las cuales las llamadas distancias codesplazantes y los tiempos conformales permiten no considerar la expansión del Teoría del Big Bang 98

universo para las medidas de espacio-tiempo. En ese sistema de coordenadas, los objetos que se mueven con el flujo cosmológico mantienen siempre la misma distancia codesplazante, y el horizonte o límite del universo se fija por el tiempo codesplazante. Visto así, el Big Bang no es una explosión de materia que se aleja para llenar un universo vacío; es el espacio-tiempo el que se extiende.Y es su expansión la que causa el incremento de la distancia física entre dos puntos fijos en nuestro universo.Cuando los objetos están ligados entre ellos (por ejemplo, por una galaxia), no se alejan con la expansión del espacio-tiempo, debido a que se asume que las leyes de la física que los gobiernan son uniformes e independientes del espacio métrico. Más aún, la expansión del universo en las escalas actuales locales es tan pequeña que cualquier dependencia de las leyes de la física en la expansión no sería medible con las técnicas actuales.

Evidencias En general, se consideran tres las evidencias empíricas que apoyan la teoría cosmológica del Big Bang. Éstas son: la expansión del universo que se expresa en la Ley de Hubble y que se puede apreciar en el corrimiento hacia el rojo de las galaxias, las medidas detalladas del fondo cósmico de microondas, y la abundancia de elementos ligeros. Además, la función de correlación de la estructura a gran escala del Universo encaja con la teoría del Big Bang.

Expansión expresada en la ley de Hubble De la observación de galaxias y quasares lejanos se desprende la idea de que estos objetos experimentan un corrimiento hacia el rojo, lo que quiere decir que la luz que emiten se ha desplazado proporcionalmente hacia longitudes de onda más largas. Esto se comprueba tomando el espectro de los objetos y comparando, después, el patrón espectroscópico de las líneas de emisión o absorción correspondientes a átomos de los elementos que interactúan con la radiación. En este análisis se puede apreciar cierto corrimiento hacia el rojo, lo que se explica por una velocidad recesional correspondiente al efecto Doppler en la radiación. Al representar estas velocidades recesionales frente a las distancias respecto a los objetos, se observa que guardan una relación lineal, conocida como Ley de Hubble:

donde v es la velocidad recesional, D es la distancia al objeto y H es la constante de Hubble, que el satélite WMAP 0 estimó en 71 ± 4 km/s/Mpc.

Radiación cósmica de fondo

Una de las predicciones de la teoría del Big Bang es la existencia de la radiación cósmica de fondo, radiación de fondo de microondas o CMB (Cosmic microwave background). El universo temprano, debido a su alta temperatura, se habría llenado de luz emitida por sus otros componentes. Mientras el universo se enfriaba debido a la expansión, su temperatura habría caído por debajo de 3.000 K. Por encima de esta temperatura, los electrones y protones están separados, haciendo el

universo opaco a la luz. Por debajo de los 3.000 K se Imagen de la radiación de fondo de microondas. forman los átomos, permitiendo el paso de la luz a través del gas del universo. Esto es lo que se conoce como disociación de fotones.

La radiación en este momento habría tenido el espectro del cuerpo negro y habría viajado libremente durante el resto de vida del universo, sufriendo un corrimiento hacia el rojo como consecuencia de la expansión de Hubble. Esto hace variar el espectro del cuerpo negro de 3.345 K a un espectro del cuerpo negro con una temperatura mucho Teoría del Big Bang 99

menor. La radiación, vista desde cualquier punto del universo, parecerá provenir de todas las direcciones en el espacio. En 1965, Arno Penzias y Robert Wilson, mientras desarrollaban una serie de observaciones de diagnóstico con un receptor de microondas propiedad de los Laboratorios Bell, descubrieron la radiación cósmica de fondo. Ello proporcionó una confirmación sustancial de las predicciones generales respecto al CMB —la radiación resultó ser isótropa y constante, con un espectro del cuerpo negro de cerca de 3 K— e inclinó la balanza hacia la hipótesis del Big Bang. Penzias y Wilson recibieron el Premio Nobel por su descubrimiento. En 1989, la NASA lanzó el COBE (Cosmic background Explorer) y los resultados iniciales, proporcionados en 1990, fueron consistentes con las predicciones generales de la teoría del Big Bang acerca de la CMB. El COBE halló una temperatura residual de 2.726 K, y determinó que el CMB era isótropo en torno a una de cada 105 partes. Durante la década de los 90 se investigó más extensamente la anisotropía en el CMB mediante un gran número de experimentos en tierra y, midiendo la distancia angular media (la distancia en el cielo) de las anisotropías, se vio que el universo era geométricamente plano. A principios de 2003 se dieron a conocer los resultados de la Sonda Wilkinson de Anisotropías del fondo de Microondas (en inglés Wilkinson Microwave Anisotropy Probe o WMAP), mejorando los que hasta entonces eran los valores más precisos de algunos parámetros cosmológicos. (Véase también experimentos sobre el fondo cósmico de microondas). Este satélite también refutó varios modelos inflacionistas específicos, pero los resultados eran constantes con la teoría de la inflación en general.

Abundancia de elementos primordiales Se puede calcular, usando la teoría del Big Bang, la concentración de helio-4, helio-3, deuterio y litio-7.1 en el universo como proporciones con respecto a la cantidad de hidrógeno normal, H. Todas las abundancias dependen de un solo parámetro: la razón entre fotones y bariones, que por su parte puede calcularse independientemente a partir de la estructura detallada de la radiación cósmica de fondo. Las proporciones predichas (en masa, no volumen) son de cerca de 0,25 para la razón 4He/H, alrededor de 10-3 para 2He/H, y alrededor de 10-4 para 3He/H. Estas abundancias medidas concuerdan, al menos aproximadamente, con las predichas a partir de un valor determinado de la razón de bariones a fotones, y se considera una prueba sólida en favor del Big Bang, ya que esta teoría es la única explicación conocida para la abundancia relativa de elementos ligeros. De hecho no hay, fuera de la teoría del Big Bang, ninguna otra razón obvia por la que el universo debiera, por ejemplo, tener más o menos helio en proporción al hidrógeno.

Evolución y distribución galáctica Las observaciones detalladas de la morfología y estructura de las galaxias y cuásares proporcionan una fuerte evidencia del Big Bang. La combinación de las observaciones con la teoría sugiere que los primeros cuásares y galaxias se formaron hace alrededor de mil millones de años después del Big Bang, y desde ese momento se han estado formando estructuras más grandes, como los cúmulos de galaxias y los supercúmulos. Las poblaciones de estrellas han ido envejeciendo y evolucionando, de modo que las galaxias lejanas (que se observan tal y como eran en el principio del universo) son muy diferentes a las galaxias cercanas (que se observan en un estado más reciente). Por otro lado, las galaxias formadas hace relativamente poco son muy diferentes a las galaxias que se formaron a distancias similares pero poco después del Big Bang. Estas observaciones son argumentos sólidos en contra de la teoría del estado estacionario. Las observaciones de la formación estelar, la distribución de cuásares y galaxias, y las estructuras más grandes concuerdan con las simulaciones obtenidas sobre la formación de la estructura en el universo a partir del Big Bang, y están ayudando a completar detalles de la teoría. Teoría del Big Bang 100

Otras evidencias Después de cierta controversia, la edad del Universo estimada por la expansión Hubble y la CMB (Radiación cósmica de fondo) concuerda en gran medida (es decir, ligeramente más grande) con las edades de las estrellas más viejas, ambos medidos aplicando la teoría de la evolución estelar de los cúmulos globulares y a través de la fecha radiométrica individual en las estrellas de la segunda Población. En cosmología física, la teoría del Big Bang o teoría de la gran explosión es un modelo científico que trata de explicar el origen del Universo y su desarrollo posterior a partir de una singularidad espaciotemporal. Técnicamente, este modelo se basa en una colección de soluciones de las ecuaciones de la relatividad general, llamados modelos de Friedmann- Lemaître - Robertson - Walker. El término "Big Bang" se utiliza tanto para referirse específicamente al momento en el que se inició la expansión observable del Universo (cuantificada en la ley de Hubble), como en un sentido más general para referirse al paradigma cosmológico que explica el origen y la evolución del mismo.

Problemas comunes Históricamente, han surgido varios problemas dentro de la teoría del Big Bang. Algunos de ellos sólo tienen interés histórico y han sido evitados, ya sea por medio de modificaciones a la teoría o como resultado de observaciones más precisas. Otros aspectos, como el problema de la penumbra en cúspide y el problema de la galaxia enana de materia oscura fría, no se consideran graves, dado que pueden resolverse a través de un perfeccionamiento de la teoría. Existe un pequeño número de proponentes de cosmologías no estándar que piensan que no hubo Big Bang. Afirman que las soluciones a los problemas conocidos del Big Bang contienen modificaciones ad hoc y agregados a la teoría. Las partes más atacadas de la teoría incluyen lo concerniente a la materia oscura, la energía oscura y la inflación cósmica. Cada una de estas características del universo ha sido sugerida mediante observaciones de la radiación de fondo de microondas, la estructura a gran escala del cosmos y las supernovas de tipo IA, pero se encuentran en la frontera de la física moderna (ver problemas no resueltos de la física). Si bien los efectos gravitacionales de materia y energía oscuras son bien conocidos de forma observacional y teórica, todavía no han sido incorporados al modelo estándar de la física de partículas de forma aceptable. Estos aspectos de la cosmología estándar siguen sin tener una explicación adecuada, pero la mayoría de los astrónomos y los físicos aceptan que la concordancia entre la teoría del Big Bang y la evidencia observacional es tan cercana que permite establecer con cierta seguridad casi todos los aspectos básicos de la teoría. Los siguientes son algunos de los problemas y enigmas comunes del Big Bang.

El problema del segundo principio de la termodinámica El problema del segundo principio de la termodinámica resulta del hecho de que de este principio se deduce que la entropía, el desorden, aumenta si se deja al sistema (el universo) seguir su propio rumbo. Una de las consecuencias de la entropía es el aumento en la proporción entre radiación y materia por lo tanto el universo debería terminar en una muerte térmica, una vez que la mayor parte de la materia se convierta en fotones y estos se diluyan en la inmensidad del universo. Otro problema señalado por Roger Penrose es que la entropía parece haber sido anormalmente pequeña en el estado inicial del universo. Penrose evalúa la probabilidad de un estado inicial en aproximadamente: .[3] De acuerdo con Penrose y otros, la teoría cosmológica ordinaria no explica porqué la entropía inicial del universo es tan anormalmente baja, y propone la hipótesis de curvatura de Weil en conexión con ella. De acuerdo con esa hipótesis una teoría cuántica de la gravedad debería dar una explicación tanto del porqué el universo se inició en un estado de curvatura de Weil nula y de una entropía tan baja. Aunque todavía no se ha logrado una teoría de la gravedad cuántica satisfactoria. Por otro lado en la teoría estándar el estado entrópico anormalmente bajo, se considera que es producto de una "gran casualidad" justificada en base al principio antrópico. Postura que Penrose y otros consideran filosóficamente Teoría del Big Bang 101

insatisfactoria.

El problema del horizonte El problema del horizonte, también llamado problema de la causalidad, resulta del hecho de que la información no puede viajar más rápido que la luz, de manera que dos regiones en el espacio separadas por una distancia mayor que la velocidad de la luz multiplicada por la edad del universo no pueden estar causalmente conectadas. En este sentido, la isotropía observada de la radiación de fondo de microondas (CMB) resulta problemática, debido a que el tamaño del horizonte de partículas en ese tiempo corresponde a un tamaño de cerca de dos grados en el cielo. Si el universo hubiera tenido la misma historia de expansión desde la época de Planck, no habría mecanismo que pudiera hacer que estas regiones tuvieran la misma temperatura. Esta aparente inconsistencia se resuelve con la teoría inflacionista, según la cual un campo de energía escalar isótropo domina el universo al transcurrir un tiempo de Planck luego de la época de Planck. Durante la inflación, el universo sufre una expansión exponencial, y regiones que se afectan mutuamente se expanden más allá de sus respectivos horizontes. El principio de incertidumbre de Heisenberg predice que durante la fase inflacionista habrá fluctuaciones primordiales, que se simplificarán hasta la escala cósmica. Estas fluctuaciones sirven de semilla para toda la estructura actual del universo. Al pasar la inflación, el universo se expande siguiendo la ley de Hubble, y las regiones que estaban demasiado lejos para afectarse mutuamente vuelven al horizonte. Esto explica la isotropía observada de la CMB. La inflación predice que las fluctuaciones primordiales son casi invariantes según la escala y que tienen una distribución normal o gaussiana, lo cual ha sido confirmado con precisión por medidas de la CMB. En 2003 apareció otra teoría para resolver este problema, la velocidad variante de la luz de João Magueijo, que aunque a la larga contradice la relatividad de Einstein usa su ecuación incluyendo la constante cosmológica para resolver el problema de una forma muy eficaz que también ayuda a solucionar el problema de la planitud.

El problema de la planitud El problema de la planitud (flatness problem en inglés) es un problema observacional que resulta de las consecuencias que la métrica de Friedmann-Lemaître-Robertson-Walker tiene para con la geometría del universo. En general, se considera que existen tres tipos de geometrías posibles para nuestro universo según su curvatura espacial: geometría elíptica (curvatura positiva), geometría hiperbólica (negativa) y geometría euclidiana o plana (curvatura nula). Dicha geometría viene determinada por la cantidad total de densidad de energía del universo (medida mediante el tensor de tensión-energía). Siendo Ω el cociente entre la densidad de energía ρ medida observacionalmente y la densidad crítica ρ , se tiene que para cada geometría las relaciones entre ambos parámetros han de ser : c

La densidad en el presente es muy cercana a la densidad crítica, o lo que es lo mismo, el universo hoy es espacialmente plano, dentro de una buena aproximación. Sin embargo, las diferencias con respecto a la densidad crítica crecen con el tiempo, luego en el pasado la densidad tuvo que ser aún más cercana a esta. Se ha medido que en los primeros momentos del universo la densidad era diferente a la crítica tan sólo en una parte en 1015 (una milbillonésima parte). Cualquier desviación mayor hubiese conducido a una muerte térmica o un Big Crunch y el universo no sería como ahora. Una solución a este problema viene de nuevo de la teoría inflacionaria. Durante el periodo inflacionario el espacio-tiempo se expandió tan rápido que provocó una especie de estiramiento del universo acabando con cualquier curvatura residual que pudiese haber. Así la inflación pudo hacer al universo plano. Teoría del Big Bang 102

Edad de los cúmulos globulares A mediados de los años 90, las observaciones realizadas de los cúmulos globulares parecían no concondar con la Teoría del Big Bang. Las simulaciones realizadas por ordenador de acuerdo con las observaciones de las poblaciones estelares de cúmulos de galaxias sugirieron una edad de cerca de 15.000 millones de años, lo que entraba en conflicto con la edad del universo, estimada en 13.700 millones de años. El problema quedó resuelto a finales de esa década, cuando las nuevas simulaciones realizadas, que incluían los efectos de la pérdida de masa debida a los vientos estelares, indicaron que los cúmulos globulares eran mucho más jóvenes. Quedan aún en el aire algunas preguntas en cuanto a con qué exactitud se miden las edades de los cúmulos, pero está claro que éstos son algunos de los objetos más antiguos del universo.

Monopolos magnéticos La objeción de los monopolos magnéticos fue propuesta a finales de la década de 1970. Las teorías de la gran unificación predicen defectos topológicos en el espacio que se manifestarían como monopolos magnéticos encontrándose en el espacio con una densidad mucho mayor a la observada. De hecho, hasta ahora, no se ha dado con ningún monopolo. Este problema también queda resuelto mediante la inflación cósmica, dado que ésta elimina todos los puntos defectuosos del universo observable de la misma forma que conduce la geometría hacia su forma plana. Es posible que aún así pueda haber monopolos pero se ha calculado que apenas si habría uno por cada universo visible, una cantidad ínfima y no observable en todo caso.

Materia oscura En las diversas observaciones realizadas durante las décadas de los 70 y 80 (sobre todo las de las curvas de rotación de las galaxias) se mostró que no había suficiente materia visible en el universo para explicar la intensidad aparente de las fuerzas gravitacionales que se dan en y entre las galaxias. Esto condujo a la idea de que hasta un 90% de la materia en el universo no es materia común o bariónica sino materia oscura. Además, la asunción de que el universo estuviera compuesto en su mayor parte por materia común llevó a predicciones que eran fuertemente inconsistentes con las observaciones. En particular, el universo es mucho menos "inhomogéneo" y contiene mucho menos deuterio de lo que se puede considerar sin la presencia de materia oscura. Mientras que la existencia de la materia oscura era inicialmente polémica, ahora es una parte aceptada de la cosmología estándar, debido a las observaciones de las anisotropías en el CMB, dispersión de velocidades de los cúmulos de galaxias, y en las estructuras a gran escala, estudios de las lentes gravitacionales y medidas por medio de rayos x de los cúmulos de galaxias. La materia oscura se ha detectado únicamente a través de su huella gravitacional; no se ha observado en el laboratorio ninguna partícula que se le pueda corresponder. Sin embargo, hay muchos candidatos a materia oscura en física de partículas (como, por ejemplo, las partículas pesadas y neutras de interacción débil o WIMP (Weak Interactive Massive Particles), y se están llevando a cabo diversos proyectos para detectarla.

Energía oscura En los años 90, medidas detalladas de la densidad de masa del universo revelaron que ésta sumaba en torno al 30% de la densidad crítica. Puesto que el universo es plano, como indican las medidas del fondo cósmico de microondas, quedaba un 70% de densidad de energía sin contar. Este misterio aparece ahora conectado con otro: las mediciones independientes de las supernovas de tipo Ia han revelado que la expansión del universo experimenta una aceleración de tipo no lineal, en vez de seguir estrictamente la Ley de Hubble. Para explicar esta aceleración, la relatividad general necesita que gran parte del universo consista en un componente energético con gran presión negativa. Se cree que esta energía oscura constituye ese 70% restante. Su naturaleza sigue siendo uno de los grandes misterios del Big Bang. Los candidatos posibles incluyen una constante cosmológica escalar y una quintaesencia. Actualmente se están realizando observaciones que podrían ayudar a aclarar este punto. Teoría del Big Bang 103

El futuro de acuerdo con la teoría del Big Bang Antes de las observaciones de la energía oscura, los cosmólogos consideraron dos posibles escenarios para el futuro del universo. Si la densidad de masa del Universo se encuentra sobre la densidad crítica, entonces el Universo alcanzaría un tamaño máximo y luego comenzaría a colapsarse. Éste se haría más denso y más caliente nuevamente, terminando en un estado similar al estado en el cual empezó en un proceso llamado Big Crunch. Por otro lado, si la densidad en el Universo es igual o menor a la densidad crítica, la expansión disminuiría su velocidad, pero nunca se detendría. La formación de estrellas cesaría mientras el Universo en crecimiento se haría menos denso cada vez. El promedio de la temperatura del universo podría acercarse asintóticamente al cero absoluto (0 K ó -273,15 °C). Los agujeros negros se evaporarían por efecto de la radiación de Hawking. La entropía del universo se incrementaría hasta el punto en que ninguna forma de energía podría ser extraída de él, un escenario conocido como muerte térmica. Más aún, si existe la descomposición del protón, proceso por el cual un protón decaería a partículas menos masivas emitiendo radiación en el proceso, entonces todo el hidrógeno, la forma predominante del materia bariónica en el universo actual, desaparecería a muy largo plazo, dejando solo radiación. Las observaciones modernas de la expansión acelerada implican que cada vez una mayor parte del universo visible en la actualidad quedará más allá de nuestro horizonte de sucesos y fuera de contacto. Se desconoce cuál sería el resultado de este evento. El modelo Lambda-CMD del universo contiene energía oscura en la forma de una constante cosmológica (de alguna manera similar a la que había incluido Einstein en su primera versión de las ecuaciones de campo). Esta teoría sugiere que sólo los sistemas mantenidos gravitacionalmente, como las galaxias, se mantendrían juntos, y ellos también estarían sujetos a la muerte térmica a medida que el universo se enfriase y expandiese. Otras explicaciones de la energía oscura-llamadas teorías de la energía fantasma sugieren que los cúmulos de galaxias y finalmente las galaxias mismas se desgarrarán por la eterna expansión del universo, en el llamado Big Rip. Véase también: Destino último del universo

Física especulativa más allá del Big Bang A pesar de que el modelo del Big Bang se encuentra bien establecido en la cosmología, es probable que se redefina en el futuro. Se tiene muy poco conocimiento sobre el universo más temprano, durante el cual se postula que ocurrió la inflación. También es posible que en esta teoría existan porciones del Universo mucho más allá de lo que es observable en principio. En la teoría de la inflación, esto es un requisito: La expansión exponencial ha empujado grandes regiones del espacio más allá de nuestro horizonte observable. Puede ser posible deducir qué ocurrió cuando tengamos un mejor entendimiento de la física a altas energías. Las especulaciones hechas al respecto, por lo general involucran teorías de gravedad cuántica. Algunas propuestas son: • Inflación caótica. • Cosmología de branas, incluyendo el modelo ekpirótico, en el cual el Big Bang es el resultado de una colisión entre membranas. • Un universo oscilante en el cual el estado primitivo denso y caliente del universo temprano deriva del Big Crunch de un universo similar al nuestro. El universo pudo haber atravesado un número infinito de big bangs y big crunchs. El cíclico, una extensión del modelo ekpirótico, es una variación moderna de esa posibilidad. • Modelos que incluyen la condición de contorno de Hartle-Hawking, en la cual totalidad del espacio-tiempo es finito. Algunas posibilidades son compatibles cualitativamente unas con otras. En cada una se encuentran involucradas hipótesis aún no testeadas. Teoría del Big Bang 104

Interpretaciones filosóficas y religiosas Existe un gran número de interpretaciones sobre la teoría del Big Bang que son completamente especulativas o extra-científicas. Algunas de estas ideas tratan de explicar la causa misma del Big Bang (primera causa), y fueron criticadas por algunos filósofos naturalistas por ser solamente nuevas versiones de la creación. Algunas personas creen que la teoría del Big Bang brinda soporte a antiguos enfoques de la creación, como por ejemplo el que se encuentra en el Génesis (ver creacionismo), mientras otros creen que todas las teorías del Big Bang son inconsistentes con las mismas. El Big Bang como teoría científica no se encuentra asociado con ninguna religión. Mientras algunas interpretaciones fundamentalistas de las religiones entran en conflicto con la historia del universo postulada por la teoría del Big Bang, la mayoría de las interpretaciones son liberales. A continuación sigue una lista de varias interpretaciones religiosas de la teoría del Big Bang (que son hasta cierto punto incompatibles con la propia descripción científica del mismo): • En la Biblia cristiana aparecen dos versículos que hablarían del big bang y el big crunch: «Él está sentado sobre el círculo de la tierra, cuyos moradores son como langostas; él extiende los cielos como una cortina, los despliega como una tienda para morar» (Isaías 40.22). «Y todo el ejército de los cielos se disolverá, y se enrollarán los cielos como un libro; y caerá todo su ejército como se cae la hoja de la parra, y como se cae la de la higuera» (Isaías 34.4).[4] • La Iglesia Católica Romana ha aceptado el Big Bang como una descripción del origen del Universo. Se ha sugerido que la teoría del Big Bang es compatible con las vías de santo Tomás de Aquino, en especial con la primera de ellas sobre el movimiento, así como con la quinta. • Algunos estudiantes del Kabbalah, el deísmo y otras fes no antropomórficas, concuerdan con la teoría del Big Bang, conectándola por ejemplo con la teoría de la "retracción divina" (tzimtzum) como es explicado por el judío Moisés Maimónides. • Algunos musulmanes modernos creen que el Corán hace un paralelo con el Big Bang en su relato sobre la creación: «¿No ven los no creyentes que los cielos y la Tierra fueron unidos en una sola unidad de creación, antes de que nosotros los separásemos a la fuerza? Hemos creado todos los seres vivientes a partir del agua» (capítulo 21, versículo 30). El Corán también parece describir un universo en expansión: «Hemos construido el cielo con poder, y lo estamos expandiendo» (52.47). • Algunas ramas teístas del hinduismo, tales como las tradiciones vishnuistas, conciben una teoría de la creación con ejemplos narrados en el tercer canto del Bhagavata Purana (principalmente, en los capítulos 10 y 26), donde se describe un estado primordial se expande mientras el Gran Vishnú observa, transformándose en el estado activo de la suma total de la materia (prakriti). • El budismo posee una concepción del universo en el cual no hay un evento de creación. Sin embargo, no parece ser que la teoría del Big Bang entrara en conflicto con la misma, ya que existen formas de obtener un universo eterno según el paradigma. Cierto número de populares filósofos Zen estuvieron muy interesados, en particular, por el concepto del universo oscilante.

Véase también Teoría del Big Bang 105

• Agujero blanco • Cronología de la cosmología • Singularidad desnuda • Big Bounce • Cronología del Big Bang • Teoría del estado estacionario • Big Crunch • Cosmología • Universo • Big Freeze • Forma del universo • Ylem • Big Rip • Modelo Lambda-CDM • Flujo oscuro • Cosmos

Referencias [1] Michio Kaku, El Universo de Einstein, p. 109.

[2] Eduardo Riaza (2010). La historia del comienzo. Georges Lemaître, padre del Big Bang (http:/ / books. google. com/ books?id=aCyW2N2M9iYC). Encuentro. ISBN 9788499200286. .

[3] R. Penrose, 1996, p.309 (http:/ / www. exactas. org/ modules/ UpDownload/ store_folder/ Otra_Literatura/ Roger. Penrose. -. La. Mente.

Nueva. Del. Emperador. pdf) [4] La conexión del versículo 4 del capítulo 34 del libro de Isaías con el Big Crunch es, por lo menos, dudosa. De la lectura del capítulo se desprende que está hablando de la destrucción definitiva de Edom. En la Biblia es bastante común el lenguaje simbólico y suele utilizarse la expresión cielos como símbolo y sinónimo de gobierno, pues el «cielo» es lo que está encumbrado, en las alturas, como los reyes y las clases dirigentes. Isaías 14:12 describe a la dinastía de Nabucodonosor como semejante a estrella. Menciona en exclamación cómo ha caído del cielo el «resplandeciente hijo del alba». Al derrocar al reino davídico autorizado por Dios,la dinastía babilonia se ensalzó a sí misma hasta los cielos, de donde provenía la autoridad de estos reinos, según el contenido bíblico (Isaías 14: 13, 14). El derrocamiento del reino davídico se refiere a la primera destrucción del Templo y de Jerusalén a manos de los babilonios. El versículo 15 indica que se le hará descender al sheol, en hebreo: tumba.

Bibliografía • Barrow, John D., Las constantes de la naturaleza. Crítica. (2006). ISBN 978-84-8432-684-7 • Green, Brian, El tejido del cosmos. Espacio, tiempo y la textura de la realidad. Crítica. Barcelona (2006). ISBN 978-84-8432-737-0. • Gribbin, John, En busca del Big Bang. Colección "Ciencia hoy". : Ediciones Pirámide, 09/1989. ISBN 84-368-0421-X e ISBN 978-84-368-0421-8. • Hawking, S. W., Historia del tiempo: del Big Bang a los agujeros negros. Barcelona: Círculo de Lectores, 09/1991. ISBN 84-226-2715-9 e ISBN 978-84-226-2715-9.

• http:/ / www. exactas. org/ modules/ UpDownload/ store_folder/ Otra_Literatura/ Roger. Penrose. -. La. Mente.

Nueva. Del. Emperador. pdf • Penrose, Roger, La nueva mente del emperador, Fondo de Cultura Económica, México D.F. (1996). ISBN 978-968-13-4361-3] • Weinberg, Steven, Los tres primeros minutos del universo, Alianza, Madrid (1999). ISBN 978-84-206-6730-0.

Introducciones técnicas • S. Dodelson, Modern Cosmology, Academic Press (2003). Released slightly before the WMAP results, this is the most modern introductory textbook. • E. W. Kolb and M. S. Turner, The Early Universe, Addison-Wesley (1990). This is the classic reference for cosmologists. • P. J. E. Peebles, Principles of Physical Cosmology, Princeton University Press (1993). Peebles' book has a strong historical focus. Teoría del Big Bang 106

Fuentes de primera mano • G. Lemaître, "Un Univers homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extragalactiques" (A homogeneous Universe of constant mass and growing radius accounting for the radial velocity of extragalactic nebulae), Annals of the Scientific Society of Brussels 47A (1927):41—General Relativity implies the universe has to be expanding. Einstein brushed him off in the same year. Lemaître's note was translated in Monthly Notices of the Royal Astronomical Society 91 (1931): 483–490. • G. Lemaître, Nature 128 (1931) suppl.: 704, with a reference to the primeval atom. • R. A. Alpher, H. A. Bethe, G. Gamow, "The Origin of Chemical Elements, "Physical Review 73 (1948), 803. The so-called αβγ paper, in which Alpher and Gamow suggested that the light elements were created by protons capturing neutrons in the hot, dense early universe. Bethe's name was added for symmetry. • G. Gamow, "The Origin of Elements and the Separation of Galaxies," Physical Review 74 (1948), 505. These two 1948 papers of Gamow laid the foundation for our present understanding of big-bang nucleosynthesis. • G. Gamow, Nature 162 (1948), 680. • R. A. Alpher, "A Neutron-Capture Theory of the Formation and Relative Abundance of the Elements," Physical Review 74 (1948), 1737. • R. A. Alpher and R. Herman, "On the Relative Abundance of the Elements," Physical Review 74 (1948), 1577. This paper contains the first estimate of the present temperature of the universe. • R. A. Alpher, R. Herman, and G. Gamow Nature 162 (1948), 774. • A. A. Penzias and R. W. Wilson, "A Measurement of Excess Antenna Temperature at 4080 Mc/s," Astrophysical Journal 142 (1965), 419. The paper describing the discovery of the cosmic microwave background. • R. H. Dicke, P. J. E. Peebles, P. G. Roll and D. T. Wilkinson, "Cosmic Black-Body Radiation," Astrophysical Journal 142 (1965), 414. The theoretical interpretation of Penzias and Wilson's discovery. • A. D. Sakharov, "Violation of CP invariance, C asymmetry and baryon asymmetry of the universe," Pisma Zh. Eksp. Teor. Fiz. 5, 32 (1967), translated in JETP Lett. 5, 24 (1967). • R. A. Alpher and R. Herman, "Reflections on early work on 'big bang' cosmology" Physics Today Aug 1988 24–34. A review article.

Religión y filosofía • Jean-Marc Rouvière, Brèves méditations sur la création du monde, Ed. L'Harmattan, París, 2006. • Leeming, David Adams, and Margaret Adams Leeming, A Dictionary of Creation Myths. Oxford University Press (1995), ISBN 0-19-510275-4. • Pío XII (1952), "Modern Science and the Existence of God," The Catholic Mind 49:182–192.

Artículos de investigación

La mayoría de los artículos científicos sobre cosmología están disponibles como preimpresos en (http:/ / arxiv. org/

arxiv. org). Generalmente son muy técnicos, pero algunas veces tienen una introducción clara en inglés. Los archivos

más relevantes, que cubren experimentos y teoría están el el archivo de astrofísica (http:/ / arxiv. org/ archive/ astro-ph), donde se ponen a disposición artículos estrechamente basados en observaciones, y el archivo de relatividad

general y cosmología cuántica (http:/ / arxiv. org/ archive/ gr-qc), el cual cubre terreno más especulativo. Los artículos de interés para los cosmólogos también aparecen con frecuencia en el archivo sobre Fenómenos de alta

energía (http:/ / arxiv. org/ archive/ hep-th) y sobre teoría de alta energía (http:/ / arxiv. org/ archive/ hep-th). Teoría del Big Bang 107

Enlaces externos

• Wikcionario tiene definiciones para Big Bang.Wikcionario • Wikiquote alberga frases célebres de o sobre Teoría del Big Bang. Wikiquote

• Wikimedia Commons alberga contenido multimedia sobre Teoría del Big Bang. Commons

• Juego del Big Bang 2.0 (http:/ / www. bigbang. cat/ es/ ) Museo Nacional de la Ciencia y de la Técnica de Cataluña.

• Modelo Cosmológico Estándar (http:/ / simplementeeluniverso. vndv. com/ index. php?urliframe=vp002-001a.

php?fn_mode=comments& fn_id=5)

• Open Directory Project: Cosmology (http:/ / www. dmoz. org/ Science/ Astronomy/ Cosmology/ )

• PBS.org, "From the Big Bang to the End of the Universe. The Mysteries of Deep Space Timeline" (http:/ / www.

pbs. org/ deepspace/ timeline/ )

• "Welcome to the History of the Universe" (http:/ / www. historyoftheuniverse. com/ ). Penny Press Ltd.

• Cambridge University Cosmology, " The Hot Big Bang Model (http:/ / www. damtp. cam. ac. uk/ user/ gr/ public/

bb_home. html)". Includes a discussion of the problems with the Big Bang.

• Smithsonian Institution, " Universe! - The Big Bang and what came before (http:/ / cfa-www. harvard. edu/

seuforum/ bigbanglanding. htm)". • D'Agnese, Joseph, " The last Big Bang man left standing, physicist Ralph Alpher devised Big Bang Theory of

universe (http:/ / www. findarticles. com/ p/ articles/ mi_m1511/ is_7_20/ ai_55030837)". Discover, July 1999.

• Felder, Gary, " The Expanding Universe (http:/ / www. ncsu. edu/ felder-public/ kenny/ papers/ cosmo. html)".

• LaRocco, Chris and Blair Rothstein, "The Big Bang: It sure was Big!!" (http:/ / www. umich. edu/ ~gs265/

bigbang. htm). • Mather, John C., and John Boslough 1996, The very first light: the true inside story of the scientific journey back to the dawn of the universe. ISBN 0-465-01575-1 p.300

• Shestople, Paul, " "Big Bang Primer" (http:/ / cosmology. berkeley. edu/ Education/ IUP/ Big_Bang_Primer. html). • Singh, Simon, Big Bang: the origin of the universe, Fourth Estate (2005). A historical review of the Big Bang.

• Wright, Edward L., "Brief History of the Universe" (http:/ / www. astro. ucla. edu/ ~wright/ BBhistory. html).

• Ciertos científicos escriben acerca del Big Bang (http:/ / www. cosmologystatement. org).

• Grant, Ted; Woods, Alan, "El big bang" (http:/ / engels. org/ libr/ razon/ raz_2_9a. htm) , capítulo del libro Razón

y Revolución (http:/ / engels. org/ libr/ razon/ raz_0. htm), Fundación Federico Engels. Singularidad espaciotemporal 108 Singularidad espaciotemporal

Una singularidad, de modo informal y desde un punto de vista físico, puede definirse como una zona del espacio-tiempo donde no se puede definir alguna magnitud física relacionada con los campos gravitatorios, tales como la curvatura, u otras. Numerosos ejemplos de singularidades aparecen en situaciones realistas en el marco de la Relatividad General en soluciones de las ecuaciones de Einstein,[1] entre los que cabe citar la descripción de agujeros negros (como puede ser la métrica de Schwarzschild) o a la descripción del origen del universo (métrica de Robertson-Walker). Desde el punto de vista matemático, adoptar una definición de singularidad puede ser complicado,[2]pues si pensamos en puntos en que el tensor métrico no está definido o no es diferenciable, estaremos hablando de puntos que automáticamente no pertenecen al espacio-tiempo. Para definir una singularidad deberemos buscar las huellas que estos puntos excluidos dejan en el tejido del espaciotiempo. Podemos pensar en varios tipos de comportamientos extraños:[3] • Geodésicas temporales (o nulas) que tras un tiempo propio (o parámetro afín) no pueden prolongarse (lo que se llama incompletitud de geodésicas causales). • Valores de curvatura que se hacen arbitrariamente grandes cerca del punto excluido (lo que se denomina singularidad de curvatura).

Tipos de singularidades Las singularidades pueden ser, en sus aspectos más generales; • De coordenadas. Son el resultado de haber escogido un mal sistema de coordenadas. Algunas de estas singularidades de coordenadas sí que indican lugares físicos que sí son especiales. Por ejemplo en la métrica de Schwarzschild, la singularidad de coordenadas en representa el horizonte de sucesos. • Físicas. Son singularidades espaciotemporales de pleno derecho. Se diferencia en las de coordenadas porque en algunas de las contracciones del tensor de curvatura, éste diverge ( , , etc.) Geométricamente las singularidades físicas pueden ser: • Hipersuperficies abiertas: Este tipo de singularidad podemos encontrarlas en agujeros negros que no han conservado el momento angular como es el caso de un agujero negro de Schwarzschild o un agujero negro de Reissner-Nordstrøm. • Hipersuperficies cerradas: Como la singularidad toroidal o en forma de anillo, que normalmente hace su aparición en agujeros negros que han conservado su momento angular, como puede ser el caso de un agujero negro de Kerr o un agujero negro de Kerr-Newman, aquí la materia, debido al giro, deja un espacio al medio formando una estructura parecida a la de una rosquilla. Según su carácter las singularidades físicas pueden ser: • Singularidades temporales, como la que se encuentra en un agujero de Schwarzschild en la que una partícula deja de existir por cierto instante de tiempo; dependiendo de su velocidad, las partículas rápidas tardan más en alcanzar la singularidad mientras que las más lentas desaparecen antes. Este tipo de singularidad son inevitables, ya que tarde o temprano todas las partículas deben atravesar la hipersuperficie temporal singular. • Singularidades espaciales, como la que se encuentra en agujeros de Reissner-Nordstrom, Kerr y Kerr-Newman. Al ser hipersuperficies espaciales una partícula puede escapar de ellas y por tanto se trata de singularidades evitables. Según la visibilidad para observadores asintóticamente inerciales alejados de la región de agujero negro (espacio-tiempo de Minkowski) éstas pueden ser: Singularidad espaciotemporal 109

• Singularidades desnudas: existen casos en los agujeros negros donde debido a altas cargas o velocidades de giro, la zona que rodea a la singularidad desaparece (en otras palabras el horizonte de sucesos) dejando a ésta visible en el universo que conocemos. Se supone que este caso está prohibido por la regla del censor cósmico, que establece que toda singularidad debe estar separada del espacio. • Singularidades dentro de agujeros negros. Dicho de otro modo, la materia se comprime hasta ocupar una región inimaginablemente pequeña o singular, cuya densidad en su interior resulta infinita. Es decir que todo aquello que cae dentro del horizonte de sucesos es tragado, devorado por un punto que podríamos denominar "sin retorno", y esto es tan así que ni la luz puede escapar a este fenómeno celeste. No puede escapar porque la fuerza de la gravedad es tan grande que ni siquiera la luz viajando a 300.000 km/s lo consigue. Y según la teoría de la Relatividad de Einstein, como nada puede viajar a una velocidad mayor que la de la luz, nada puede escapar.

Teoremas de singularidades Los teoremas sobre singularidades, debidos a Stephen Hawking y Roger Penrose, predicen la ocurrencia de singularidades bajo condiciones muy generales sobre la forma y características del espacio-tiempo.[4]

Expansión del universo y Big Bang El primero de los teoremas, que se enuncia a continuación, parece aplicable a nuestro universo; informalmente afirma que si tenemos un espacio-tiempo globalmente hiperbólico en expansión, entonces el universo empezó a existir a partir de una singularidad (Big Bang) hace un tiempo finito:

Teorema 1. Sea (M,g) un espacio tiempo globalmente hiperbólico que cumple para todos los vectores temporales (tal como sucedería si las ecuaciones de campo de Einstein se satisface cumpliéndose la condición fuerte de la energía para la materia). Supongamos que existe una hipersuperficie de Cauchy espacial Σ (y de clase al menos C²) para la cual la traza de la curvatura intrínseca satisface K < C < 0, donde C es una cierta constante. Entonces ninguna curva temporal partiendo de Σ y dirigida hacia el pasado puede tener una longitud mayor que . En particular, todas las geodésicas temporales hacia el pasado son incompletas.

El teorema anterior por tanto es el enunciado matemático que bajo las condiciones observadas en nuestro universo, en el que es válida la ley de Hubble, y admitiendo la validez de la teoría de la Relatividad general el universo debió empezar en algún momento.

Agujeros negros y singularidades El siguiente teorema relaciona la ocurrencia de "superficies atrapadas" con la presencia de singularidades. Puesto que en un agujero negro de Schwarzschild, y presumible agujeros con geometrías similares, ocurren superficies atrapadas, el siguiente teorema predice la ocurrencia de singularidades en el interior de una clase muy amplia de agujeros negros. Una superficie atrapada una variedad riemanniana de dos dimensiones compacta que tiene la propiedad de que tanto su futuro causal como su pasado causal tiene en todo punto una expansión negativa. No es complicado probar que cualquier esfera, de hecho cualquier superficie cerrada contenida en una esfera, dentro de la región de agujero negro de un espacio-tiempo de Schwarzschild es una superficie atrapada, y por tanto en dicha región debe aparecer una singularidad. El enunciado de este teorema, debido a Roger Penrose (1965), es el siguiente:

Teorema 2. Sea (M,g) un espacio-tiempo globalmente hiperbólico en el que para todos los vectores de tipo luz (tal como sucedería si las ecuaciones de campo de Einstein se satisface cumpliéndose la condición fuerte o la condición débil de la energía, para la materia de dicho espacio-tiempo). Supongamos que existe una hipersuperficie de Cauchy espacial Σ (y de clase al menos C²) y una superficie atrapada y sea θ el valor máximo de la expansión sobre ella, si θ < 0; entonces existe al menos una geodésica de tipo luz, 0 0 inextendible hacia el futuro, que además será ortogonal a la superficie atrapada. Además el valor de parámetro afín hasta el punto a partir del cual no es extensible es inferior a .

La existencia de una geodésica de tipo luz inextensible, implica que existirá un fotón que saliendo de dicha superficie tras un tiempo de viaje proporcional a 2/c|θ | se topará con una singularidad temporal futura. Aunque 0 Singularidad espaciotemporal 110

desconocemos la naturaleza física real de las singularidades por carecer de una teoría cuántica de la gravedad el fotón o bien "desaparecerá" o bien experimentará algún fenómeno asociado a dicha teoría de la gravedad cuántica cuya naturaleza desconocemos. Para la cual, la traza de la curvatura intrínseca satisface K < C < 0, donde C es una cierta constante. Entonces ninguna curva temporal partiendo de Σ y dirigida hacia el pasado puede tener una longitud mayor que 3/|C|. En particular, todas las geodésicas temporales hacia el pasado son incompletas.

Conservación del área de agujero negro Aunque sin ser estrictamente teoremas de singularidades existen una colección de resultados probados por Hawking (1971) que establecen que, en el marco de la teoría general de la relatividad: • Un agujero negro conexo no puede desaparecer o dividirse en dos. Por tanto si dos agujeros negros colisionaran, tras su interacción necesariamente quedarían fusionados. • El área total de agujeros negros del universo es una función monótona creciente, más concretamente el área del horizonte de sucesos de dos agujeros en colisión es mayor o igual que la suma de áreas originales. • La evolución temporal de una superificie atrapada en una región de agujero negro, quedará por siempre contenida en dicho agujero negro. Los teoremas anteriores son importantes porque garantizan, que aún en situaciones reales donde los cálculos exactos resultan complicados o imposibles, las propiedades topológicas de un espacio-tiempo que contiene agujeros negros garantizan ciertos hechos, por complicada que sea la geometría. Naturalmente sabemos que en una teoría cuántica de la gravedad los dos primeros resultados, probablemente no se mantienen. El propio Hawking sugirió que la emisión de radiación Hawking es un proceso mecano-cuántico a través del cual un agujero negro podría perder área o evaporarse; por lo que, los resultados anteriores son sólo las predicciones de la teoría general de la relatividad.

Ocurrencia de singularidades La descripción del espacio-tiempo y de la materia que hace la teoría de la relatividad general de Einstein no puede describir adecuadamente las singularidades. De hecho, la teoría general de la relatividad sólo da una descripción adecuada de la gravitación y espacio-tiempo a escalas mayores que la longitud de Planck l : P

Donde: es la constante de Planck reducida, constante de gravitación universal, es la velocidad de la luz. De ese límite cuántico se debe esperar que igualmente la teoría de la relatividad deje de ser adecuada cuando predice una curvatura espacial del orden de l -2 cosa que sucede muy cerca de las singularidades de curvatura como las P existentes dentro de los diversos tipos de agujeros negros. Singularidad espaciotemporal 111

Referencias

[1] Artículo spacetime singularities en Einstein online (http:/ / www. aei. mpg. de/ einsteinOnline/ en/ spotlights/ singularities/ index. html) [2] Geroch, R. What is a singulariry in General relativity? Annals of Physics 48, 526-40, 1968. [3] Wald. R.M. General Relativity. the University of Chicago Press, 1984. ISBN 0-226-87033-2. (cap. 9) [4] Senovilla,J.M. Singularity Theorems and their consecuences. General Relativity and Gravitation, Vol. 29, No. 5, 1997. (Amplio review)

Véase también • Anexo:Glosario de relatividad • Diagrama de Penrose-Carter

Ecuaciones del campo de Einstein

En física, las ecuaciones del campo de Einstein o las ecuaciones de Einstein son las ecuaciones fundamentales de la descripción relativista de la gravitación, que forman parte de la teoría de la relatividad general. Dentro de esa teoría el campo gravitatorio es el efecto aparente de la existencia de una curvatura en el espacio-tiempo.

Las ecuaciones de campo de Einstein relacionan la presencia de materia con la curvatura del espacio-tiempo. Más exactamente cuanto mayor sea la

concentración de materia, representada por el tensor de Representación de la curvatura dada por la ecuación de campo de energía-impulso, tanto mayores serán las componentes Einstein sobre el plano de la eclíptica de una estrella esférica: Dicha del tensor de curvatura de Ricci. ecuación relaciona la presencia de materia con la curvatura adquirida por el espacio-tiempo. En el límite clásico no-relativista, esto es, a velocidades pequeñas comparadas con la luz y campos gravitacionales relativamente débiles, las ecuaciones del campo de Einstein se reducen a la ecuación de Poisson para el campo gravitatorio que es equivalente a la ley de gravitación de Newton.

Forma matemática de las ecuaciones del campo de Einstein

En las ecuaciones de campo de Einstein, la gravedad se da en términos de un tensor métrico, una cantidad que describe las propiedades geométricas del espacio-tiempo tetradimensional y a partir de la cual se puede calcular la curvatura. En la misma ecuación, la materia es descrita por su tensor de tensión-energía, una cantidad que contiene la densidad y la presión de la materia. Estos tensores son tensores simétricos de 4 X 4, de modo que tienen 10 componentes independientes. Dada la libertad de elección de las cuatro coordenadas del espacio-tiempo, las ecuaciones independientes se reducen a 6. La fuerza de acoplamiento entre la materia y la gravedad es determinada por la constante gravitatoria universal.

Para cada punto del espacio-tiempo, la ecuación del campo de Einstein describe cómo el espacio-tiempo se curva por la materia y tiene la forma de una igualdad local entre un tensor de curvatura para el punto y un tensor que describe la distribución de materia alrededor del punto:

donde: Ecuaciones del campo de Einstein 112

es el tensor de curvatura de Einstein, que se forma a partir de derivadas segundas del tensor métrico es el tensor de tensión-energía. , es el número π , es la la velocidad de la luz , es la constante de la gravitación universal. Esa ecuación se cumple para cada punto del espacio-tiempo, El tensor de la curvatura de Einstein se puede escribir como

donde: , es el tensor de curvatura de Ricci es el escalar de curvatura de Ricci es la constante cosmológica. La ecuación del campo por lo tanto también puede darse como sigue:

es un tensor simétrico 4 x 4, así que tiene 10 componentes independientes. Dado la libertad de elección de las cuatro coordenadas del espacio-tiempo, las ecuaciones independientes se reducen en número a 6. Estas ecuaciones son la base de la formulación matemática de la relatividad general. Nótese que cosiderando la contracción sobre los dos índices de la última relación se encuentra que el escalar de curvatura se relaciona con la traza del tensor energía impulso y la constante cosmológica mendiante:

Esa relación permite escribir equivalentemente las ecuaciones de campo como:

Interpretación geométrica de la Ecuación de Einstein La ecuación de Einstein implica que para cada observador, la curvatura escalar del espacio es proporcional a la densidad aparente :

donde c = 3 × 1010 [cm s-1] es la velocidad de la luz G = 6,67 × 10-8 [cm3 s-2 g-1] es la constante de la gravitación universal. De acuerdo con el significado geométrico de la curvatura escalar, esta igualdad afirma que en una esfera de masa M y densidad constante, el exceso radial (la diferencia entre el radio real y el radio que le correspondería en la geometría euclídea a una esfera de igual área) es igual a

Por ejemplo, en el caso de la Tierra el exceso radial es de 0,15cm y en el caso del Sol es de unos 500 metros. Es asombroso que esta ecuación, que introduce mínimas correcciones en las fórmulas de la geometría euclídea, recoja casi todas las ecuaciones conocidas de la física macroscópica. En efecto, cuando la velocidad de la luz c tiende a infinito, de ella se derivan ley de gravitación universal de Newton, la Ecuación de Poisson y, por tanto, el Ecuaciones del campo de Einstein 113

carácter atractivo de las fuerzas gravitatorias, las ecuaciones de la mecánica de fluidos (ecuación de continuidad y ecuaciones de Euler), las leyes de conservación de la masa y el momento, el carácter euclídeo del espacio, etc. Igualmente se derivan todas la leyes de conservación relativistas, y que la existencia de campos gravitatorios y de masa sólo es posible cuando el espacio tiene dimensión mayor que 2. Más aún, si se supone que el espacio tiene dimensión 4 (las tres que vemos diariamente más una pequeñísima dimensión circular extra, aproximadamente del tamaño de la llamada longitud de Planck cm) de la ecuación de Einstein se deducen la teoría clásica del electromagnetismo: las Ecuaciones de Maxwell y, por tanto, la Ley de Coulomb, la Conservación de la carga eléctrica y la ley de Lorentz.

Límite clásico En el límite clásico la única componente no nula del tensor de Ricci es la componente temporal . Para obtener el límite clásico debe suponerse que el potencial gravitatorio es muy pequeño en relación al cuadrado de la velocidad de la luz y a continuación debe tomarse el límite de las ecuaciones cuando la velocidad de la luz tiende a infinito, haciendo esas manipulaciones se obtiene que las ecuaciones de campo de Einstein para el campo gravitatorio se reducen a la ecuación diferencial de Poisson para el potencial gravitorio. Suponiendo que para campos gravitatorios débiles la métrica del espacio tiempo puede escribirse como una perturbación de la métrica de Minkowski:

La componente temporal del tensor de Ricci resulta ser:

La última expresión es precisamente la ecuación de Poisson que es la expresión clásica que relaciona el potencial gravitatorio con la densidad de materia.

Soluciones de la ecuación del campo de Einstein Una solución de la ecuación del campo de Einstein es cierta métrica apropiada para la distribución dada de la masa y de la presión de la materia. Algunas soluciones para una situación física dada son como sigue.

Distribución de masa esférica simétrica y estática

La solución para el vacío alrededor de una distribución de masa esférica simétrica, estática, es la métrica de Schwarzschild y la métrica de Kruskal-Szekeres. Se aplica a una estrella y conduce a la predicción de un horizonte de sucesos más allá del cual no se puede observar. Predice la posible existencia de un agujero negro de masa dada del que no puede ser extraída ninguna energía, en el sentido clásico del término (i.e. no mecánico-cuántico).

Véanse también: Radio de Schwarzschild y Agujero negro de Schwarzschild Ecuaciones del campo de Einstein 114

Masa de simetría axial en rotación La solución para el espacio vacío alrededor de una distribución de masa de simetría axial en rotación es la métrica de Kerr. Se aplica a una estrella que rota y conduce a la predicción de la existencia posible de un agujero negro en rotación de masa dada y momento angular , del cual la energía rotatoria puede ser extraída. Véase también: Agujero negro de Kerr

Universo isótropo y homogéneo (o uniforme) La solución para un Universo isótropo y homogéneo, lleno con una densidad constante y de una presión insignificante, es la métrica de Robertson-Walker. Se aplica al Universo en su totalidad y conduce a diversos modelos de su evolución que predicen un Universo en expansión. Véanse también: Friedman-Lemaître-Robertson-Walker y Aceleración de la expansión del Universo

Referencia

Notas

Bibliografía • Robert M. Wald, General Relativity, Chicago University Press, ISBN 0-226-87033-2.

Relatividad general

Algunas partes de este artículo pueden resultar complicadas, en ese caso se recomienda Introducción a la relatividad general La teoría general de la relatividad o relatividad general es una teoría del campo gravitatorio y de los sistemas de referencia generales, publicada por Albert Einstein en 1915 y 1916. El nombre de la teoría se debe a que generaliza la llamada teoría especial de la relatividad. Los principios fundamentales introducidos en esta generalización son el Principio de equivalencia, que describe la aceleración y la gravedad como aspectos distintos de la misma realidad, la noción de la curvatura del espacio-tiempo y el principio de covariancia generalizado.

La intuición básica de Einstein fue postular que en un punto concreto no se puede distinguir experimentalmente entre un cuerpo acelerado uniformemente y un campo gravitatorio uniforme. La Representación artística de la explosión de la supernova SN 2006gy, situada a 238 millones de años luz. De ser válido el principio de teoría general de la relatividad permitió también acción a distancia, las perturbaciones de origen gravitatorio de este reformular el campo de la cosmología. estallido nos afectarían inmediatamente, más tarde nos llegarían las de origen electromagnético, que se transmiten a la velocidad de la luz. Relatividad general 115

Historia Poco después de la publicación de la teoría de la relatividad en 1905, Albert Einstein comenzó a pensar en cómo incorporar la gravedad en su nuevo marco relativista. En 1907, comenzando con un sencillo experimento mental basado en un observador en caída libre, se embarcó en lo que sería una búsqueda de ocho años de una teoría relativista de la gravedad. Después de numerosos desvíos y falsos comienzos, su trabajo culminó en noviembre de 1915 con la presentación a la Academia Prusiana de Ciencias de lo que hoy son conocidas como las ecuaciones de campo de Einstein. Estas ecuaciones especifican cómo la geometría del espacio y el tiempo está influenciado por la materia presente, y forman el núcleo de la teoría de la relatividad general de Einstein. Las ecuaciones de campo de Einstein son no lineales y muy difíciles de resolver. Einstein utilizó los métodos de aproximación en la elaboración de las predicciones iniciales de la teoría. Pero ya en 1916, el astrofísico Karl Schwarzschild encontró la primera solución exacta no trivial de las ecuaciones de campo de Einstein, la llamada Métrica de Schwarzschild. Esta solución sentó las bases para la descripción de las etapas finales de un colapso gravitacional, y los objetos que hoy conocemos como agujeros negros. En el mismo año, los primeros pasos hacia la generalización de la solución de Schwarzschild a los objetos con carga eléctrica fueron tomadas, que finalmente resultaron en la solución de Reissner-Nordström, ahora asociada con la carga eléctrica de los agujeros negros. En 1917, Einstein aplicó su teoría al universo en su conjunto, iniciando el campo de la cosmología relativista. En línea con el pensamiento contemporáneo, asumió un universo estático, añadiendo un nuevo parámetro a su ámbito original ecuaciones -la constante cosmológica- para reproducir esa "observación". En 1929, sin embargo, el trabajo de Hubble y otros han demostrado que nuestro universo se está expandiendo. Esto es fácilmente descrito por las soluciones encontradas por Friedmann para la expansión cosmológica en 1922, que no requieren de una constante cosmológica. Lemaître utilizó estas soluciones para formular la primera versión de los modelos del Big Bang, en la que nuestro universo ha evolucionado desde un estado anterior extremadamente caliente y denso. Einstein declaró más tarde la constante cosmológica el mayor error de su vida. Durante ese período, la relatividad general se mantuvo como una especie de curiosidad entre las teorías físicas. Fue claramente superior a la gravedad newtoniana, siendo consistente con la relatividad especial y contestaba varios efectos no explicados por la teoría newtoniana. El mismo Einstein había demostrado en 1915 cómo su teoría explica el avance del perihelio anómalo del planeta Mercurio sin ningún parámetro arbitrario. Del mismo modo, en una expedición de 1919 liderada por Eddington confirmaron la predicción de la relatividad general para la desviación de la luz estelar por el Sol durante el eclipse total de Sol del 29 de mayo de 1919, haciendo a Einstein instantáneamente famoso. Sin embargo, la teoría ha entrado en la corriente de la física teórica y la astrofísica sólo con el desarrollo de aproximadamente entre 1960 y 1975, ahora conocido como la edad de oro de la relatividad general. Los físicos empezaron a comprender el concepto de un agujero negro, e identificar la manifestación de objetos astrofísicos como los cuásares. Cada vez más precisas, las pruebas del sistema solar confirmaron el poder predictivo de la teoría, y la cosmología relativista, también se volvió susceptible a encaminar pruebas observacionales.

¿Por qué es necesaria la teoría de relatividad general? Los éxitos explicativos de la teoría de la relatividad especial condujeron a la aceptación de la teoría prácticamente por la totalidad de los físicos. Eso llevó a que antes de la formulación de la relatividad general existieran dos teorías físicas incompatibles: • La teoría especial de la relatividad, covariante en el sentido de Lorentz, que integraba adecuadamente el electromagnetismo, y que descarta explícitamente las acciones instantáneas a distancia. • La teoría de la gravitación de Newton, explícitamente no-covariante, que explicaba de manera adecuada la gravedad mediante acciones instantáneas a distancia (concepto de fuerza a distancia). La necesidad de buscar una teoría que integrase, como casos límites particulares, las dos anteriores requería la búsqueda de una teoría de la gravedad que fuese compatible con los nuevos principios relativistas introducidos por Relatividad general 116

Einstein. Además de incluir la gravitación en una teoría de formulación covariante, hubo otra razón adicional. Einstein había concebido la teoría especial de la relatividad como una teoría aplicable sólo a sistemas de referencia inerciales, aunque realmente puede generalizarse a sistemas acelerados sin necesidad de introducir todo el aparato de la relatividad general. La insatisfacción de Einstein con su creencia de que la teoría era aplicable sólo a sistemas inerciales le llevó a buscar una teoría que proporcionara descripciones físicas adecuadas para un sistema de referencia totalmente general. Esta búsqueda era necesaria, ya que según la relatividad especial ninguna información puede viajar a mayor velocidad que la luz, y por lo tanto no puede existir relación de causalidad entre dos eventos unidos por un intervalo espacial. Sin embargo, uno de los pilares fundamentales de la gravedad newtoniana, el principio de acción a distancia, supone que las alteraciones producidas en el campo gravitatorio se transmiten instantáneamente a través del espacio. La contradicción entre ambas teorías es evidente, puesto que asumir las tesis de Newton llevaría implícita la posibilidad de que un observador fuera afectado por las perturbaciones gravitatorias producidas fuera de su cono de luz. Einstein resolvió este problema interpretando los fenómenos gravitatorios como simples alteraciones de la curvatura del espacio-tiempo producidas por la presencia de masas. De ello se deduce que el campo gravitatorio, al igual que el campo electromagnético, tiene una entidad física independiente y sus variaciones se transmiten a una velocidad finita en forma de ondas gravitacionales. La presencia de masa, energía o momentum en una determinada región de la variedad tetradimensional, provoca la alteración de los coeficientes de la métrica, en una forma cuyos detalles pormenorizados analizaremos en las secciones siguientes. En esta visión, la gravitación sólo sería una pseudo-fuerza (equivalente a la fuerza de Coriolis, o a la fuerza centrífuga) efecto de haber escogido un sistema de referencia no-inercial.

Principios generales Las características esenciales de la teoría de la relatividad general son las siguientes: • El principio general de covariancia: las leyes de la física deben tomar la misma forma matemática en todos los sistemas de coordenadas. • El principio de equivalencia o de invariancia local de Lorentz: las leyes de la relatividad especial (espacio plano de Minkowski) se aplican localmente para todos los observadores inerciales. • La curvatura del espacio-tiempo es lo que observamos como un campo gravitorio, en presencia de materia la geometría del espacio-tiempo no es plana sino curva, una partícula en movimiento libre inercial en el seno de un campo gravitorio sigue una trayectoria geodésica.

Principio de covariancia El principio de covariancia es la generalización de la teoría de la relatividad especial, donde se busca que las leyes físicas tengan la misma forma en todos los sistemas de referencia. Esto último equivale a que todos los sistemas de referencia sean indistinguibles, y desde el punto de vista físico equivalentes. En otras palabras, que cualquiera que sea el movimiento de los observadores, las ecuaciones tendrán la misma forma matemática y contendrán los mismos términos. Ésta fue la principal motivación de Einstein para que estudiara y postulara la relatividad general. El principio de covariancia sugería que las leyes debían escribirse en términos de tensores, cuyas leyes de transformación covariantes y contravariantes podían proporcionar la "invariancia" de forma buscada, satisfaciéndose el principio físico de covariancia. Relatividad general 117

El principio de equivalencia

Un hito fundamental en el desarrollo de la teoría de la relatividad general lo constituyó el principio enunciado por Albert Einstein en el año 1912: principio de equivalencia, al que su autor calificó como «la idea más feliz de mi vida». Dicho principio supone que un sistema que se encuentra en caída libre y otro que se mueve en una región del espacio-tiempo sin gravedad se encuentran en un estado físico sustancialmente similar: en ambos casos se trata de sistemas inerciales.

La mecánica clásica distinguía entre cuerpos de movimiento inercial (en reposo o moviéndose a velocidad constante) o cuerpos de movimiento no inercial (aquellos sometidos a un movimiento Los dos astronautas de la imagen se encuentran en una nave en caída libre. Por ello no experimentan gravedad alguna (su estado se acelerado). En virtud de la segunda ley de Newton, toda describe coloquialmente como de "gravedad cero"). Se dice por ello aceleración estaba causada por la aplicación de una que son observadores inerciales. fuerza exterior. La relación entre fuerza y aceleración se expresaba mediante esta fórmula:

Donde a la aceleración, F la fuerza y m la masa. La fuerza podía ser de origen mecánico, electromagnético o, cómo no, gravitatorio. Según los cálculos de Galieo y de Newton, la aceleración gravitatoria de los cuerpos era constante y equivalía a 9,8 m/s2 sobre la superficie terrestre. La fuerza con la que un cuerpo era atraído hacia el centro de la Tierra se denominaba peso. Evidentemente, según los principios de la mecánica clásica un cuerpo en caída libre no es un sistema inercial, puesto que se mueve aceleradamente dentro del campo gravitatorio en que se encuentra. Sin embargo, la teoría de la relatividad considera que los efectos gravitatorios no son creados por fuerza alguna, sino que encuentran su causa en la curvatura del espacio-tiempo generada por la presencia de materia. Por ello, un cuerpo en caída libre es un sistema (localmente) inercial, ya que no está sometido a ninguna fuerza (porque la gravedad no es como tal en relatividad general). Un observador situado en un sistema inercial (como una nave en órbita) no experimenta ninguna aceleración y es incapaz de discernir si está atravesando o no, un campo gravitatorio. Como consecuencia de ello, las leyes de la física se comportan como si no existiera curvatura gravitatoria alguna. De ahí que el principio de equivalencia también reciba el nombre de Invariancia Local de Lorentz: En los sistemas inerciales rigen los principios y axiomas de la relatividad especial. El principio de equivalencia implica asimismo que los observadores situados en reposo sobre la superficie de la tierra no son sistemas inerciales (experimentan una aceleración de origen gravitatorio de unos 9,8 metros por segundo al cuadrado, es decir, "sienten su peso"). Relatividad general 118

Ejemplos de sistemas inerciales según el Principio de Equivalencia

Sistema ¿Es inercial? ¿Es inercial? (Principio de Equivalencia) (Mecánica newtoniana)

Cuerpo en caída libre Sí No

Cuerpo en reposo sobre la superficie terrestre No Sí

Planeta orbitando alrededor del sol Sí No

Nave precipitándose hacia la tierra Sí No

Cohete despegando desde una base de lanzamiento No No

Aunque la mecánica clásica tiene en cuenta la aceleración medida por un observador en reposo respecto al campo gravitatorio (p.e. un astrónomo); el Principio de Equivalencia, contrariamente, toma en consideración la aceleración experimentada por un observador situado en el sistema en cuestión: cualquier cuerpo que se mueva sin restricciones por un campo gravitatorio puede ser considerado como un sistema inercial. Es el caso de los planetas que orbitan en torno del Sol y de los satélites que orbitan alrededor de los primeros: los habitantes de la Tierra no llegan a percibir si nos estamos acercando o alejando del Sol, ni si nos encontramos en el afelio o en el perihelio, a pesar de las enormes diferencias de la gravedad solar. La gravedad se convierte, en virtud del Principio de Equivalencia, en una fuerza aparente, como la fuerza centrífuga y la fuerza de Coriolis: en estos dos últimos supuestos su aparición es debida a la elección de un marco de referencia acelerado (un observador situado en la superficie de una esfera en rotación). En el caso de la gravedad, únicamente percibimos la fuerza aparente gravitatoria cuando escogemos un sistema de referencia no inercial (en reposo sobre la superficie terrestre), pero no cuando nos situamos en otro que sí lo es (un cuerpo en caída libre). Aunque el principio de equivalencia fue históricamente importante en el desarrollo de la teoría, no es un ingrediente necesario de una teoría de la gravedad, como prueba el hecho de que otras teorías métricas de la gravedad, como la teoría relativista de la gravitación prescindan del principio de equivalencia. Además conviene señalar que el principio de equivalencia no se cumple en presencia de campos electromagnéticos, por ejemplo una partícula cargada moviéndose a lo largo de una geodésica de un espacio-tiempo cualquiera en general emitirá radiación, a diferencia de una partícula cargada moviéndose a lo largo de una geodésica del espacio de Minkowski. Ese y otros hechos sugieren que el principio de equivalencia a pesar de su equivalencia histórica no es parte esencial de una teoría relativista de la gravitación.

La curvatura del espacio-tiempo La aceptación del principio de equivalencia por Albert Einstein le llevó a un descubrimiento ulterior: la contracción o curvatura del tiempo como consecuencia de la presencia de un campo gravitatorio, que quedó expresado en su artículo de 1911 "Sobre la influencia de la gravedad en la propagación de la luz".[1] Supongamos que un fotón emitido por una estrella cercana se aproxima a la Tierra. En virtud de la ley de conservación del tetramomentum la energía conservada del fotón permanece invariante. Por otro lado, el principio de equivalencia implica que un observador situado en el fotón (que es un sistema inercial, es decir, se halla en caída libre) no experimenta ninguno de los efectos originados por el campo gravitatorio terrestre. De ello se deduce que la energía conservada del fotón no se altera como consecuencia de la acción de la gravedad, y tampoco lo hace la frecuencia de la luz, ya que, según la conocida fórmula de la física cuántica, la energía de un fotón es igual a su frecuencia v multiplicada por la constante de Planck h: E = hν. Relatividad general 119

Ahora bien, si las observaciones las realizara un astrónomo situado en la superficie de la Tierra, esto es, en reposo respecto su campo gravitatorio, los resultados serían muy diferentes: el astrónomo podría comprobar cómo el fotón, por efecto de su caída hacia la Tierra, va absorbiendo progresivamente energía potencial gravitatoria y, como consecuencia de esto último, su frecuencia se corre hacia el azul.[2] Los fenómenos de absorción de energía por los fotones en caída libre y corrimiento hacia el azul se expresan matemáticamente mediante las siguientes ecuaciones:

En la imagen se reproduce el corrimiento gravitacional hacia el rojo de un fotón que escapa del campo gravitatorio solar y se dirige hacia la Tierra. En este caso, la onda electromagnética pierde progresivamente energía y su frecuencia disminuye conforme donde es la energía medida por un observador en aumenta la distancia al Sol. reposo respecto al campo gravitatorio (en este caso un astrónomo), el potencial gravitatorio de la región donde se encuentra éste, la energía conservada del fotón, la frecuencia de emisión, es la frecuencia percibida por el observador (y corrida hacia el azul) y la constante de Planck. Ahora bien, en el párrafo anterior hemos demostrado que la energía conservada del fotón permanece invariante. Por tanto, ¿cómo es posible que exista esta divergencia entre los resultados de la medición de la energía obtenidos por el astrónomo ( ) y la energía conservada del fotón ( )? La única manera de resolver esta contradicción es considerando que el tiempo se ralentiza como consecuencia de la presencia de un campo gravitatorio. De este modo, la citada ecuación:

puede escribirse de este modo:

Es decir, la frecuencia es igual al número de ciclos que tienen lugar en un determinado período (generalmente, un segundo). Donde es el tiempo medido por un observador situado a una distancia infinita del cuerpo masivo (y por lo tanto no experimenta la atracción gravitatoria de éste), mientras que es el tiempo medido por un observador bajo la influencia del campo gravitatorio y en reposo respecto a este (como, por ejemplo, una persona situada sobre la superficie terrestre). De ahí se deduce que cerca de un cuerpo masivo el tiempo se ralentiza, siguiendo estas reglas matemáticas:

En una singularidad espacio-temporal (como las que existen en el interior de los agujeros negros), la densidad de masa-materia y el campo gravitatorio tienden al infinito, lo que provoca la congelación del tiempo y por lo tanto la eliminación de todo tipo de procesos dinámicos: Relatividad general 120

La contracción del tiempo debido a la presencia de un campo gravitatorio fue confirmada experimentalmente en el año 1959 por el experimento Pound-Rebka-Snider, llevado a cabo en la universidad de Harvard. Se colocaron detectores electromagnéticos a una cierta altura y se procedió a emitir radiación desde el suelo. Todas las mediciones que se realizaron confirmaron que los fotones habían experimentado un corrimiento hacia el rojo durante su ascenso a través del campo gravitatorio terrestre.

Hoy en día, el fenómeno de la contracción del tiempo tiene cierta importancia en el marco del servicio localizador GPS, cuyas exigencias de exactitud requieren de una precisión extrema: Basta con que se En la imagen, dos partículas en reposo relativo, en un produzca un retraso de 0.04 microsegundos en la señal espacio-tiempo llano. para que se produzca un error de posicionamiento de unos 10 metros. De ahí que las ecuaciones de Einstein hayan de ser tenidas en cuenta al calcular la situación exacta de un determinado objeto sobre la superficie terrestre. Desde un punto de vista teórico, el artículo de Einstein de 1911 tuvo una importancia aún mayor. Pues, la contracción del tiempo conllevaba también, en virtud de los principios de la relatividad especial, la contracción del espacio. De ahí que fuera inevitable a partir de este momento descartar la existencia de un espacio-tiempo llano, y fuera necesario asumir la curvatura de la variedad espacio-temporal como consecuencia de la presencia de masas. En la relatividad general, fenómenos que la mecánica clásica atribuye a la acción de la fuerza de gravedad, Se representan en este esquema dos partículas que se acercan entre sí tales como una caída libre, la órbita de un planeta o la siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la trayectoria de una nave espacial, son interpretados curvatura de las líneas de universo es la fuerza de interacción como efectos geométricos del movimiento en un gravitatoria entre ambas partículas. Por el contrario, la espacio-tiempo curvado. De hecho una partícula libre interpretación einsteiniana supone que las líneas de universo de en un campo gravitatorio sigue líneas de curvatura estas partículas son geodésicas ("rectas"), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación mínima a través de este espacio tiempo-curvado. progresiva. Finalmente, podemos hacer referencia a la desviación de los rayos de la luz como consecuencia de la presencia de un cuerpo masivo, fenómeno que da lugar a efectos ópticos como las lentes gravitacionales o los anillos de Einstein. Frente de onda desviado. Lente gravitacional. Experimento de Eddington. Relatividad general 121

Formulación matemática y consideraciones generales No te preocupes por tus problemas con las matemáticas; te aseguro que los míos son mucho mayores. A. Einstein, en una carta a una niña de nueve años. Matemáticamente, Einstein conjeturó que la geometría del universo deja de ser euclídea por la presencia de masas. Einstein modelizó en el unvierso era un tipo de espacio-tiempo curvo mediante una una variedad pseudoriemanniana y sus ecuaciones de campo establecen que la curvatura seccional de esta variedad en un punto está relacionada directamente con el tensor de energía-momento en dicho punto. Dicho tensor es una medida de la densidad de materia y energía. La curvatura "le dice a la materia como moverse", y de forma recíproca la "materia le dice al espacio como curvarse". En términos más precisos las trayectorias de las partículas se ven afectadas por la curvatura, y la presencia de muchas partículas en una región altera notoriamente la curvatura. La relatividad general se distingue de otras teorías alternativas de la gravedad por la simplicidad de acoplamiento entre materia y curvatura. Aunque todavía no existe una teoría cuántica de la gravedad que incorpore tanto a la mecánica cuántica como a la teoría de la relatividad general y que proponga una ecuación de campo gravitatorio que sustituya a la de Einstein, pocos físicos dudan que una teoría cuántica de la gravedad pondrá a la relatividad general en el límite apropiado, así como la relatividad general predice la ley de la gravedad en el límite no relativista.

Los diferentes tensores y escalares de la relatividad general

La derivada covariante

Uno de los conceptos esenciales sobre el que gira toda la teoría de la relatividad general es el de derivada covariante (a veces impropiamente llamada conexión afín), que fue definida por primera vez por el matemático italiano Tullio Levi-Civita y que puede ser considerada tanto desde una perspectiva física como desde otra matemática. Desde un punto de vista físico, la derivada ordinaria de la velocidad es la aceleración de un cuerpo medida por un observador externo en reposo respecto a un campo gravitatorio (por ejemplo, un astrónomo situado sobre la superficie terrestre). En este caso el observador se mantiene a una distancia r constante del centro de masas, pero no así el objeto observado, que progresivamente se va aproximando al origen del campo gravitatorio. Los cuerpos en caída libre (como las naves en órbita) son sistemas inerciales en los que la derivada Por el contrario, la derivada covariante de la velocidad ó covariante de su velocidad es nula ( ). Por ello, no experimentan ningún tipo de aceleración [4] es la aceleración medida por un observador comóvil, es inercial provocada por la "fuerza gravitatoria". Sin embargo, un observador externo, como un astrónomo decir, que está en reposo respecto al cuerpo en caída libre (por situado en la Tierra, puede observar cómo dicho cuerpo ejemplo, el piloto de un avión en caída libre o los tripulantes de en caída libre se aproxima a la Tierra con una una nave espacial con sus motores apagados). aceleración creciente (de ahí que la derivada ordinaria En resumidas cuentas, la derivada ordinaria se utiliza para de la velocidad en este caso sea diferente a cero - computar la aceleración ordinaria de un cuerpo, mientras que -) la derivada covariante es empleada para calcular su aceleración inercial. Según la mecánica galileana y newtoniana Relatividad general 122

estos dos tipos de aceleración son idénticos, y en base a este axioma se desarrollaron nuevos principios mecánicos como el Principio de d'Alembert. Sin embargo, del principio de equivalencia de Einstein se deduce que cuando un cuerpo está sometido a un campo gravitatorio, su aceleración ordinaria cambia, pero no su aceleración inercial. De ahí que para Einstein fuera absolutamente necesario introducir en su teoría el concepto de derivada covariante.

Desde un punto de vista estrictamente matemático, el cálculo de la

derivada covariante tiene lugar a través de un sencillo Dice la leyenda apócrifa que fue la manzana de un procedimiento. Se procede en primer lugar al cómputo de la árbol la que provocó que Newton se diera cuenta que derivada parcial covariante y luego se generaliza ésta. los objetos caen y por lo tanto aceleran como consecuencia de la gravitación universal. Y es que los La derivada ordinaria se aplica exclusivamente sobre los objetos en reposo sobre la superficie terrestre componentes de un vector, mientras que la derivada covariante se experimentan, como consecuencia de la fuerza aplica también sobre las bases del espacio vectorial: aparente gravitatoria, una aceleración inercial de (y por lo tanto la derivada covariante de su velocidad también tiene ese valor [3] Sobre esta ecuación procedemos a aplicar la regla del producto (o ). Sin embargo, dichos objetos, de Leibniz), puesto que están en reposo, tienen una aceleración relativa nula respecto a un observador terrestre (es decir, la derivada ordinaria de su velocidad es cero (

Llegados a este punto introducimos una nueva notación, los ) símbolos de Christoffel, que pueden ser definidos como el componente de la derivada parcial de respecto a : . De este modo:

Realizamos un intercambio de índices ( por ) en el último término del segundo miembro de la ecuación:

Y obtenemos con ello los componentes de la derivada parcial covariante de la velocidad, que equivalen a la expresión entre paréntesis:

Generalizamos dichos componentes multiplicándolos por el componente de la tetravelocidad ( ) y

obtenemos con ello la derivada covariante de la velocidad:

Puesto que para un observador inercial (p.e. un cuerpo en caída libre) , esta última ecuación toma la siguiente forma: Relatividad general 123

Estas fórmulas reciben el nombre de ecuación de las líneas geodésicas, y se utilizan para calcular la aceleración gravitatoria de cualquier cuerpo. A los lectores principiantes puede chocarles la propia definición de los símbolos de Christoffel. A fin de cuentas, en el espacio euclideo, la derivada de una base (por ejemplo ) respecto a otra cordenada (pongamos ) es siempre cero, por la simple razón de que las bases de ambas coordenadas son ortogonales. Sin embargo, esto no sucede así en las variedades curvas, como por ejemplo las superficies de un cilindro o de una esfera: En tales casos, los símbolos de Christoffel no son iguales a cero, sino que son funciones de las derivadas del tensor métrico. La relación matemática entre estas dos magnitudes matemáticas se expresa mediante la siguiente ecuación: Con ayuda de la ecuación de las líneas geodésicas podemos determinar la aceleración radial y angular de la Tierra respecto al Sol. Puesto que la curvatura gravitatoria los valores de los símbolos de Christoffel aumentan conforme nos acercamos al Sol, de ello se deduce que la aceleración de la Tierra es máxima en las Los símbolos de Christoffel constituyen el parámetro proximidades del perihelio, exactamente tal y como predicen las [5] [6] principal que determina cuán grande es el grado de leyes de Newton y Kepler. curvatura existente en una región determinada y con su ayuda podemos conocer cuál va a ser la trayectoria de una geodésica en un espacio curvo. En el caso de la variedad espacio-temporal, la Teoría de la Relatividad afirma que la curvatura viene originada por la presencia de tetramomentum y por ello, cuanta mayor sea la densidad de materia existente en una determinada región, mayores serán los valores de los símbolos de Christoffel.

Los principios de general covariancia y de acoplamiento mínimo En un espacio-tiempo curvo, las leyes de la física se modifican mediante el Principio de acoplamiento mínimo, que supone que las ecuaciones matemáticas en cuya virtud se expresan aquellas experimentan las siguientes modificaciones: • La derivada ordinaria es sustituida por la derivada covariante. • La métrica de Minkowski es sustituida por una formulación general del tensor métrico.

De este modo, la ecuación galileana de los sistemas inerciales se transforma en virtud de dicho principio en la ecuación relativista de las líneas geodésicas:

Ley de conservación de la energía:

Sin embargo, en virtud del principio de simetría de los símbolos de Christoffel, las leyes electromagnéticas en general no experimentan modificaciones debidas a la curvatura gravitatoria: Relatividad general 124

Alteración de las leyes físicas producida por la curvatura

Objeto o ley físico-matemática Espacio-tiempo llano Espacio-tiempo curvo ¿Se produce alteración por la curvatura?

Ley de conservación Sí de la energía

Tensor electromagnético No

Ecuaciones de Maxwell No

Velocidad de la luz No

Ecuación de un sistema inercial Sí

Aceleración Sí

Volumen Sí

• Ecuación líneas geodésicas

El tensor de Riemann y la curvatura de las líneas de universo Véanse también: Tensor de curvatura, Transporte paralelo y Fuerza de marea La medición de la curvatura de cualquier variedad (ya se trate del espacio-tiempo, de una esfera o de una silla de montar) viene determinada por el tensor de curvatura o tensor de Riemann, que es una función de los símbolos de Christoffel y sus derivadas de primer orden. El tensor de Riemann tiene una importancia fundamental a la hora de calcular la desviación de dos líneas en origen paralelas cuando se desplazan a través de una superficie curva. Es bien sabido que en una variedad llana las líneas paralelas jamás se cortan, pero sin embargo esta regla no rige en el caso de las superficies curvas de geometría elíptica. Supongamos que dos viajeros salen del Ecuador en dirección norte. En ambos casos, el ángulo que la trayectoria de su barco forma con el Ecuador es inicialmente de Aproximación de dos geodésicas (en verde) en una superficie esférica. Su vector de separación 90º, por lo que se trata de dos líneas paralelas. Sin embargo, (primero rosa, luego azul) va progresivamente conforme los viajeros se van desplazando hacia el norte, su contrayéndose conforme nos acercamos al Polo Norte, distancia recíproca se hace cada vez más pequeña hasta que se siguiendo las pautas marcadas por el tensor de hace nula en el Polo Norte, que es donde se cortan sus trayectorias Riemann. de viaje. Para calcular la tasa de aproximación entre las dos geodésicas utilizamos la siguiente ecuación:

donde y representan el recorrido desde el Ecuador de ambas líneas geodésicas y la distancia de separación entre ellas. Relatividad general 125

En el espacio-tiempo, que también es una variedad curva, las cosas funcionan de un modo parecido: el tensor de Riemann determina la aceleración recíproca entre las líneas de universo de dos sistemas inerciales (p.e. dos asteroides que se acercan progresivamente como consecuencia de su mutua atracción gravitatoria). Para calcular dicha aceleración, aplicamos de nuevo la conocida fórmula, modificándola ligeramente:

donde es un parámetro afín (el tiempo local) y y son los vectores de cuadrivelocidad de ambos cuerpos que, según el Aceleración recíproca de dos líneas de universo esquema de Minkowski, equivalen geométricamente a campos geodésicas. Como vemos, conforme se avanza en la vectoriales tangentes a ambas líneas de universo. coordenada temporal, el tensor de Riemann curva las geodésicas y provoca el acercamiento recíproco de las dos partículas.

Todo esto nos conecta con lo que en física newtoniana se denominan fuerzas de marea, responsables de múltiples fenómenos astronómicos y cuya base teorética reposa en el planteamiento siguiente: Supongamos que una determinada nave espacial está cayendo a un agujero negro. Es evidente que la proa de la nave experimenta una fuerza gravitatoria más intensa que la popa, por el simple hecho de que la primera está más próxima que la segunda al horizonte de sucesos. Si la diferencia de aceleraciones entre la proa y la popa es lo suficientemente intensa, la nave puede llegar a distorsionarse y quebrarse definitivamente.

El gradiente gravitatorio es también responsable del ciclo de mareas: Las zonas de la tierra más cercanas a la Luna, experimentan una mayor atracción gravitatoria que las más lejanas Fuerzas de marea. a ella, lo que provoca que el agua del mar se acumule en aquellas áreas de la superficie terrestre que están alineadas con la Luna. En relatividad general, la aceleración de marea viene originada por el tensor de Riemann. Hay una correspondencia casi natural entre las ecuaciones newtonianas y las relativistas. En efecto, la ecuación newtoniana utilizada para computar las fuerzas de marea es la siguiente:

donde a es la aceleración de marea, el potencial gravitatorio y la distancia entre las dos partículas. Las fuerzas de marea vienen determinadas por las derivadas de segundo orden del potencial gravitatorio. Desde el punto de vista relativista, las fuerzas de marea vienen determinadas por el tensor de Riemann y si la región del espacio tiene una escasa densidad de cuadrimomento y una distribución uniforme de la curvatura, los componentes aquél toman aproximadamente los valores siguientes:

para el resto de los índices De ahí que sea muy simple deducir la ecuación clásica partir de la relativista: Relatividad general 126

Como se puede deducir de los párrafos anteriores, en relatividad general las fuerzas de marea están determinadas por el tensor de Riemann y las primeras derivadas de los símbolos de Christoffel. Si estas magnitudes tienen un valor no nulo, el diferencial de los símbolos de Christoffel provoca la dispersión de las geodésicas correspondientes a partículas de un fluido determinado.

Las geodésicas (trayectorias inerciales en el espacio-tiempo) vienen determinadas por los valores de los símbolos de Christoffel. Si éstos son constantes, las partículas de un fluido se mueven uniformemente, a una misma velocidad y aceleración, y no se altera su distancia entre sí. Pero si los componentes de los símbolos de Christoffel varían a lo largo de una determinada región, ello conlleva la divergencia de las líneas de universo y la distorsión del fluido, en la medida en que cada una de sus partes constituyentes acelera distintamente. Las fuerzas de marea y el tensor de Riemann tienen una importancia fundamental en la formación y configuración de los sistemas planetarios, así como en multitud de procesos astrofísicos y cosmológicos. Sirva de ejemplo nuestro propio Sistema Solar: Hace cerca de 4.500 millones de años, una nube molecular alcanzó la densidad y la compresión suficientes como para transformarse en un sistema planetario. La mayor parte del material de la nube se precipitó sobre en torno al En esta recreación artística se reproducen el planeta y los dos núcleo, dando lugar al Sol. Sin embargo, ciertas cinturones de asteroides que orbitan alrededor de la estrella Épsilon Eridani. cantidades de gas y de polvo continuaron rotando bajo la forma de un disco de acreción, y se aglutinaron para dar origen a planetesimales y posteriormente a planetas. Sin embargo, en la zona situada entre Marte y Júpiter, los tensores de Riemann correspondientes a las masas del Sol y de Júpiter generaron unas intensas fuerzas de marea que dispersaron las líneas de universo de los planetesimales allí situados, impidiendo que se agregaran entre sí para dar lugar a un cuerpo masivo. Los planetesimales permanecieran dispersos bajo la forma de un cinturón de asteroides. Este fenómeno que acaba de describirse no es exclusivo de nuestro Sistema Solar, sino que ha sido observado en multitud de sistemas exoplanetarios descubiertos desde principios de los años noventa hasta la actualidad, como los mostrados en las ilustraciones de esta sección. El sistema planetario de la estrella HD 69830 viene compuesto por un masivo cinturón de asteroides y por tres exoplanetas de masa Las fuerzas de marea también poseen cierta neptuniana cuyos efectos gravitatorios dispersan las líneas de importancia en el desarrollo de otros fenómenos universo de los asteroides, impidiendo que se agreguen para formar nuevos planetas. astronómicos como las supernovas de tipo II, deflagraciones cósmicas que suelen tener lugar en el marco de sistemas estelares dobles. En efecto, en los sitemas binarios es frecuente que una estrella masiva orbite alrededor de una enana blanca. Si el tamaño de la primera sobrepasa el límite de Roche, el tensor de Riemann Relatividad general 127

generado por la masa de la enana blanca extrae material de las capas exteriores de su compañera y lo precipita sobre la enana blanca, en torno a la cual dicho material orbita formando un disco de acreción. El plasma queda sometido a enormes temperaturas que provocan la emisión de rayos X y la aparición de explosiones periódicas conocidas con el nombre de supernovas de tipo II.

El significado físico del tensor de Ricci

Según la teoría de la gravitación universal, una masa esférica de gas reduce su volumen (como consecuencia de la atracción recíproca de sus moléculas) con una aceleración equivalente a :

Es evidente, que dicha ecuación no es compatible con la relatividad especial, por las razones reseñadas anteriormente: 1. El parámetro , que mide la densidad de masa, ha de ser sustituido por el tensor de energía-tensión , que permanece invariable ante las transformaciones de Lorentz y tiene en cuenta los efectos gravitatorios de la energía y la presión, y no

sólo los de la masa. En la ilustración se reproducen los efectos del tensor de Ricci 2. Por otro lado, según la teoría de la relatividad (concretamente su componente ) sobre un volumen general, los efectos gravitatorios no son causados tridimensional esférico: conforme aumenta el tiempo, dicho volumen por ningún tipo de "fuerza misteriosa" sino por la se reduce. El autor de la imagen se ha permitido la siguiente licencia: Aunque los ejes de coordenadas representan dos dimensiones curvatura del espacio-tiempo. espaciales y una temporal, el volumen de la esfera está definido por En este sentido, cabe señalar que en un espacio-tiempo tres dimensiones espaciales. curvo la aceleración del volumen viene cuantificada por un objeto geométrico específico, el tensor de Ricci , que puede definirse como la aceleración coordenada del hipervolumen , normal al vector unitario . De este modo, el componente expresa la aceleración temporal del volumen tridimensional:

La relación entre el tensor métrico y el tensor de Ricci se expresa a través de la llamada ecuación de flujo de Ricci, que tiene la forma siguiente:

Según esta ecuación, la existencia de valores positivos del tensor de Ricci implica la disminución a lo largo del tiempo de los coeficientes del tensor métrico, y como consecuencia de ello la disminución de los volúmenes en esa región de la variedad. Por el contrario, la presencia de valores negativos en el tensor de Ricci lleva consigo una expansión progresiva de las distancias, las superficies y los volúmenes. Por todo lo dicho, los tensores de energía-momentum y de Ricci permitían expresar de manera tensorial y covariante la fórmula de Poisson, y de ahí que originalmente Einstein propusiera las siguientes ecuaciones de universo:

En relatividad general, el tensor de Ricci tiene la particularidad de representar aquellos efectos gravitatorios originados por la presencia inmediata de cuadrimomento, que son con gran diferencia los más importantes a gran Relatividad general 128

escala. El tensor de Ricci rige, pues, la mayor parte de los procesos astrofísicos que tienen lugar a amplias escalas: constituye una medida de la contracción de nubes moleculares que dan lugar al nacimiento de estrellas y planetas; cuantifica el colapso de las grandes cuerpos estelares y su conversión en enanas blancas, estrellas de neutrones y agujeros negros; y proporciona una medida de la expansión del universo. Del tensor de Ricci, particularmente de la forma que toma en los campos gravitatorios esféricos (como las estrellas estáticas),[7] se deriva la llamada Ley de equilibrio hidrostático, que regula el equilibrio entre la presión del fluido estelar[8] (que tiende a expandir el volumen de la estrella) y la curvatura gravitatoria (que lo contrae). Este equilibrio se mantiene prácticamente durante toda la vida de la estrella y sólo se rompe en dos ocasiones diferentes: 1) Cuando la estrella deviene en una gigante roja, en cuyo caso los efectos de la presión de radiación[9] desbordan los del tensor de Ricci, y como resultado, el volumen de la estrella se expande hasta alcanzar una nueva situación de equilibrio. 2) Cuando la estrella agota su combustible. Se produce entonces un descenso en la presión del fluido, y la estrella, bien se transforma en una enana blanca, en una estrella de neutrones, o bien colapsa definitivamente convirtiéndose en un agujero negro.

Las ecuaciones de Universo de Einstein Einstein tuvo pronto que modificar ligeramente sus ecuaciones de universo, pues estas no eran compatibles con la ley de la conservación de la energía [Demostración 1]. Esto constriñó a Einstein a modificar sus ecuaciones de Universo, que adquirieron su forma definitiva tras la publicación en 1915 del artículo Aplicación de la teoría de la relatividad general al campo gravitatorio:[10]

Donde es el tensor de Ricci, el tensor métrico, el escalar de Ricci, la constante de gravitación universal y el tensor de energía-impulso. El miembro izquierdo de la ecuación recibe el nombre genérico de tensor de Einstein, se representa con la notación y satisface las mismas relaciones de conservación que el tensor de tensión-energía:

Teniendo en cuenta que el escalar de curvatura es proporcional a la traza del tensor de Einstein , las ecuaciones de universo de Einstein pueden reformularse de la manera siguiente: Relatividad general 129

Aplicación a fluido perfecto

En un fluido no relativista,[11] como una nebulosa o una estrella de la secuencia principal, todos los componentes del tensor de energía-impulso son nulos o de muy poca importancia, salvo el elemento , que corresponde a la densidad de masa y que es el único que contribuye sensiblemente a la atracción gravitatoria y a la curvatura del espacio-tiempo. Si deseamos medir la contracción de volumen producida por la masa-energía presente en una determinada región, hemos de aplicar las ecuaciones de universo de Einstein:

Si el observador está situado en reposo respecto al fluido en cuestión, podemos multiplicar ambos lados de la ecuación por dos vectores temporales de coordenadas :

Tras ello obtenemos: Corriente de chorro emanando del centro de una galaxia.

Donde es la presión del fluido, que en general es muy pequeña comparada con , por lo que tenemos es una ligera corrección de la anteriormente citada fórmula newtoniana. Como vemos, la atracción gravitatoria viene determinada no sólo por la masa-energía sino también por la presión, aunque la contribución de ésta es inferior a la de la primera. Por eso, en las regiones del espacio-tiempo sometidas a bajas presiones y temperaturas, como las nebulosas o nuestro Sistema Solar, la masa es prácticamente la única fuente de atracción gravitatoria y por ello las ecuaciones de la gravitación universal newtonianas constituyen una muy buena aproximación de la realidad física. En cambio, en fluidos sometidos a altas presiones, como las estrellas que se colapsan, la materia que se precipita en los agujeros negros o los chorros que son expelidos de los centros de las galaxias; en todos ellos la presión puede tener cierta importancia a la hora de computar la atracción gravitatoria y la curvatura del espacio-tiempo.

El tensor de Weyl Es importante notar que, puesto en un espacio-tiempo de cuatro dimensiones, el tensor pleno de curvatura contiene más información que la curvatura de Ricci. Eso significa que las ecuaciones del de campo anteriores, con Λ = 0, no especifican completamente el tensor de curvatura sino una parte del mismo, el tensor de Ricci. La parte de la curvatura no especificada por las ecuaciones de Einstein, coincide precisamente con el tensor de Weyl. Eso significa que las ecuaciones de Einstein no especifican por completo el tensor de curvatura, ni la forma global del universo. Relatividad general 130

La constante cosmológica Véase también: Constante cosmológica Desde el principio Einstein apreció que matemáticamente el miembro derecho de su ecuación de campo podía incluir un término proporcional al tensor métrico sin que se violara el principio de conservación de la energía. Aunque inicialmente no incluyó dicho término, ya que no parecía tener una interpretación física razonable; más tarde lo incluyó. Esto se debió a que en sus primeros intentos de encontrar soluciones exactas a las ecuaciones de campo consideró que lo que hoy conocemos como modelo estacionario de Einstein. Einstein apreció que esa solución, explicaba adecuadamente los datos disponibles en su tiempo, y correspondía a un universo estático similar a los datos observados. Sin embargo, dicha solución era inestable matemáticamente lo cual no parecía corresponderse con la estabilidad física observable, y se dio cuenta de que con el término proporcional a la métrica la solución podía ser similar pero esta vez estable. Por esa razón Einstein introdujo en sus ecuaciones un término proporcional al tensor métrico. Siendo la constante de proporcionalidad precisamente la constante cosmológica. El trabajo de varios científicos (FLRW): Alexander Friedman, Georges Lemaître, Howard Percy Robertson y Arthur Geoffrey Walker, probó que existían soluciones estables no estacionarios sin el término proporcional a la constante cosmológica. Y aunque Einstein inicialmente había rechazado el trabajo de Friedman por describir un universo en expansión que no parecía ser descriptivamente adecuado a un universo que él creía estacionario, los datos del corrimiento al rojo del astrónomo Edwin Hubble sólo parecían explicables mediante un modelo de universo en expansión. Esto convenció a Einstein de que la solución FLRW era de hecho correcta y descriptivamente adecuada y por tanto la constante cosmológica innecesaria. Recientemente la evidencia de la aceleración de la expansión del Universo han llevado a reintroducir la constante cosmológica diferente de cero como una de las posibles explicaciones del fenómeno.

Resumen

Significado físico de los diferentes tensores de la Relatividad general

Tensor Notación Significado físico

Derivada ordinaria Aceleración medida por un observador externo en reposo

Derivada covariante Aceleración inercial medida por un observador comóvil, situado en la propia línea de universo del cuerpo observado

Tensor métrico Distancia (o, en su caso, intervalo) entre dos puntos (eventos) del espacio(-tiempo)

Tensor de tensión Presencia inmediata de cuadrimomento en una región del espacio-tiempo energía

Tensor de Riemann Aceleración recíproca de dos líneas de universo

Tensor de Ricci Aceleración de un volumen (3 dimensiones) o un hipervolumen (4 dimensiones)

Escalar de Ricci Aceleración de la superficie que encierra dicho volumen o hipervolumen

Tensor de Weyl Fuerzas de marea generadas por las ondas gravitatorias Relatividad general 131

Principales ecuaciones de la relatividad general

Denominación Desarrollo Significado físico

Ecuaciones de universo de Einstein Contracción de un fluido como consecuencia de la presencia inmediata de cuadrimomento

Ecuación de las líneas geodésicas Movimiento de un sistema inercial en el espacio-tiempo

Desviación geodésica Fuerzas de marea entre dos partículas que caen en un mismo campo gravitatorio

Soluciones de las ecuaciones de campo de Einstein Matemáticamente las ecuaciones de campo de Einstein son complicadas porque constituyen un sistema de 10 ecuaciones diferenciales no lineales independientes. La complejidad de dicho sistema de ecuaciones y las dificultades asociadas para plantear el problema como un problema de valor inicial bien definido, hicieron que durante mucho tiempo sólo se contara con un puñado de soluciones exactas caracterizadas por un alto grado de simetría. En la actualidad se conocen algunos centenares de soluciones exactas de las ecuaciones de Einstein. Históricamente la primera solución importante fue obtenida por Karl Schwarzschild en 1915, esta solución conocida posteriormente como métrica de Schwarzschild, representa el campo creado por un astro estático y con simetría esférica. Dicha solución constituye una muy buena aproximación al campo gravitatorio dentro del sistema solar, lo cual permitió someter a confirmación experimental la teoría general de la relatividad explicándose hechos previamente no explicados como el avance del perihelio de Mercurio y prediciendo nuevos hechos más tarde observados como la deflexión de los rayos de luz de un campo gravitatorio. Además las peculiaridades de esta solución condujeron al descubrimiento teórico de la posibilidad de los agujeros negros, y se abrió todo una nueva área de la cosmología relacionada con ellos. Lamentablemente el estudio del colapso gravitatorio y los agujeros negros condujo a la predicción de las singularidades espaciotemporales, deficiencia que revela que la teoría de la relatividad general es incompleta. Algunas otras soluciones físicamente interesantes de las ecuaciones de Einstein son: • La métrica de Kerr que describe el campo gravitatorio de un astro en rotación. Esta solución bajo ciertas circunstancias también contiene un agujero negro de Kerr. • La métrica de Friedman-Lemaître-Robertson-Walker, realmente es un conjunto paramétrico de soluciones asociadas a la teoría del Big Bang que es capaz de explicar la estructura del universo a gran escala y la expansión del mismo. • El universo de Gödel, que en su forma original no parece describrir un universo realista o parecido al nuestro, pero cuyas propiedades matemáticamente interesante constituyeron un estímulo para buscar soluciones más generales de las ecuaciones para ver si ciertos fenómenos eran o no peculiares de las soluciones más sencillos. Por otra parte, el espacio-tiempo empleado en la teoría especial de la relatividad, llamado espacio de Minkowski es en sí mismo una solución de las ecuaciones de Einstein, que representa un espacio-tiempo vacío totalmente de materia. Fuera de las soluciones exactas y a efectos comparativos con la teoría de campo gravitatorio también es interesante la aproximación para campos gravitatorios débiles y las soluciones en formadas de ondas gravitatorias. Relatividad general 132

No linealidad Cuando Einstein formuló en 1915 las ecuaciones de universo de la Relatividad general, el científico alemán pensó, en un principio, que dichas ecuaciones eran insolubles debido a su carácter no lineal, que se manifestaba tanto desde un punto de vista físico como desde otro matemático: • En el plano estrictamente físico, la no linealidad de las ecuaciones de campo de Einstein se deriva del mutuo condicionamiento entre el tetramomentum y la curvatura del espacio tiempo. Así, la densidad de masa, contenida en el coeficiente , provoca una contracción (parametrizada a través de ) del volumen tridimensional que de nuevo vuelve a alterar el densidad de masa, y así sucesivamente. Este movimiento cíclico recuerda a la autoinductancia el electromagnetismo y no suele tener importancia en campos gravitatorios de baja intensidad, pero sí ha de tenerse en cuenta en el cálculo de las perturbaciones gravitatorias originadas por una alta concentración local de tetramomentum, como sucede en el caso de los agujeros negros o los fluidos relativistas. De una manera más intuitiva la no linealidad de las ecuaciones de Einstein puede pensarse desde el punto de vista físico de la siguiente manera: Dada una distribución de materia, esta producirá una curvatura del espacio o "campo gravitatorio" el cual contiene energía. Dado que E=mc2 dicha energía a su vez generará otra curvatura o "campo gravitatorio" el cual a su vez contendrá cierta energía y así sucesivamente. Esta retroalimentación entre la fuente (materia) y el efecto (curvatura) está representada en el carácter no lineal de las ecuaciones de Einstein.

• Desde un punto de vista matemático, el miembro izquierdo de la igualdad contiene

tanto funciones lineales como derivadas de primer y de segundo orden del tensor métrico , lo que hace imposible despejar los coeficientes de este último a partir de los valores del tensor de energía momentum . No es posible, pues, construir una función de tipo . Soluciones para coordenadas esféricas: Campo exterior Para sorpresa de Albert Einstein, pocas semanas después de la publicación de sus ecuaciones de campo llegó a su despacho un correo de Karl Schwarzschild, un profesor universitario que en esos momentos se encontraba en el frente de la I guerra mundial, realizando trabajos de balística para las unidades de artillería del ejército alemán. En esa histórica carta se contenían las primeras soluciones exactas de las ecuaciones de la relatividad general, que serían conocidas por la posteridad con el nombre genérico de Solución de Schwarzschild. El principio sobre el que pivotaba dicha solución era el siguiente: Dado que el Principio de la Covariancia General permitía hacer funcionar las ecuaciones de campo de la relatividad general en cualquier sistema de coordenadas, Schwarzschild procedió a calcular los valores de los tensores de energía-momento y de Einstein en coordenadas espacio-temporales esféricas . El alto grado de simetría proporcionado por dicho sistema de coordenadas, así como el carácter estático de la métrica, permitieron integrar directamente el conjunto de ecuaciones diferenciales. Siendo en el caso general el tensor métrico para un problema con simetría esférica de la forma: (SE)

Para el espacio la parte exterior de un astro esférica más concretamente se tenía:

Las comprobaciones experimentaqles mostraron que la métrica de Schwarzschild describe con enorme precisión lo que sucede en sistemas esféricos estáticos, similares al sistema solar. Relatividad general 133

Soluciones para coordenadas esféricas: Equilibrio estelar

Las ecuaciones de un campo con simetría esférica (SE) permiten también estudiar la curvatura en el interior de las estrellas masivas. El resultado de ese análisis, es que para estrellas de la secuencia principal del diagrama de Hertzsprung-Russell, la curvatura originada por la gravedad es compensada por la presión de la materia estelar. Esa compensación conduce a una ley de equilibrio hidrostático que hace que la estrella, aún sometida a su propio campo gravitatorio, pueda mantener durante millones de años su volumen y su densidad a niveles constantes. Matemáticamente, el hecho de que la métrica tenga un carácter estático implica los valores del tensor se mantengan La masa del Sol, así como su volumen y su temperatura se han estables en el tiempo. La ley de equilibrio hidrostático mantenido estables durante millones de años. que relaciona la densidad y la presión en una estrella esférica viene dada por ecuación de Tolman-Oppenheimer-Volkoff:

Donde: son la presión y la densidad a una distancia r del centro del astro.

es la masa encerrada en una esfera de radio r.

Soluciones para coordenadas esféricas: Colapso gravitatorio La solución de Schwarzschild permitió aplicar los postulados de la relatividad general a disciplinas como la mecánica celeste y la astrofísica, lo cual supuso una verdadera revolución en el estudio de la cosmología: Apenas seis años después de la publicación de los trabajos de Einstein, el físico ruso Aleksander Fridman introdujo el concepto de singularidad espacio-temporal, definido como un punto del espacio-tiempo en el que confluyen todas las geodésicas de las partículas que habían atravesado el horizonte de sucesos de un agujero negro. En condiciones normales, la curvatura producida por la masa de los cuerpos y las partículas es compensada por la temperatura o la presión del fluido y por fuerzas de tipo electromagnético, cuyo estudio es objeto de la física de fluidos y del estado sólido. Sin embargo, cuando la materia alcanza cierta densidad, la presión de las moléculas no es capaz de compensar la intensa atracción gravitatoria. La curvatura del espacio-tiempo y la contracción del fluido aumentan cada vez a mayor velocidad: el final lógico de este proceso es el surgimiento de una singularidad, un punto del espacio-tiempo donde la curvatura y la densidad de tetramomentum son infinitas. Ahora bien, el físico Subrahmanyan Chandrasekhar fue el primero en darse cuenta que la gravedad podía ser contenida no sólo por fuerzas de tipo mecánico, sino también por un fenómeno de origen cuántico al que llamó presión de degeneración, derivado del principio de exclusión de Pauli y que era capaz de sostener a estrellas cuya masa no superase el límite de Chandrasekhar. Estas ideas tan audaces le costaron caras a su autor, que fue ridiculizado en público por Sir Arthur Eddington durante un congreso de astrónomos. Sin embargo, los cálculos de Chandrasekhar se revelaron certeros, y sirvieron de base para la comprensión de un tipo estelar cuya naturaleza física hasta entonces era desconocida: la enana blanca. Relatividad general 134

Aproximaciones en coordenadas armónicas Dado que para muchos sistemas físicos no resulta sencillo obtener las expresiones exactas de las soluciones de las ecuaciones de Einstein, los físicos teóricos han desarrollado aproximaciones bastante precisas empleando series de potencias. De entre ellas las más importantes funcionan en coordenadas armónicas y reciben los nombres de aproximación posnewtoniana y aproximación para campos gravitatorios débiles. En virtud del principio de la covariancia general, ya examinado en secciones anteriores, es posible hacer funcionar a las ecuaciones de universo de Einstein en cualquier tipo de coordenadas, incluidas las armónicas, que son aquéllas en las que se cumple la relación (como, por ejemplo, en el caso de las coordenadas cartesianas). Se hace necesario en este punto distinguir con claridad entre los conceptos de planitud del espacio-tiempo y armonicidad de un sistema de coordenadas: en una espacio-tiempo de curvatura nula, como el espacio-tiempo de Minkowski, es posible utilizar coordenadas no-armónicas como las esféricas o las cilíndricas, sin que ello implique que el espacio se curve, ya que la curvatura es una cualidad instrínseca de cualquier variedad e independiente de nuestro sistema de referencia. Para campos gravitatorios poco intensos, como los existentes en el espacio interestelar, es recomendable utilizar la llamada aproximación para campos débiles, que es, como veremos, muy similar en su estructura a la fórmula de Poisson newtoniana, si bien las diferencias con esta última son enormes.

La fórmula de Poisson afirma que el laplaciano del potencial gravitatorio es igual :

Ondas gravitatorias. La solución en el vacío de la aproximación

para campos gravitatorios débiles ( )

tiene una estructura similar a la ecuación diferencial de ondas de d'Alembert, de lo que se deduce que las perturbaciones de la métrica tienen una naturaleza ondulatoria y se transmiten a través del espacio-tiempo a la velocidad de la luz. Relatividad general 135

Esta fórmula plantea un grave inconveniente, y es que presupone el principio de acción a distancia: No tiene en cuenta el retardo en la medición del campo gravitatorio realizada por un determinado observador (pongamos, un observador en la tierra) situado a cierta distancia a la masa del cuerpo que genera dicho campo gravitatorio (p.e. el Sol, situado a 8 minutos luz de nuestro planeta). De ahí que uno de los primeros intentos de compatibilizar la teoría de la Relatividad Especial y la En la imagen se reproducen las ondas gravitatorias emitidas por una Gravitación Universal consistiera en sustituir el estrella durante su colapso. laplaciano de la fórmula de Poisson por un d'Alembertiano, una de cuyas soluciones es, precisamente, un potencial retardado:

Como vemos, el potencial gravitatorio medido por el observador en el tiempo t, es proporcional a la densidad de masa que tiene el cuerpo estelar observado en el tiempo t - r/c, donde c es la velocidad de la luz, r es la distancia entre el observador y el objeto y r/c es el retardo, es decir, el tiempo que la luz tarda en desplazarse desde la estrella en cuestión hasta el observador. Ahora bien, la relatividad general es una teoría métrica de la gravedad, y explica los fenómenos gravitatorios en términos de perturbaciones de la métrica. Es conveniente, por tanto, introducir en nuestra ecuación el pseudotensor , que representa la desviación de los coeficientes del tensor métrico respecto a la métrica de Minkowski . Aplicando el límite newtoniano, en cuya virtud es igual a , obtenemos el resultado siguiente:

Fórmula de Poisson

Aproximación para campos débiles

A grandes rasgos, la sustitución del laplaciano por el d'alembertiano viene exigida por la obligada eliminación del principio de acción a distancia; el empleo del pseudotensor en lugar del potencial como elemento definitorio del campo gravitatorio es una consecuencia de la del carácter métrico de la teoría de la relatividad general; y finalmente, la eliminación, en el lado derecho de la ecuación, del parámetro y su sustitución por la expresión tensorial viene exigida por el principio de la covariancia general. Relatividad general 136

Sin embargo, en el análisis de la evolución de sistemas astronómicos como el solar o el formado por estrellas dobles o tripoles, la aproximación para campos débiles no es útil, ya que el uso de esta última se restringe a zonas del espacio-tiempo con poca densidad de tetramomentum. En estos casos es preferida la aproximación posnewtoniana que como su propio nombre indica prescinde del empleo de la compleja notación del cálculo tensorial y describe el movimiento de los cuerpos celestes utilizando los conceptos La aproximación posnewtoniana permite a los astrónomos calcular matemáticos que empleó el propio Newton a la hora con suma precisión la posición y el movimiento de los planetas del describir las leyes de la mecánica y de la gravitación Sistema Solar, teniendo en cuenta los efectos relativistas. universal (vectores, gradientes, etc.).

En los siglos XVIII y XIX, astrónomos como Laplace y Le Verrier habían aplicado los postulados de la mecánica newtoniana al estudio de la evolución del Sistema Solar, obteniendo unos resultados muy fructuosos: La precisión de los cálculos astronómicos obtenidos había permitido incluso prever la existencia de un planeta hasta entonces nunca observado por los astrónomos, Neptuno. Por este motivo no es de extrañar que cuando la relatividad general obtuvo pleno reconocimiento, se desarrollase por parte de los astrofísicos una aproximación que siguiera en su estructura el modelo newtoniano y que fuese fácilmente aplicable tanto por los astrónomos como por los ordenadores. De acuerdo con la teoría clásica de la gravitación, la aceleración de un cuerpo en caída libre es el gradiente negativo del potencial gravitatorio:

Como ya se ha avanzado en secciones anteriores, esta fórmula presupone la asunción del principio newtoniano de acción a distancia, contrario a los postulados de la Relatividad Especial, y además no tiene en cuenta los efectos gravitatorios generados por la energía y por el momentum. La aproximación posnewtoniana soslaya estos inconvenientes introduciendo otros dos nuevos potenciales: el potencial , que constituye una aproximación en segundo grado del potencial y el potencial , derivado de la presencia de momentum en el fluido.

Potenciales de la aproximación posnewtoniana

Notación Expresión Algebraica Significado físico

Potencial newtoniano (densidad de masa)

Retardo del potencial newtoniano, densidad de energía

Potencial derivado del momentum

Las ecuaciones de movimiento quedarían reformuladas de la siguiente forma: Relatividad general 137

Soluciones relacionadas con los modelos de Universo Existen un cierto número de soluciones exactas de las ecuaciones que describen un universo completo y por tanto pueden ser consideradas modelos cosmológicos entre ellas destacan: • Métrica de Friedman-Lemaître-Robertson-Walker, que describe un tipo de universo homogéneo, isótropo y en expansión y puede considerarse una primera aproximación de la forma de nuestro universo a gran escala. • Universo de Gödel, obtenida por el matemático Kurt Gödel representa un universo homogéneo e isótropo con materia en rotación. Aunque no se considera que describa un universo similar al nuestro tiene la importante propiedad de contener curvas temporales cerradas que representan un ejemplo contraintuitivo donde un observador puede viajar a su propio pasado sin violar ninguna ley física conocida.

Predicciones de la relatividad general

Se considera que la teoría de la relatividad general fue comprobada por primera vez en la observación de un eclipse total de Sol en 1919, realizada por Sir Arthur Eddington, en la que se ponía de manifiesto que la luz proveniente de estrellas lejanas se curvaba al pasar cerca del campo gravitatorio solar, alterando la posición aparente de las estrellas cercanas al disco del Sol. Desde entonces muchos otros experimentos y aplicaciones han demostrado las predicciones de la relatividad general. Entre algunas de las predicciones se encuentran:

Efectos gravitacionales

• Desviación gravitacional de luz hacia el rojo en presencia de campos con intensa gravedad: La frecuencia de la luz decrece al pasar por una región de elevada gravedad. Confirmado por el experimento de Pound y Rebka (1959). • Dilatación gravitacional del tiempo: Los relojes situados en condiciones de gravedad La más famosa de las primeras verificaciones positivas de la teoría de la elevada marcan el tiempo más lentamente relatividad, ocurrió durante un eclipse solar de 1919, que se muestra en la que relojes situados en un entorno sin imagen tomada por Sir Arthur Eddington de ese eclipse, que fue usada para gravedad. Demostrado experimentalmente confirmar que el campo gravitatorio del sol curvaba los rayos de luz de con relojes atómicos situados sobre la estrellas situadas tras él. superficie terrestre y los relojes en órbita del Sistema de Posicionamiento Global (GPS por sus siglas en inglés). También, aunque se trata de intervalos de tiempo muy pequeños, las diferentes pruebas realizadas con sondas planetarias han dado valores muy cercanos a los predichos por la relatividad general. • Efecto Shapiro (dilatación gravitacional de desfases temporales): Diferentes señales atravesando un campo gravitacional intenso necesitan mayor tiempo para atravesar dicho campo. • Decaimiento orbital debido a la emisión de radiación gravitacional. Observado en púlsares binarios. Relatividad general 138

• Precesión geodésica: Debido a la curvatura del espacio-tiempo, la orientación de un giroscopio en rotación cambiará con el tiempo. Esto se comprobó exitosamente en mayo de 2011 por el satélite Gravity Probe B.

Efectos rotatorios Esto implica el comportamiento del espacio-tiempo alrededor de un objeto masivo rotante. • Fricción del marco de referencia. Un objeto en plena rotación va a arrastrar consigo al espacio-tiempo, causando que la orientación de un giroscopio cambie con el tiempo. Para una nave espacial en órbita polar, la dirección de este efecto es perpendicular a la precisión geodésica. • El principio de equivalencia fuerte: incluso objetos que gravitan en torno a ellos mismos van a responder a un campo gravitatorio externo en la misma manera que una partícula de prueba lo haría.

Otros efectos • Gravitones: De acuerdo con la teoría cuántica de campos, la radiación gravitacional debe ser compuesta por cuantos llamados gravitones. La relatividad general predice que estos serán partículas de espín 2. Todavía no han sido observados.

Comprobaciones La teoría de la relatividad general ha sido confirmada en numerosas formas desde su aparición. Por ejemplo, la teoría predice que la línea del universo de un rayo de luz se curva en las proximidades de un objeto masivo como el Sol. La primera comprobación empírica de la teoría de la relatividad fue a este respecto. Durante los eclipses de 1919 y 1922 se organizaron expediciones científicas para realizar esas observaciones. Después se compararon las posiciones aparentes de las estrellas con sus posiciones aparentes algunos meses más tarde, cuando aparecían de noche, lejos del Sol. Einstein predijo un desplazamiento aparente de la posición de 1,745 segundos de arco para una estrella situada justo en el borde del Sol, y desplazamientos cada vez menores de las estrellas más distantes. Se demostró que sus cálculos sobre la curvatura de la luz en presencia de un campo gravitatorio eran exactos. En los últimos años se han llevado a cabo mediciones semejantes de la desviación de ondas de radio procedentes de quásares distantes, utilizando interferómetros de radio. Las medidas arrojaron unos resultados que coincidían con una precisión del 1% con los valores predichos por la relatividad general. Otra confirmación de la relatividad general está relacionada con el perihelio del planeta Mercurio. Hacía años que se sabía que el perihelio (el punto en que Mercurio se encuentra más próximo al Sol) gira en torno al Sol una vez cada tres millones de años, y ese movimiento no podía explicarse totalmente con las teorías clásicas. En cambio, la teoría de la relatividad sí predice todos los aspectos del movimiento, y las medidas con radar efectuadas recientemente han confirmado la coincidencia de los datos reales con la teoría con una precisión de un 0,5%. Se han realizado otras muchas comprobaciones de la teoría, y hasta ahora todas parecen confirmarla. Prácticamente con la más reciente prueba del satélite Gravity Probe B, se podría considerar a la teoría como una ley.

Aplicaciones prácticas Los relojes en los satélites GPS requieren una sincronización con los situados en tierra para lo que hay que tener en cuenta la teoría general de la relatividad y la teoría especial de la relatividad. Si no se tuviese en cuenta el efecto que sobre el tiempo tiene la velocidad del satélite y su gravedad respecto a un observador en tierra, se produciría un adelanto de 38 microsegundos por día en el reloj del satélite (sin corrección, su reloj retrasaría al día 7 microsegundos como consecuencia de la velocidad y adelantaría 45 microsegundos por efecto de la gravedad), que a su vez provocarían errores de varios kilómetros en la determinación de la posición.[12] Puede considerarse otra comprobación de ambas teorías. Relatividad general 139

Relación con otras teorías físicas En esta parte, la mecánica clásica y la relatividad especial están entrelazadas debido a que la relatividad general en muchos modos es intermediaria entre la relatividad especial y la mecánica cuántica. Sujeto al principio de acoplamiento mínimo, las ecuaciones físicas de la relatividad especial pueden ser convertidas a su equivalente de la relatividad general al reemplazar la métrica de Minkowski (η ) con la relevante métrica del ab espacio-tiempo (g ) y reemplazando cualquier derivada normal con derivadas covariantes. ab

Inercia Tanto en mecánica cuántica como en relatividad se asumía que el espacio, y más tarde el espacio-tiempo, eran planos. En el lenguaje de cálculo tensorial, esto significaba que Ra = 0, donde Ra es el tensor de curvatura de bcd bcd Riemann. Adicionalmente, se asumía que el sistema de coordenadas era un sistema de coordenadas cartesianas. Estas restricciones le permitían al movimiento inercial ser descrito matemáticamente como: donde • xa es un vector de posición, • , y • τ es tiempo propio. Hay que notar que en la mecánica clásica, xa es tridimensional y τ ≡ t, donde t es una coordenada de tiempo. En la relatividad general, si estas restricciones son usadas en la forma de espacio-tiempo y en el sistema de coordenadas, éstas se perderán. Ésta fue la principal razón por la cual se necesitó una definición diferente de movimiento inercial. En relatividad especial, el movimiento inercial ocurre en el espacio de Minkowski como parametrizada por el tiempo propio. Esto se generaliza a espacios curvos matemáticamente mediante la ecuación de las geodésicas: donde • es un símbolo de Christoffel (de otro modo conocido como conexión de Levi-Civita). Como x es un tensor de rango uno, estas ecuaciones son cuatro y cada una está describiendo la segunda derivada de una coordenada con respecto al tiempo propio. (En la métrica de Minkowski de la relatividad especial, los valores de conexión son todos ceros. Esto es lo que convierte a las ecuaciones geodésicas de la relatividad general en para el espacio plano de la relatividad especial).

Gravitación En gravitación, la relación entre la teoría de la gravedad de Newton y la relatividad general son gobernadas por el principio de correspondencia: la relatividad general tiene que producir los mismos resultados, así como la gravedad lo hace en los casos donde la física newtoniana ha demostrado ser certera. Alrededor de objetos simétricamente esféricos, la teoría de la gravedad de Newton predice que los otros objetos serán acelerados hacia el centro por la ley:

Donde: , es la masa del objeto atraído, , es la distancia al objeto atraído, y es un vector de unidad identificando la dirección al objeto masivo. En la aproximación de campo débil de la relatividad general tiene que existir una aceleración en coordenadas idénticas. En la solución de Schwarzschild, la misma aceleración de la fuerza de gravedad es obtenida cuando la constante de integración es igual a 2m (donde m = GM/c2). Relatividad general 140

Electromagnetismo El electromagnetismo planteó un obstáculo fundamental para la mecánica clásica, debido a que las ecuaciones de Maxwell no son invariantes según la relatividad galileana. Esto creaba un dilema que fue resuelto por el advenimiento de la relatividad especial. En forma tensorial, las ecuaciones de Maxwell son: , y

Donde: , es el tensor de campo electromagnético, y , es una cuadricorriente. El efecto de un campo electromagnético en un objeto cargado de masa m es entonces:

Donde es el cuadrimomento del objeto cargado. En la relatividad general, las ecuaciones de Maxwell se convierten en and . La ecuación para el efecto del campo electromagnético sigue siendo la misma, aunque el cambio de métrica modificará sus resultados. Notesé que al integrar esta ecuación para cargas aceleradas las hipótesis habituales no son válidas (ya que implican que una carga sujeta en un campo gravitato debe comportarse como si estuviera uniformemente acelerada, lo que muestra que una carga uniformemente acelerada no puede radiar).

Conservación de energía-momentum En la mecánica clásica, la conservación de la energía y el momentum son manejados separadamente. En la relatividad especial, la energía y el momentum están unidos en el cuadrimomento y los tensores de energía. Para cualquier interacción física, el tensor de energía-impulso satisface la ley local de conservación siguiente:

En la relatividad general, esta relación es modificada para justificar la curvatura, convirtiéndose en:

donde ∇ representa aquí la derivada covariante. A diferencia de la mecánica clásica y la relatividad especial, en la relatividad general no es siempre posible definir claramente la energía total y el momentum. Esto a menudo causa confusión en espacio-tiempos dependientes del tiempo, en los que no existen vectores de Killing temporales, los cuales no parecen conservar energía, aunque la ley local siempre se satisfaga (Ver energía de Arnowitt, Deser y Misner).

Transición de la relatividad especial a la relatividad general La teoría de la relatividad especial presenta covariancia de Lorentz esto significa que tal como fue formulada las leyes de la física se escriben del mismo modo para dos observadores que sean inerciales. Einstein estimó, inspirado por el principio de equivalencia que era necesaria una teoría que presentara una para la que valiera un principio de covariancia generalizado, es decir, en que las leyes de la física se escribieran de la misma forma para todos los posibles observadores fueron estos inerciales o no, eso le llevó a buscar una teoría general de la relatividad. Además el hecho de que la propia teoría de la relatividad fuera incompatible con el principio de acción a distancia le hizo comprender que necesitaba además que esta teoría general incorporase una descripción adecuada del campo Relatividad general 141

gravitatorio. Hoy sabemos que Einstein consideraba que la teoría de la relatividad sólo era aplicable a sistemas de referencia inerciales estrictamente, aunque Logunov ha probado en el marco de la teoría relativista de la gravitación que de hecho fijado un observador inercial o no, cualquier otro que se mueva con velocidad uniforme respecto al primero escribirá las leyes físicas de la misma forma. Probando así que la relatividad especial de hecho es más general de lo que Einstein creyó en su momento. Además el trabajo de Logunov prueba que siempre que el espacio-tiempo sea plano puede establecerse para cada observador existe un grupo decaparamétrico de transformaciones de coordenadas que generaliza las propiedades del grupo de Lorentz para observadores no inerciales. El principio de geometrización y el principio de equivalencia fueron las piedras angulares en las que Einstein basó su búsqueda de una nueva teoría, tras haber fracasado en el intento de formular una teoría relativista de la gravitación a partir de un potencial gravitatorio. La teoría escalar de la gravitación de Nordström[13] y la interpretación geométrica que extrajo de ella Adriaan Fokker (1914), el estudiante de doctorado de Hendrik Lorentz, llevaron a Einstein a poder relacionar el tensor de energía-impulso con la curvatura escalar de Ricci de un espacio-tiempo con métrica:

que involucraba la métrica del espacio-tiempo plano y un campo escalar relacionado con el campo gravitatorio. La superación de las deficiencias de la teoría de la gravitación escalar de Nordström llevaron a Einstein a formular las ecuaciones correctas de campo.

Véase también • Teoría relativista de la gravitación • Teoría de la Relatividad Especial • Introducción matemática a la relatividad general

Referencias [1] En alemán: "Über den Einfluß der Schwerkfraft auf die Ausbreitung des Lichtes" [2] Ello como consecuencia de la fórmula de Planck, que supone que cuanto más energéticos sean los fotones, más alta es su frecuencia. [3] Escogemos un sistema de coordenadas esférico, compuesto de tres grados de libertad: Latitud , longitud y distancia respecto al centro . Los componentes y de la aceleración son iguales a cero. La aceleración gravitatoria tiene lugar exclusivamente en dirección al centro de la Tierra. [4] Ambas notaciones son alternativas. [5] La gravitación universal newtoniana establece que la fuerza (y por lo tanto la aceleración radial) de atracción ejercida por el Sol sobre la tierra es inversamente proporcional al cuadrado de la distancia de ambos cuerpos celestes [6] La tercera ley de Kepler afirma que los planetas barren áreas iguales en tiempos iguales. Para que esta ley mantenga su validez en toda la trayectoria orbital terrestre es necesario que la aceleración angular sea máxima en las regiones próximas al perihelio, de tal manera que se compense con ello las menores dimensiones del radio. [7] Más adelante analizaremos con profundidad este tema en el capítulo dedicado a la métrica de Schwarzschild. [8] En las estrellas de la secuencia principal, la presión viene integrada por dos elementos diferentes: La presión molecular, que es causada por la energía cinética de los átomos e iones del fluido estelar, y que viene parametrizada por la ecuación de Boltzmann , y la presión de radiación, que es aquella originada por los fotones. Ambos tipos de presión tienden a compensarse en virtud de un proceso físico denominado Bremsstrahlung (radiación de freno). De este modo, los fotones, que en el núcleo del átomo son generados con niveles de energía correspondientes al especro de los rayos gamma, salen del sol con frecuencias del espectro ultravioleta y sobre todo, del de la luz visible. [9] Dichos efectos se ven incrementados por el desencadenamiento de reacciones termonucleares en todas las capas de la estrella, y no sólo en su núcleo [10] En alemán: "Anwendung der allgemeinen Relativitätstheorie auf das Gravitationsfeld" [11] La relatividad general distingue entre fluidos relativistas, que viajan a velocidades cercanas a la de la luz, y no relativistas, que lo hacen a velocidades relativamente bajas. Al respecto, léase Teoría de la Relatividad.

[12] Guillermo Sánchez. « Sistema posicionamiento global (GPS) y las teorías de la relatividad (http:/ / web. usal. es/ ~guillermo/ publications/

Popularscience/ GPSyRelatividadporGuillermoSanchez. pdf)».

[13] Ver por ejemplo, Nordström's theory of gravitation (http:/ / en. wikipedia. org/ wiki/ Nordström's_theory_of_gravitation) Relatividad general 142

Bibliografía • Hawking, Stephen; and Ellis, G. F. R. (1973). The Large Scale Structure of Space-Time. Cambridge: Cambridge University Press. ISBN 0-521-09906-4. • Misner, Thorne and Wheeler, Gravitation, Freeman, (1973), ISBN 0-7167-0344-0. • Robert M. Wald, General Relativity, Chicago University Press, ISBN 0-226-87033-2. • Steven Weinberg, Gravitation and Cosmology: principles and applications of the general theory of relativity, Wiley (1972), ISBN 0-471-92567-5.

Enlaces externos

• Página introductoria a la relatividad general de la Universidad de Illinois (http:/ / archive. ncsa. uiuc. edu/ Cyberia/ NumRel/

GenRelativity. html) (en inglés)

• Tesis de Juan Antonio Navarro González de la Universidad de Extremadura (http:/ / kolmogorov. unex. es/ ~navarro/ relatividad/

apuntrel. pdf) • Otero Carvajal, Luis Enrique: "Einstein y la revolución científica del siglo XX, Cuadernos de Historia Contemporánea, nº 27, 2005, INSS

0214-400-X (http:/ / www. ucm. es/ info/ / hcontemp/ leoc/ hciencia. htm) • Otero Carvajal, Luis Enrique: "Einstein y la teoría de la relatividad. Del Universo estático al Universo en expansión", Umbral, revista de la

Facultad de Estudios Generales de la Universidad de Puerto Rico, recinto de Río Piedras (http:/ / www. ucm. es/ info/ hcontemp/

leoc/ Einstein y la relatividad general. pdf) • Otero Carvajal, Luis Enrique: "La cosmología relativista. Del Universo estático al Universo en expansión", en Umbral, revista de la Facultad

de Estudios Generales de la Universidad de Puerto Rico, recinto de Río Piedras (http:/ / www. ucm. es/ info/ hcontemp/ leoc/ la

cosmologia relativista. pdf)

• ¿Hacia una nueva prueba de la relatividad general? Artículo en Astroseti.org (http:/ / www. astroseti. org/ vernew. php?codigo=2061)

• http:/ / es. groups. yahoo. com/ group/ relatividad/ foro sobre relatividad en español

• http:/ / www. relatividad. org/ bhole/ relatividad. htm apuntes sobre relatividad

• Relatividad sin fórmulas (http:/ / eltamiz. com/ category/ fisica/ relatividad-sin-formulas/ page/ 2/ ) Principio de equivalencia 143 Principio de equivalencia

El principio de equivalencia es el principio físico fundamental de la relatividad general y de varias otras teorías métricas de la gravedad. Afirma que puntualmente es indistinguible un sistema campo gravitatorio de un sistema de referencia no inercial acelerado. Así fijado un determinado acontecimiento instantáneo de naturaleza puntual (un evento o suceso) en el seno de un campo gravitatorio puede ser descrito por un observador acelerado situado en ese punto, como moviéndose libremente. Es decir, existe cierto observador acelerado que no tiene forma de distinguir si las partículas se mueven o no dentro de un campo gravitatorio. Por ejemplo: si caemos tras una piedra desde un acantilado, la veremos descender con velocidad constante, exactamente igual que si no existiera el campo gravitatorio que nos hace caer. Lo mismo les ocurre a los astronautas en torno a su nave, donde les parece que todo flota como si no cayera hacia la Tierra siguiendo su órbita. Este principio fue utilizado por Einstein para intuir que la trayectoria de las partículas en caída libre en el seno de un campo gravitatorio depende únicamente de la estructura métrica de su entorno inmediato o, lo que es igual, del comportamiento de los metros y los relojes patrones en torno suyo. Formalmente suelen presentarse tres tipos de principio de equivalencia para formular las leyes del movimiento de los cuerpos: • Débil o Principio de Equivalencia de Galileo. • Principio de Equivalencia de Einstein. • Principio de Equivalencia Fuerte.

Formulaciones del principio de equivalencia

Principio de Equivalencia Débil La formulación débil se puede enunciar de la siguiente manera: "El movimiento de cualquier partícula de prueba en caída libre es independiente de su composición y estructura". Este principio se remonta al libro de Galileo Galilei Diálogos Sobre las Dos Nuevas Ciencias, en el cual Galileo narra que después de realizar varios experimentos con diferentes tipos de materiales, llega a la conclusión de que en un medio sin resistencia todos los cuerpos caen con la misma aceleración. Esto se puede ver de la siguiente manera, la Segunda Ley del Movimiento de Isaac Newton,

donde la masa inercial es la resistencia de un cuerpo a ser acelerado. Por otro lado, de la Ley de Gravitación Universal de Newton se cumple que:

Para un objeto en caída libre, es decir, sin más fuerzas actuando en él, se tiene la igualdad de ambas fórmulas:

por lo que el principio de equivalencia en forma débil especifica la igualdad entre las masas inercial y gravitacional, volviéndolas indistinguibles.

Esta formulación ha sido probada a gran precisión desde los experimentos de Eötvos y es uno de los principios más probados de la física. Principio de equivalencia 144

Principio de Equivalencia de Einstein La formulación de Einstein se obtiene al incorporar la Relatividad Especial al Principio de Equivalencia de Galileo. Formalmente puede enunciarse de la manera siguiente: El resultado de cualquier experimento no gravitacional en un laboratorio desplazándose en un sistema de referencia inercial es independiente de la velocidad del laboratorio o de su localización en el espacio-tiempo. Esta es la forma más usual del principio de equivalencia. Otra forma de formular el principio de equivalencia fuerte es que en una vecindad lo suficientemente pequeña del espacio-tiempo, las leyes de la física no gravitacionales obedecen las leyes de la relatividad especial en un marco de referencia en caída libre o marco geodésico, es decir un marco de referencia cuyo origen de coordenadas se mueve a lo largo de una línea geodésica.

Principio de Equivalencia Fuerte El principio de equivalencia fuerte se formula de la siguiente manera: El movimiento gravitacional de un cuerpo de prueba depende únicamente de su posición inicial en el espacio tiempo y no de su constitución, y el resultado de cualquier experimento local, gravitacional o no, en un laboratorio moviéndose en un sistema de referencia inercial es independiente de la velocidad del laboratorio y de su localización en el espacio-tiempo. Es decir, en un marco de referencia en caída libre, y en una vecindad lo suficientemente pequeña del espacio-tiempo, todas las leyes de la física obedecen las leyes de Relatividad Especial. El principio de equivalencia fuerte sugiere que la gravedad es de naturaleza puramente geométrica (esto es, la métrica determina los efectos de la gravedad) y no contiene ningún campo adicional asociado con ella.

Consecuencias del principio de equivalencia

Movimiento a lo largo de geodésicas La Relatividad general, como teoría física de interacción que es, se compone de dos partes. La primera permite calcular, mediante la ecuación de Einstein, la curvatura del espacio-tiempo a partir de una distribución de energía. La segunda determina el movimiento de una masa prueba en un espacio-tiempo curvo, y es la ecuación de la geodésica. El Principio de Equivalencia afirma que en un sistema de referencia en caída libre se anulan los efectos de la gravedad, y la física que allí se mida es coherente con la Relatividad especial. Desarrollando matemáticamente este enunciado se concluye que la trayectoria de una masa en un campo gravitatorio es una geodésica en el espacio-tiempo. De este modo, se podría decir que el Principio de Equivalencia, junto con el Principio de relatividad especial son los únicos principios físicos sobre los que se apoya la Relatividad general, ya que la ecuación de Einstein no está basada en ningún principio, sino que está deducida de una manera heurística. Principio de equivalencia 145

Lagrangiano del campo gravitatorio El principio de equivalencia establece la existencia de un sistema acelerado donde puntualmente el campo gravitatorio no se detecta. Ese sistema acelerado precisamente aquel en el que los símbolos de Christoffel de la métrica se anulan. Es decir, ese sistema de coordenadas donde el campo gravitatorio es puntualmente indetectable en el punto p, satisface que:

El hecho anterior junto con el hecho de que el lagrangiano debe ser un escalar físico independiente del sistema de referencia escogido, que el lagrangiano del campo gravitatorio no puede formarse exclusivamente a partir del tensor métrico y los símbolos de Christoffel , puesto que entonces debido a que este es nulo para el sistema de coordenadas considerado anteriormente, la variación sería idénticamente nula para todos los observadores, lo cual no tiene sentido físico. Eso implica que el lagrangiano del campo gravitatorio relativista debe contener derivadas superiores del tensor métrico, y por tanto el principio de equivalencia implica que el lagrangiano debe ser algún escalar relacionado con la métrica. En efecto, la forma más común de escribir el lagrangiano del campo gravitatorio es:

Donde son la curvatura escalar y el determinante del tensor métrico, y la integral anterior se extiende sobre una cierta región del espacio-tiempo.

Enlaces externos • Recientes Experimentos sobre el Principio de Equivalencia [1]

Véase también • Principio de Mach • Relatividad General

References

[1] http:/ / www. mazepath. com/ uncleal/ eotvos. htm Principio de covariancia 146 Principio de covariancia

El principio de covariancia o principio general de relatividad establece que las leyes de la física deben tomar la misma forma en todos los marcos de referencia. Esto es una extensión del principio de relatividad especial. El principio de covariancia es una de las motivaciones principales que llevaron a Einstein a generalizar la teoría de la relatividad especial.

Introducción Las ecuaciones de la mecánica newtoniana presuponían que el espacio y el tiempo eran magnitudes absolutas, de carácter universal. Sin embargo, este esquema era incompatible con la relatividad especial, cuyo axioma principal afirmaba que cada observador, dependiendo de su velocidad, tenía un tiempo local y un marco espacial diferente. De ahí que la ecuación gravitatoria de Poisson tuviese que ser reformulada, puesto que la densidad de masa es un concepto que depende de dos magnitudes fundamentales: La primera de ellas es la masa, que es una magnitud cuya medición depende del sistema de coordenadas que escojamos y que ha de ser sustituida por la única magnitud conservada e invariante ante las transformaciones de Lorentz, el tetramomentum. La segunda de estas magnitudes es el espacio, que experimenta una contracción sensible en aquellos marcos que se muevan a grandes velocidades. Por este motivo, la densidad de masa no es un parámetro invariante, sino que su medición da resultados diferentes conforme se modifica la velocidad del observador. El problema se plantea asimismo en el marco de las ecuaciones de Maxwell, que también contienen gradientes y derivadas temporales, y por lo tanto no son transformables. Se hace necesario por tanto, reformular las principales ecuaciones de la mecánica clásica y la teoría electromagnética para que sean válidas para todos los sistemas de referencia. Para ello dichas leyes han de expresarse tensorialmente: Sus "ingredientes" han de venir constituidos por elementos que permanezcan invariantes ante las transformaciones de Lorentz, como las constantes o los escalares, o que sean transformables de acuerdo a ellas (es el caso de los tensores).

Reformulación de las leyes físicas de acuerdo con el principio de covariancia general

Ley física Formulación Formulación relativista newtoniana (covariante) (no covariante)

Segunda ley de Newton

Ecuación de Poisson (caso gravitatorio)

Ecuación de Poisson (caso electromagnético)

Fuerza de Lorentz Principio de covariancia 147

Formulación El principio de covarianza general afirma que las leyes o ecuaciones fundamentales de la física deben tener la misma forma para cualquier observador sea cual sea el estado de movimiento de éste. La objetividad del mundo material requiere que las medidas hechas por diversos observadores sean relacionables mediante leyes de transformación fijas: 1. Matemáticamente el principio de covariancia implica que las leyes de la física deben ser leyes tensoriales en el que las magnitudes medidas por diferentes observadores sean relacionables de acuerdo a la transformación de coordenadas de cada observador. 2. Físicamente el principio de covariancia depende de que para diversos sistemas de referencia coordenados no exista procedimiento físico para distinguir entre ellos. Influido por el principio de equivalencia y otras observaciones, Einstein y otros llegaron a teorizar que era posible construir una teoría donde todas las ecuaciones pudieran ser escritas en una forma suficientemente general como para tener la misma forma en cualquier sistema de coordenadas.

Ejemplo de aplicación Un ejemplo de los requerimientos del principio de covarianza es el equivalente relativista de la segunda ley de Newton que se escribe para cualquier sistema de coordenadas xi, en términos del tiempo propio (τ), los símbolos de Christoffel (Γ) del sistema de coordenadas y las componentes de la cuadrifuerza (F) como:

Así la distinción aparente entre sistemas inerciales y no inerciales de la mecánica newtoniana era ilusoria y desaparece en relatividad general, ya que estos no son más que sistemas en los que los símbolos de Christoffel que aparecen en la expresión anterior se anulan, y por tanto, los sistemas inerciales son sólo un caso particular de sistema de referencia, pero no un tipo privilegiado o de ningún modo destacado de sistema de referencia, un vez las leyes se formulan en la forma covariante adecuada.

Véase también • Principio de relatividad especial o covariancia de Lorentz. Transformación de Lorentz 148 Transformación de Lorentz

Las transformaciones de Lorentz, dentro de la teoría de la relatividad especial, son un conjunto de relaciones que dan cuenta de cómo se relacionan las medidas de una magnitud física obtenidas por dos observadores diferentes. Estas relaciones establecieron la base matemática de la teoría de la relatividad especial de Einstein, ya que las transformaciones de Lorentz precisan el tipo de geometría del espacio-tiempo requeridas por la teoría de Einstein.

Historia

Históricamente las transformaciones de Lorentz fueron introducidas por Hendrik Antoon Lorentz (1853 - 1928), que las había introducido Diagrama 1. Apariencia del espacio-tiempo a lo fenoménicamente para resolver ciertas inconsistencias entre el largo de una línea de universo de un observador electromagnetismo y la mecánica clásica. Lorentz había descubierto en acelerado.La dirección vertical indica el tiempo, el año 1900 que las ecuaciones de Maxwell resultaban invariantes bajo la horizontal indica la distancia espacial, la línea punteada es la trayectoria del observador en el este conjunto de transformaciones, ahora denominadas espacio tiempo. El cuarto inferior representa el transformaciones de Lorentz. Al igual que los demás físicos, antes del conjunto de sucesos pasados visibles al desarrollo de la teoría de la relatividad, asumía que la velocidad observador. Los puntos pueden representar invariante para la transmisión de las ondas electromagnéticas se refería cualquier tipo de sucesos en el espacio tiempo La pendiente de la línea de universo o trayectoria de a la transmisión a través de un sistema de referencia privilegiado, la vertical da la velocidad relativa del observador. hecho que se conoce con el nombre de hipótesis del éter. Sin embargo, tras la interpretación por parte de Albert Einstein de dichas relaciones como transformaciones de coordenadas genuinas en un espacio-tiempo tetradimensional la hipótesis del éter fue puesta en entredicho.

Las transformaciones de Lorentz fueron publicadas en 1904 pero su formalismo matemático inicial era incorrecto. El matemático francés Poincaré desarrolló el conjunto de ecuaciones en la forma consistente en la que se conocen hoy en día. Los trabajos de Minkowski y Poincaré mostraron que las relaciones de Lorentz podían interpretarse como las fórmulas de transformación para rotación en el espacio-tiempo cuatridimensional, que había sido introducido por Minkowski.

Véase también: Historia de la Relatividad Especial

Forma de las transformaciones de Lorentz Las transformaciones de Lorentz relacionan las medidas de una magnitud física realizadas por dos observadores inerciales diferentes, siendo el equivalente relativista de la transformación de Galileo utilizada en física hasta aquel entonces. La transformación de Lorentz permite preservar el valor de la velocidad de la luz constante para todos los observadores inerciales. Transformación de Lorentz 149

Transformaciones de Lorentz de las coordenadas Una de las consecuencias de que —a diferencia de lo que sucede en la mecánica clásica— en mecánica relativista no exista un tiempo absoluto, es que tanto el intervalo de tiempo entre dos sucesos, como las distancias efectivas medidas por diferentes observadores en diferentes estados de movimiento son diferentes. Eso implica que las coordenadas de tiempo y espacio medidas por dos observadores inerciales difieran entre sí. Sin embargo, debido a la objetividad de la realidad física las medidas de unos y otros observadores son relacionables por reglas fijas: las transformaciones de Lorentz para las coordenadas. Para examinar la forma concreta que toman estas transformaciones de las coordenadas se consideran dos sistemas de referencia inerciales u observadores inerciales: y y se supone que cada uno de ellos representa un mismo suceso S o punto del espacio-tiempo (representable por un instante de tiempo y tres coordenadas espaciales) por dos sistemas de coordenadas diferentes:

Puesto que los dos conjuntos de cuatro coordenadas representan el mismo punto del espacio-tiempo, estas deben ser relacionables de algún modo. Las transformaciones de Lorentz dicen que si el sistema está en movimiento uniforme a velocidad a lo largo del eje X del sistema y en el instante inicial ( ) el origen de coordenadas de ambos sistemas coinciden, entonces las coordenadas atribuidas por los dos observadores están relacionadas por las siguientes expresiones:

O equivalentemente por las relaciones inversas de las anteriores:

Donde es la velocidad de la luz en el vacío. Las relaciones anteriores se pueden escribir también en forma matricial:

Donde se ha introducido para abreviar las expresiones el factor de Lorentz y la velocidad relativa respecto de la luz:

La transformación de Lorentz anterior toma esa forma en el supuesto de que el origen de coordenadas de ambos sistemas de referencia sea el mismo para t = 0; si se elimina esta restricción la forma concreta de las ecuaciones se complica. Si, además, se elimina la restricción de que la velocidad relativa entre los dos sistemas se dé según el eje X y que los ejes de ambos sistemas de coordenadas sean paralelos, las expresiones de la transformación de Lorentz se complican más aún, denominándose la expresión general transformación de Poincaré.

Transformaciones de Lorentz para el momento y la energía El requerimiento de covariancia de la teoría de la relatividad requiere que cualquier magnitud vectorial de la mecánica newtoniana venga representada en mecánica relativista por un cuadrivector o cuadritensor en teoría de la relatividad. Así, el momento lineal requiere ser ampliado a un cuadrivector llamado cuadrivector energía-momento o cuadrimomento, que viene dado por cuatro componentes, una componente temporal (energía) y tres componentes espaciales (momentos lineales en cada dirección coordenada): Transformación de Lorentz 150

Cuando se examina los cuadrimomentos medidos por dos observadores inerciales, se encuentra que ambos miden componentes diferentes del momento según su velocidad relativa a la partícula observada (algo que también sucede en mecánica newtoniana). Si se denota al cuadrimomento medido por dos observadores inerciales y con sistemas de coordenadas cartesianas de ejes paralelos y en movimiento relativo según el eje X, como los que se consideraron en el apartado anterior, los cuadrimomentos medidos por ambos observadores están relacionados por una transformación de Lorentz dada por:

Y la transformación inversa viene dada similarmente por:

O equivalentemente en forma matricial los dos conjuntos anteriores de ecuaciones se represetan como:

Donde se ha introducido de nuevo para abreviar las expresiones el factor de Lorentz y la velocidad relativa respecto de la luz.

Transformaciones de Lorentz para cuadrivectores Hasta ahora se ha considerado sólo sistemas inerciales en movimiento relativo respecto al eje X, pero igualmente se podría haber considerado sistemas de ejes paralelos respecto a los ejes Y y Z y, en ese caso, las matrices de transformación de coordenadas vendrían dadas por matrices similares a las consideradas en los apartados anteriores de la forma:

Las transformaciones anteriores se llaman a veces boosts, rotaciones espacio-temporales o a veces transformaciones de Lorentz propiamente dichas. El producto de cualquier número de transformaciones del tipo anterior constituye también una transformación de Lorentz. Todos esos productos conforman un subgrupo del grupo de Lorentz propio. En general el grupo de Lorentz propio está formado por: • Rotaciones espacio-temporales o boosts, que pueden escribirse como el producto de un número finito de boosts del tipo [*]. • Rotaciones espaciales, consistentes en un giro de ejes. Este tipo de transformación también forma parte del grupo de Galileo. El grupo de Lorentz propio así definido es un grupo de Lie conexo. Si a estas transformaciones propias se le añaden transformaciones impropias como las inversiones temporales y las reflexiones espaciales resulta el grupo de Lorentz completo, formado por cuatro componentes conexas cada una de ellas homeomorfa al grupo de Lorentz propio. Una vez definido el grupo de Lorentz podemos escribir las transformaciones lineales más generales posibles entre medidas tomadas por observadores inerciales cuyos ejes de coordenadas coinciden en el instante inicial: Transformación de Lorentz 151

Donde además del boost que da la transformación de coordenadas según la velocidad de separación relativa se han incluido las dos rotaciones en términos de los ángulos de Euler: • La matriz R(φ ,φ ,φ ) alinea el primer sistema de coordenadas de tal manera que el eje X transformado pase a ser 1 2 3 paralelo a la velocidad de separación de los dos sistemas. • La matriz R(θ ,θ ,θ ) es la rotación inversa de la que alinearía el eje X del segundo observador con la velocidad 1 2 3 de separación. En forma más compacta podemos escribir la última transformación en forma tensorial usando el convenio de sumación de Einstein como:

Forma tensorial general de las transformaciones de Lorentz Supongamos ahora que en lugar de medir magnitudes vectoriales dos observadores se ponen a medir las componentes de alguna otra magnitud tensorial, supongamos que los observadores y miden en sus sistemas de coordenadas la misma magnitud tensorial pero cada uno su propio sistema de coordenas llegando a:

El postulado de que existe una realidad objetiva independiente de los observadores y que las medidas de estos pueden ser comparadas mediante las transformaciones de covariancia adecuadas conduce a que si estos observadores son inerciales sus medidas estarán relacionadas por las sigientes relaciones:

Donde las matrices Λ se definen, al igual que el apartado anterior mediante el producto de dos rotaciones espaciales y una rotación temporal (boost) simple.

Enlaces externos • Vídeos de objetos vistos a velocidades cuasilumínicas [1] (Universidad de Tübingen)

References

[1] http:/ / web. archive. org/ web/ 20080326233020/ http:/ / www. tat. physik. uni-tuebingen. de/ ~weiskopf/ gallery/ index. html Tensor de Ricci 152 Tensor de Ricci

En geometría diferencial, el tensor de curvatura de Ricci o simplemente, tensor de Ricci, que suele notarse por los símbolos o Ric, es un tensor simétrico bivalente obtenido como una traza del tensor de curvatura, que, como aquel, puede definirse en cualquier variedad dotada de una conexión afín. Fue introducido en 1903 por el matemático italiano G. Ricci. En caso de estar definido en una variedad de Riemann, puede interpretarse como un Laplaciano del tensor métrico. Al igual que la métrica, el tensor de Ricci será una forma bilineal simétrica. En caso en que ambos sean proporcionales, , diremos que la variedad es una variedad de Einstein. El tensor de Ricci determina totalmente al tensor de curvatura, si la variedad de Riemann correspondiente tiene dimensión n < 4. En relatividad general, dado que el [espacio-tiempo]] tiene cuatro dimensiones, el tensor de Ricci no determina por completo la curvatura.

Definición La curvatura de Ricci puede expresarse en términos de la curvatura seccional de la manera siguiente: para un vector unitario v, es suma de las curvaturas seccionales de todos los planos atravesados por el vector v y un vector de un marco ortonormal que contiene a v (hay n-1 tales planos). Aquí R(v) es la curvatura de Ricci como un operador lineal en el plano tangente, y <.,.> es el producto escalar métrico. La curvatura de Ricci contiene la misma información que todas las tales sumas sobre todos los vectores unitarios. En las dimensiones 2 y 3 éste es igual que especificar todas las curvaturas seccionales o el tensor de curvatura, pero en dimensiones más altas la curvatura de Ricci contiene menos información. Por ejemplo, las variedades de Einstein no tienen que tener curvatura constante en las dimensiones 4 y más.

Expresión en coordenadas Usando un sistema de coordenadas natural, el tensor de curvatura de Ricci es igual a:

Aplicaciones del tensor de curvatura de Ricci

Invariantes topológicos La curvatura de Ricci se puede utilizar para definir las clases de Chern de un variedad, que son invariantes topológicos (por tanto independientes de la elección de métrica). La curvatura de Ricci también se utiliza en el flujo de Ricci, donde una métrica es deformada en la dirección de la curvatura de Ricci. En superficies, el flujo produce una métrica de curvatura de Gauss constante y se sigue el teorema de uniformización para las superficies.

Relatividad general La curvatura de Ricci desempeña un papel importante en relatividad general, de hecho, la ecuación del campo de Einstein se escriben en términos del tensor de Ricci como:

donde: es el tensor de la curvatura de Einstein, es el tensor de energía-momento, es la velocidad de la luz y es la constante gravitacional. El tensor de la curvatura de Einstein se puede escribir como: Tensor de Ricci 153

donde: es el tensor de Ricci, es la metrica y es el Escalar de Curvatura de Ricci

Topología global y la geometría de curvatura de Ricci positiva El teorema de Myers establece que si la curvatura de Ricci es limitada por abajo en una variedad completa de Riemann por , entonces su diámetro es , y la variedad tiene que tener un grupo fundamental finito. Si el diámetro es igual a , entonces la variedad es isométrica a una esfera de curvatura constante k. La desigualdad de Bishop-Gromov establece que si la curvatura de Ricci de un variedad m-dimensional completa de Riemann es ≥0 entonces el volumen de una bola es más pequeño o igual al volumen de una bola del mismo radio en el m-espacio euclideano. Más aún, si denota el volumen de la bola con centro p y radio en la variedad y el denota el volumen de la bola de radio R en el m-espacio euclidiano entonces la función es no creciente. (la última desigualdad se puede generalizar a una cota de curvatura arbitraria y es el punto dominante en la prueba del teorema de compacidad de Gromov.) El teorema de partición de Cheeger-Gromoll indica eso si una variedad completa de Riemann con el Ricc ≥ 0 tiene una línea recta (es decir una geodésica minimizante infinita de ambos lados) entonces es isométrica a un espacio R x L, donde L es una variedad de Riemann. Todos los resultados arriba mencionados demuestran que la curvatura de Ricci positiva tiene cierto significado geométrico, en contrario, la curvatura negativa no es tan restrictiva, en particular como fue demostrado por Joachim Lohkamp, cualquier variedad admite una métrica de curvatura negativa.

Tensor de curvatura

En geometría diferencial, el tensor de curvatura de Riemann , o simplemente tensor de curvatura o tensor de Riemann, supone una generalización del concepto de curvatura de Gauss, definido para superficies, a variedades de dimensiones arbitrarias. Representa una medida de la separación de la métrica de la variedad respecto de la métrica euclídea. Fue introducido en 1862 por Riemann y desarrollado en 1869 por Christoffel como una forma de describir completamente la curvatura en cualquier número de dimensiones mediante un "pequeño monstruo": un tensor de tipo (1,3) representado generalmente por el símbolo . El valor de cualquier otra entidad que describa la curvatura de una variedad puede deducirse de este tensor. Tal es el caso del tensor de Ricci (un tensor de tipo (0,2)), de la curvatura escalar o de la curvatura seccional. Aunque en 2 dimensiones la curvatura puede representarse por un escalar en cada punto (o tensor de orden cero), tal como hacía la curvatura de Gauss, la geometría de variedades de Riemann con dimensión mayor o igual que 3 es demasiado compleja como para describirla totalmente por un número en un punto dado. Así, en 3 dimensiones la curvatura puede representarse por un tensor de segundo orden (el tensor de Ricci). Sin embargo, para dimensiones superiores necesitaremos al menos un tensor de cuarto orden (el tensor de Riemann). El tensor de curvatura tiene una influencia notable en la evolución de la separación de un conjunto de geodésicas inicialmente próximas, vía la ecuación de Jacobi. Da lugar a efectos observables de la curvatura en las fuerzas de marea que aparecen en relatividad general. Tensor de curvatura 154

Definición Formalmente, el tensor de curvatura está definido para toda variedad de Riemann, y, más generalmente, en toda variedad dotada de una conexión afín con o sin torsión, por la fórmula siguiente:

donde [ , ] nota el corchete de Lie. Esta definición nos lleva a representar la curvatura es como un tensor (1,3)-valente. En geometría de Riemann, la valencia de este tensor se puede alterar: a menudo usaremos una representación equivalente como tensor (0,4). Aunque sea la definición que aparece con más frecuencia, el operador , históricamente no apareció hasta 1954. Entre tanto, se desarrolló el formalismo de Cartan, en que la conexión se expresa como una matriz de 1-formas y la curvatura como una matriz Ω de 2-formas.

Expresión en coordenadas

Dada una base cualquiera , definida como una sección del fibrado tangente, y su base dual las coordenadas del tensor de curvatura vienen dadas por:

En un sistema de coordenadas asociada a una carta local las componentes del tensor de curvatura de Riemann vienen dadas por: (*)

Donde son los campos vectoriales asociados a cada una de las coordenadas y que juntos constituyen una base natural. La expresión (*) puede reescribirse en términos de de los símbolos de Christoffel de la siguiente manera, usando el convenio de sumación de Einstein:

Forma covariante del tensor de curvatura Si es una variedad riemanniana, el tensor de curvatura vendrá definido a partir de la conexión de Levi-Civita. El tensor métrico podrá utilizarse para subir o bajar índices del tensor de curvatura. En particular, la versión completamente covariante del tensor es un tensor de tipo (0,4) dado por

Existen distintas definiciones de este tensor, equivalentes salvo en signo, lo que nos obliga a tener que determinar en cada caso la convención de signo del autor. En contraste, el resto de definiciones de todos los autores se ajustan para que las nociones de curvatura seccional, de Ricci o escalar permanezcan inalteradas.[1]

Expresión como conjunto de 2-formas La conexión matemática de una variedad diferenciable y fijada una base del espacio tangente en cada punto cualquier puede expresarse mediante una matriz de 1-formas que satisfacen la siguiene relación con la derivada covariante:

Donde: son campos vectoriales definidos sobre la variedad: Puede probarse además que si es la base dual de la anterior la diferencial exterior de los elementos de esta base dual satisfacen: Tensor de curvatura 155

Donde: es el conjunto de n 2-formas de torsión que son nulas si se usa la conexión riemanniana asociada a la métrica de Riemann de la variedad. Las 2-formas de curvatura vienen dadas simplemente por:

En general, el procedimiento de cálculo mediante las 1-formas de la conexión y 2-formas de curvatura resulta más eficiente y rápido que el cálculo directo mediante la expresión en coordenadas.

Significado del tensor de curvatura en una variedad de Riemann

Como medida de la separación de la métrica respecto de la métrica euclídea Una relación interesante que aclara el significado del tensor de curvatura es que si se consideran coordenadas normales centradas en un punto p en un entorno de dicho punto la métrica de toda variedad riemannina puede escribirse como:

Es decir el tensor de Riemann da las desviaciones de la métrica respecto a la métrica euclídea plana hasta segundo orden. En una variedad lorentziana la relación es similar:

Como transformación lineal de 2-formas Para ver R como transformación lineal de 2-formas, considere la curvatura seccional, es decir la curvatura de una superficie geodésica de dos dimensiones que pasa a través de un punto - una sección, que es la imagen de un plano tangente bajo la función exponencial. El correspondiente plano tangente se puede representar por 2-formas. El tensor de curvatura da información equivalente a especificar todas las curvaturas seccionales. La norma cuadrada de una 2-forma por la curvatura seccional correspondiente de hecho da una nueva forma cuadrática en un espacio de 2-formas, y es dada exactamente por el operador lineal simétrico R. es decir (R(s), s) = k(s)(s, s). El operador R puede ser entendido de otra manera. Cada 2-forma se puede representar por un lazo rectangular pequeño (de muchas maneras, pero de la forma correspondiente es lo qué importa aquí). Entonces el transporte paralelo alrededor de este lazo da lugar a una transformación del espacio tangente. Ésta es una transformación infinitesimal del espacio tangente, que se puede representar por un elemento del álgebra de Lie correspondiente al grupo de Lie de todas las transformaciones lineales del espacio tangente. Pero esta álgebra de Lie es nuevamente un álgebra de 2-formas, y R(s) es precisamente este generador. El álgebra de Lie de todas las transformaciones del lazo es el álgebra de Lie de la holonomía correspondiente a la curvatura. Tensor de curvatura 156

Simetrías del tensor de curvatura en una variedad de Riemann Fijado un sistema de coordenadas en un punto de una variedad diferenciable, las identidades que satisface el tensor, pueden ser escritas en términos de las componentes sencillamente como: • Antisimetría frente al intercambio entre los dos primeros o los dos últimos índices:

• Simetría respecto al intercambio del bloque formado por los dos primeros índices con el bloque formado por los últimos:

• Primera identidad de Bianchi: la suma en tres entradas del tensor de curvatura (las tres últimas con nuestra convención de signos) bajo permutación circular se anula

que también aparece en forma más compacta como , donde el corchete [ ] denota antisimetrización sobre las componentes seleccionadas. Los 6 términos que aparecen se reducen a tres usando la primera de las simetrías. • Segunda identidad de Bianchi , o de modo equivalente: Aunque el tensor de curvatura tenga componentes, donde es la dimensión de la variedad donde está definido, las tres primeras relaciones reducen el número de componentes independientes a . En dimensiones

2, 3 y 4, el número de componentes independientes será 1, 6, 20. En caso de trabajar en una variedad con una conexión arbitraria, las identidades de Bianchi adoptan una forma que generaliza a las anteriores e involucra al tensor de torsión de la conexión.

Descomposición del tensor de curvatura Dada la complejidad del tensor de curvatura, a menudo es conveniente resumir parte de la información de este tensor en elementos más simples, como pueden ser las curvaturas seccionales, o las combinaciones de las mismas que forman el tensor de Ricci o la misma curvatura escalar.

Curvatura seccional Del mismo modo que para hacer más tratable una función bilineal la estudiamos al aplicarla a dos vectores iguales (su forma cuadrática asociada), para estudiar un tensor de cuarto orden como el de curvatura podemos intentar aplicarlo sobre el mínimo número de vectores distintos. Por antisimetría, con solo un vector obtendríamos resultados nulos. Debemos usar, pues, dos vectores diferentes. Dado un plano , y una base del mismo, se demuestra que la cantidad[2]

no depende de la base escogida. Así, podemos decir que K sólo depende de y recibe el nombre de curvatura seccional del plano . Si escogemos una base ortonormal , su cálculo puede simplificarse, de modo que:

El conocimiento de todas las curvaturas seccionales determina unívocamente al tensor de curvatura. Podemos pensar en ellas como unidades de información a la hora de analizar el tensor de curvatura. Tensor de curvatura 157

Curvaturas escalar y de Ricci Se llama tensor de Ricci al tensor de tipo (0, 2) cuyas componentes son la contracción en un índice covariante y otro contravariante del tensor de curvatura.

Los elementos diagonales del tensor de Ricci pueden expresarse fácilmente como combinación de curvaturas seccionales. Por ejemplo, dada una base ortonormal , (suma de las

curvaturas seccionales de los n-1 planos ortogonales que contengan a ). Además, se llama curvatura escalar, que suele designarse con las letras R o s, a la función que se obtiene por contracción métrica de los dos índices del tensor de Ricci:

. Si calculamos la contracción usando una base ortonormal , obtendremos su desarrollo como suma de curvaturas seccionales:

En dos dimensiones, el tensor de curvatura está determinado por la curvatura escalar. En tres dimensiones, el tensor de curvatura está especificado por la curvatura de Ricci. Esto tiene que ver con el hecho de que el espacio de 2-formas es tridimensional: la misma razón por la que podemos definir el producto vectorial para 3 dimensiones (el producto vectorial es precisamente el producto cuña de dos 1-formas compuesto con la estrella de Hodge, si representamos vectores con su 1-formas correspondientes). En más dimensiones, el tensor pleno de curvatura contiene más información que la curvatura de Ricci. Eso significa que, para un número de dimensiones n < 4, el tensor de curvatura queda completamente especificado si se conoce el tensor de Ricci, no ocurriendo así para n > 3. Eso tiene una importante consecuencia en la Teoría general de la relatividad puesto que el espacio-tiempo de n = 4 dimensiones, pero en donde las ecuaciones del campo gravitatorio sólo determinan el tensor de Ricci. Por tanto, las ecuaciones de Einstein para el campo gravitatorio no determinan completamente el tensor de curvatura total: La parte de la curvatura no especificada por las ecuaciones de Einstein, coincide precisamente con el tensor de Weyl que se definie a continuación.

La curvatura de Weyl Para dimensión n>3, el tensor de curvatura se puede descomponer en la parte que depende de la curvatura de Ricci, y el tensor de Weyl. Si R es el tensor (0, 4)-valente de curvatura de Riemann, entonces

donde Ric es la versión (0, 2)-valente de la curvatura de Ricci, s es la curvatura escalar y g es el tensor métrico (0, 2)-valente y

es el llamado producto de Kulkarni-Nomizu de los dos (0, 2)-tensores. Las componentes del tensor de Weyl pueden ser calculadas explícitamente a partir del tensor de curvatura de Riemann, el tensor de curvatrua de Ricci y la curvatura escalar:

Donde: son las componentes del tensor de Riemann. son las componentes del tensor de Ricci. Tensor de curvatura 158

es la curvatura escalar de Ricci. se refiere a la parte antisimétrica de un tensor. Si g'=fg para una cierta función escalar - el cambio conforme de la métrica - entonces W'=fW. Para curvatura constante, el tensor de Weyl es cero. Por otra parte, W=0 si y solamente si la métrica es conforme a la métrica euclidiana estándar (igual a fg, donde g es la métrica estándar en un cierto marco coordinado y f es una cierta función escalar). La curvatura es constante si y solamente si W=0 y Ric=s/n

Véase también • curvatura de Gauss • curvatura seccional • conexión de Cartan • derivada covariante • forma de curvatura • símbolos de Christoffel

Referencias [1] O Neill Semiriemaniann geometry. Academic Press, 1983. ISBN 0-12-526740-1 (tratamiento de curvatura en variedades semiriemanianas) [2] Berger, M. A panoramic view of riemannian Geometry. Springer, 2003. ISBN 3-540-65317-1

Bibliografía • Lee, J.M. Riemannian manifolds: an introduction to curvature. GTM 176. ISBN 0-387-98271-X • Spivak, Michael (1999), A Comprehensive introduction to differential geometry, Volumen 2, Publish or Perish, ISBN 0-914098-71-3

• Portal:Matemática. Contenido relacionado con Matemática. Geometría diferencial de superficies 159 Geometría diferencial de superficies

En matemáticas, la geometría diferencial de superficies propone definiciones y métodos para analizar la geometría de superficies o variedades diferenciales de dos dimensiones inmersas en variedades de Riemann y, en particular, en el Espacio Euclídeo.

Aquí se tratará de las superficies en .

Ecuación paramétrica de una superficie

Puesto que una superficie en es una Las curvaturas principales en un punto de una superficie. variedad diferenciable de dimensión dos, en un entorno V de una superficie las coordenadas de cualquier punto de V pueden escribirse en función de dos parámetros:

Un punto Q = (u , v ) se llama regular si en él se cumple que: 0 0

Esto es equivalente a pedir que el jacobiano del mapeo r (que va desde el dominio V en a ) tiene rango máximo, es decir, es igual a dos. Así se asegura la existencia del espacio tangente en cada punto de la superficie.

Plano tangente Dada una superfice de y un punto se define como el único plano geométrico de que contiene al punto y (localmente) no interseca a la superficie en ningún otro punto, si la superficie es de curvatura gaussiana positiva. Si la superficie es de curvatura negativa o cero la intesecta. La ecuación analítica de este plano puede expresarse con ayuda de la ecuación paramétrica de una superificie:

Más sencillamente el plano anterior puede escribirse como el conjunto que satisface la siguiente ecuación:

Aquí, se ha usado la simplificación de notación ,... etc Geometría diferencial de superficies 160

Vector normal a la superficie Un vector se dice normal a una superficie en un punto si es perpendicular al plano tangente en dicho punto de la superficie. Esa propiedad nos dice que un vector normal es perpendicular a cualquier otro vector contenido en el plano tangente. Si tomamos dos vectores diferentes y tangentes a la superficie en un punto su producto vectorial será perpendicular a ambos y por tanto perpendicular a cualquier combinación lineal de ambos, es decir, perpendicular a todo el plano generado por estos dos vectores. Podemos aprovechar esa propiedad para calcular el vector normal simplemente como el producto vectorial de los dos vectores linealmente independientes dados por la parametrización de la superficie. Así el vector normal puede calcularse como:

Si se conoce en cambio la ecuación de la superficie f(x, y, z) = 0 entonces el vector unitario normal se calcula simplemente como:

Primera forma fundamental La primera forma fundamental I es un tensor 2-covariante, simétrico y definido sobre el espacio tangente a cada punto de la superficie S. Esta primera forma fundamental de hecho es el tensor métrico inducido por la métrica euclídea sobre la superficie. De hecho (S, I) constituye una variedad de Riemann con tensor métrico I. Gracias a la primera forma fundamental podemos estimar longitudes de curvas definidas sobre la superficie, ángulos de intersección entre curvas y el resto de conceptos métricos habituales. Por razones históricas las componentes de la primera forma fundamental se designan por E, F y G:

Además la forma cuadrática anterior es definida positiva, lo que implica que EG-F2 > 0. La primera forma anterior puede escribirse como una combinación lineal de productos tensoriales de las 1-formas coordenadas conforme a:

Estas pueden calcularse explícitamente a partir de la parametrización:

Longitud de una curva Dada una curva C contenida totalmente en una superficie S sus ecuaciones paramétricas podrán expresarse mediante:

La longitud de esta curva puede expresarse por una integral de las derivadas de las funciones u y v y las componentes de la primera forma fundamental: Geometría diferencial de superficies 161

Ángulo entre dos curvas Similarmente dadas dos curvas C y C que intersecan en un punto P y cuyas ecuaciones paramétricas son: 1 2 0

El ángulo α formado por las dos curvas en el punto de intersección viene definido por la ecuación:

Donde las derivadas se evalúan para los valores de parámetro y tales que . En particular el ángulo formado por las líneas coordenadas asociadas al sistema de coordenadas (u, v) viene dado por:

En particular el sistema de coordenadas se llama ortogonal si las líneas coordenadas son ortogonales (perpendiculares) entre sí en cada punto, eso sucede sí y solo sí F = 0.

Área de una región sobre la superficie Dada una región Ω contenida en una superficie se define su área como:

Si la superficie viene dada por la función explícita z = f(x, y) entonces lo anterior se puede escribir sencillamente como:

Segunda forma fundamental La segunda forma fundamental II de una superficie es la proyección sobre el vector normal a la superficie de la derivada covariante inducida por el tensor métrico o primera forma fundamental. Puede probarse, que esta segunda forma fundamental resulta ser un tensor 2-covariante y simétrico (es decir, da lugar a una forma bilineal definida sobre el espacio tangente a la superficie). Por razones históricas las componentes de la segunda forma fundamental se designan por L, M y N:

Fijado un entorno de la superficie parametrizado por las variables la segunda forma fundamental se escribe también, resultando un tensor de rango dos, como la siguiente combinación lineal:

de productos tensoriales de las 1-formas coordenadas . Las componentes de la segunda forma fundamental pueden calcularse explícitamente a partir de las coordenadas paramétricas: Geometría diferencial de superficies 162

Curvatura normal y geodésica Cuando se tiene una curva sobre una superficie esta puede ser vista también como curva de a la que les son aplicables tanto las fórmulas de la geometría diferencial de curvas como las de la geometría diferencial de superficies. Eso permite relacionar la curvatura total de la curva con la curvatura de la curva vista o medida por un "habitante" de la superficie. En concreto la curvatura total (χ ) de una curva γ(t) puede ser descompuesta entre una γ componente tangencial a la superficie (y medible dentro de la misma), llamada curvatura geodésica (k ), y una g componente perpendicular a la superficie (que depende de cómo está curvada la superficie en el espacio y cuál es la dirección de la curva dentro de la superficie), llamada curvatura normal (k ). De hecho se cumple que: n

Donde la curvatura geodésica y normal pueden calcularse a partir del ángulo que forman el vector normal a la superficie y el vector normal a la curva (n ): γ

La aceleración de cualquier punto material puede ser descompuesta en aceleración tangencial y aceleración normal. Si además el punto se mueve sobre la superficie, la aceleración normal puede descomponerse en aceleración propiamente normal y aceleración geodésica (debida al seguimiento que el punto hace de la superficie):

Donde son respectivamente el vector tangente a la curva, el vector normal a la curva y el vector normal a la superficie. Esa ecuación muestra que las líneas geodésicas a la superficie son precisamente aquellas curvas para las cuales su curvatura total coincide con su curvatura geodésica. Las curvaturas normal y geodésica de una curva sobre una superficie puden calcularse fácilmente a partir de los vectores tangente al a curva y las normales a la curva y la superficie:

Curvaturas principales Si se considera un punto P de la superficie y toda una colección de curvas contenidas en la superficie que pasan por 0 P se observa que la curvatura normal k de cualquiera de estas curvas en P varía entre dos valores extremos k < k 0 n 0 1 n < k . Estos dos valores de hecho son las soluciones k de la siguiente ecuación: 2 i

Un punto se llama umbilical si en él k = k . Para un punto no-umbilical P las direcciones tangentes a la superficie 1 2 0 para las cuales se alcanza el máximo y el mínimo de la curvatura normal son siempre ortogonales. En cada punto estas dos direcciones ortogonales se llaman direcciones principales de curvatura. Una condición necesaria y suficiente para que la dirección dada por un vector sea principal es que si:

Entonces que esa dirección sea dirección principal de curvatura implica que: Geometría diferencial de superficies 163

Curvatura gaussiana

La curvatura gaussiana de una superficie es un número real (P ) que mide la 0 curvatura intrínseca en cada punto regular P de una superficie. Esta curvatura puede 0 calcularse a partir de los determinantes de la primera y segunda formas fundamentales de la superficie:

Esta curvatura gaussiana en general varía de un punto a otro de la superficie y está relacionada con las curvaturas principales de cada punto (k y k ), mediante la relación 1 2 K = k k . 1 2 Tres superficies con curvatura gausiana negativa (izquierda), cero (centro) y Un caso interesante de superficie es la positiva (derecha). esfera, que tiene la misma curvatura en todos sus puntos. Calculando la curvatura de Gauss de una esfera (2-esfera). A partir de la fórmula anterior se llega fácilmente a que para una esfera de radio r, la curvatura gaussiana es igual en todos los puntos e igual a . Si bien observamos que hay superficies que tienen curvatura constante, la curvatura gaussiana debe verse como una relación donde (una función diferenciable sobre S) que asigna a cada superficie su función de curvatura gaussiana. La manera actual de definir la curvatura gaussiana es mediante el operador de forma (del inglés shape operator) de la superficie S:

, definido mediante

Donde son los vectores tangentes coordenados y están siendo evaluados en la posición p. Con la derivada (jacobiano) del operador de forma

uno obtiene una transformación lineal auto-adjunta -llamada transformación de Weingarten- y así, la curvatura gaussiana es determinante de L, i.e.

Es relativamente fácil verificar que coincide con la definición dada arriba. En términos de los componentes del tensor de curvatura de Riemann para las 2-variedad diferenciables, uno encuentra la relación

Ejemplo, la curvatura gaussiana de un toro es donde se ha usado la parametrización: Geometría diferencial de superficies 164

Véase también • Geometría diferencial de curvas

Referencia

Bibliografía • Girbau, J.: "Geometria diferencial i relativitat", Ed. Universitat Autònoma de Catalunya, 1993. ISBN 84-7929-776-X. • Spiegel, M. & Abellanas, L.: "Fórmulas y tablas de matemática aplicada", Ed. McGraw-Hill, 1988. ISBN 84-7615-197-7. • M. do Carmo: "Differential geometry of curves and surfaces". • John M. Lee (1997), Riemannian Manifolds: An Introduction to Curvature, Graduate Texts in Mathematics, 176, Springer-Verlag, ISBN 978-0-387-98271-X

Enlaces externos

• Portal:Matemática. Contenido relacionado con Matemática.

• Enciclopedia en-línea de Springer-Verlag (http:/ / eom. springer. de/ D/ d032170. htm)

Variedad de Riemann

En la geometría de Riemann, una variedad de Riemann es una variedad diferenciable real en la que cada espacio tangente se equipa con un producto interior de manera que varíe suavemente punto a punto. Esto permite que se definan varias nociones métricas como longitud de curvas, ángulos, áreas (o volúmenes), curvatura, gradiente de funciones y divergencia de campos vectoriales.

Introducción

Una variedad de Riemann es una generalización del concepto métrico, diferencial y topológico del espacio euclídeo a objetos geométricos que localmente tienen la misma estructura que el espacio euclídeo pero globalmente pueden representar forma "curva". De hecho, los ejemplos más Ejemplo de variedad de Riemann bidimensional con un sencillos de variedades de Riemann son precisamente sistema de coordenadas ortogonales definido sobre ella, y superificies curvas de y subconjuntos abiertos de . varias subvariedades curvas de la misma.

La estructura matemática de la geometría riemanniana permite extender a subconjuntos curvos o hipersuperficies del espacio euclídeo, las nociones métricas de longitud de una curva, área de una superficie, (hiper)volumen o ángulo entre dos curvas. Esto se realiza definiendo en cada punto un objeto matemático llamado tensor métrico que permite especificar un procedimiento para medir distancias, y por tanto definir cualquier otro concepto métrico basado en distancias y sus variaciones. Desde el punto de vista matemático una variedad de Riemann es una tripleta del tipo: Variedad de Riemann 165

Donde: es una variedad diferenciable en la que se ha especificado el conjunto de cartas locales. es una aplicación bilineal definida positiva desde el espacio tangente a la variedad:

En particular, la métrica g permite definir en cada espacio tangente una norma ||.|| mediante

Variedades riemannianas como subvariedades Una forma sencilla de construir variedades riemanninas es buscar subconjuntos "suaves" del espacio euclídeo. De hecho, cada subvariedad diferenciable de Rn tiene una métrica de Riemann inducida: el producto interior en cada fibra tangente es la restricción del producto interno en Rn. De hecho, como se sigue del teorema de inmersión de Nash, todos las variedades de Riemann se pueden considerar subvariedades diferenciables de , para algún D. En particular se puede definir una variedad de Riemann como un espacio métrico que es isométrico a una subvariedad diferenciable de RD con la métrica intrínseca inducida. Esta definición puede no ser teóricamente suficientemente flexible, pero es muy útil al construir las primeras intuiciones geométricas en la geometría de Riemann. En general una subvariedad de , dimensión m, vendrá definida localmente por un conjunto de aplicaciones diferenciables del tipo:

Por lo que matricialmente se tendrá en cada punto de coordenadas asociadas u que el tensor métrico puede i expresarse en coordenadas locales en términos de la matriz jacobiana de f:

En este caso las harían el papel de coordenadas locales sobre la subvariedad.

Variedades riemannianas como secciones diferenciables Una variedad de Riemann se define generalmente como variedad diferenciable con una sección diferenciable de formas cuadráticas positivo-definidas en el fibrado tangente. Entonces se tiene trabajo en demostrar que puede ser convertido en un espacio métrico: Si γ: [a, b] → M es una curva continuamente diferenciable en la variedad de Riemann M, entonces se define su longitud L(γ) como

(nótese que el γ'(t) es un elemento del espacio tangente a M en el punto γ(t); ||.||denota la norma resultante del producto interior dado en ese espacio tangente.) Con esta definición de longitud, cada variedad de Riemann conexa M se convierte en un espacio métrico (e incluso un espacio métrico con longitud) de un modo natural: la distancia d(x, y) entre los puntos x y y en M se define como d (x, y) = inf { L(γ): γ es una curva continuamente diferenciable que conecta a x y y }. Variedad de Riemann 166

Conceptos métricos

Líneas geodésicas Aunque las variedades de Riemann son generalmente "curvas", no obstante, podemos encontrar que dados dos puntos diferentes y suficientemente cercanos existe una curva de longitud mínima (aunque esta no tiene porqué ser única). Estas líneas de mínima longitud se llaman líneas geodésicas y son una generalización del concepto "línea recta" o "línea de mínima longitud". Éstas son las curvas que localmente conectan sus puntos a lo largo de las trayectorias más cortas. Así dada una curva contenida en una variedad riemanniana M, definimos la longitud de dicha curva L(γ) mediante el vector tangente a la misma y las componentes g del tensor métrico g del siguiente modo: ij

Donde x (t) es la expresión paramétrica de los puntos de la curva parametrizada mediante el parámetro t. Usando los i símbolos de Christoffel asociadas a la conexión sin torsión, la curva geodésica de mínima longitud que pasan por un punto x y tiene el vector tangente v satisface la siguiente ecuación: 0

Puede probarse que la ecuación anterior puede obtenerse por métodos variacionales, concretamente podemos de las ecuaciones de Euler-Lagrange para un lagrangiano construido a partir de la forma cuadrática asociada al tensor métrico.

Longitud, ángulo y volumen En una variedad riemanniana la existencia de un tensor métrico permite extender las nociones euclideas de longitud, ángulo entre dos curvas en un punto (o dos vectores del espacio tangente de un punto) o el volumen de una región de dicha variedad. • La longitud de un segmento de una curva dada parametrizada por , desde hasta , se define como:

• El ángulo entre dos vectores U y V (o entre dos curvas cuyos vectores tangentes sean U y V ) se define como:

• El n-volumen de una región R de una variedad de dimensión n viene dado por la integral extendida a dicha región de la n-forma de volumen:

Además de esto se pueden definir medidas de dimensionalidad 1< d < n para regiones de subvariedades contenidas en la variedad original, lo cual permite definir d-áreas ciertos subconjuntos de la variedad.

Producto interior El producto interior en Rn (el producto escalar euclidiano familiar) permite que se defina longitudes de vectores y ángulos entre vectores. Por ejemplo, si a y b son vectores en Rn, entonces a² es la longitud al cuadrado del vector, y a * b determina el coseno del ángulo entre ellos (a * b = ||a|| ||b|| cos θ). El producto interior es un concepto del álgebra lineal que se puede definir para cualquier espacio vectorial. Desde el fibrado tangente de una variedad diferenciable (o de hecho, cualquier fibrado vectorial sobre una variedad) es, considerado punto a punto, un espacio Variedad de Riemann 167

vectorial, puede llevar también un producto interior. Si el producto interior en el espacio tangente de una variedad se define suavemente, entonces los conceptos que eran solamente punto a punto definido en cada espacio tangente se pueden integrar, para rendir nociones análogas en regiones finitas de la variedad. En este contexto, el espacio tangente se puede pensar como traslación infinitesimal en la variedad. Así, el producto interno en el espacio tangente da la longitud de una traslación infinitesimal. La integral de esta longitud da la longitud de una curva en la variedad. Para pasar de un concepto algebraico lineal a uno geométrico diferencial, el requisito de suavidad es importante, en muchos casos.

Curvatura En una variedad riemanniana las geodésicas alrededor de un punto exhbien comportamientos atípicos respecto a geometría euclídea. Por ejemplo en un espacio euclídeo puden darse líneas rectas paralelas cuya distancia se mantiene constante, sin embargo, en una vareidad riemanniana los haces de geodésicas tienen a divergir (curvatura negativa) o a convergir (curvatura positiva), según sea la curvatura seccional de dicha variedad. Todas las curvaturas pueden ser representadas adecuadamente por el tensor de curvatura Riemann que es definible a partir de derivadas de pirmer y segundor orden del tensor métrico. El tensor de curvatura en términos de los símbolos de Christoffel y usando el convenio de sumación de Einstein viene dado por:

Una relación interesante que aclara el significado del tensor de curvatura es que si se consideran coordenadas normales centradas en un punto p en un entorno de dicho punto la métrica de toda variedad riemannina puede escribirse como:

Puede verse que si el tensor de Riemann se anula idénticamente entonces localmente la métrica se aproxima a la métrica euclídea y la geometría localmente es euclídea. En caso del que el tensor no sea nula, sus componentes dan una idea de cuanto se alejan la geometría de la variedad riemanniana de la geometría de un espacio euclídeo de la misma dimensión.

Generalizaciones de las variedades de Riemann • Variedad pseudoriemanniana, en las que se retira el requisito de que el tensor métrico dé lugar a una forma cuadrática definida positiva sobre cada punto en el espacio tangente, y se sustituye por el requisito más débil de que el tensor métrico sea sencillamente no degenerado. Toda variedad riemanniana es también una variedad pseudoriemanniana. • Variedad de Finsler, en la que se elimina el requisito de existencia de un tensor métrico definido positivo, y se sustituye esa condición por el requisito más débil la existencia de una norma sobre el espacio vectorial tangente a cada punto. Toda variedad riemanniana es por tanto una variedad de Finsler. Variedad de Riemann 168

Véase también • Geometría de Riemann • Variedad de Finsler • Isomorfismo musical

Referencias

Bibliografía • Robert M. Wald, General Relativity, Chicago University Press, ISBN 0-226-87033-2. • Lee, J.M. Riemannian manifolds: an introduction to curvature. GTM 176. ISBN 0-387-98271-X

Geometría de Riemann

En geometría diferencial, la geometría de Riemann es el estudio de las variedades diferenciales con métricas de Riemann; es decir de una aplicación que a cada punto de la variedad, le asigna una forma cuadrática definida positiva en su espacio tangente, aplicación que varía suavemente de un punto a otro. Esto da ideas locales de (entre otras magnitudes) ángulo, longitud de curvas, y volumen. A partir de éstas, pueden obtenerse otras magnitudes por integración de las magnitudes locales. Fue propuesta por primera vez de forma general por Bernhard Riemann en el siglo XIX. Como casos especiales particulares aparecen los dos tipos convencionales (geometría elíptica y geometría hiperbólica) de geometría No-Euclidiana, así como la geometría euclidiana misma. Todas estas geometrías se tratan sobre la misma base, al igual que una amplia gama de las geometrías con propiedades métricas que varían de punto a punto. Cualquier variedad diferenciable admite una métrica de Riemann y esta estructura adicional ayuda a menudo a solucionar problemas de topología diferencial. También sirve como un nivel de entrada para la estructura más complicada de las variedades pseudo-Riemann, las cuales (en el caso particular de tener dimensión 4) son los objetos principales de la teoría de la relatividad general. No hay introducción fácil a la geometría de Riemann. Los artículos siguientes pueden servir como introducción: 1. tensor métrico 2. variedad de Riemann 3. conexión de Levi-Civita 4. curvatura 5. Tensor de curvatura.

Teoremas clásicos en la geometría de Riemann Lo que sigue es una lista no completa de los teoremas más clásicos de la geometría de Riemann. La elección se hace dependiendo de su belleza, de la importancia y simplicidad de la formulación.

Teoremas generales 1. Teorema de Gauss-Bonnet La integral de la curvatura de Gauss en un variedad de Riemann compacta de 2 dimensiones es igual a , aquí denota la característica de Euler de M. 2. Teorema de inmersión de Nash también llamado Teorema Fundamental de la geometría de Riemann. Indican que cada variedad de Riemann puede ser isométricamente sumergida en un espacio euclidiano Rn. Geometría de Riemann 169

Véase también • Anexo:Glosario de la geometría de Riemann

Enlaces externos • Weisstein, Eric W. «Riemannian Geometry [1]» (en inglés). MathWorld. Wolfram Research.

References

[1] http:/ / mathworld. wolfram. com/ RiemannianGeometry. html

Conexión de Levi-Civita

En geometría de Riemann, la conexión de Levi-Civita (nombrada así por Tullio Levi-Civita) es la conexión libre de torsión del fibrado tangente, preservando una métrica de Riemann (o métrica pseudoriemanniana) dada. El teorema fundamental de la geometría de Riemann establece que hay una conexión única que satisfacen estas propiedades. En la teoría de una variedad de Riemann o de una variedad pseudoriemanniana el término derivada covariante se utiliza a menudo para la conexión de Levi-Civita. La expresión en coordenadas espaciales de la conexión se llama los símbolos de Christoffel.

Definición formal Sea (M, g) una variedad de Riemann (o una variedad pseudoriemanniana) entonces una conexión afín es una conexión de Levi-Civita si satisface las condiciones siguientes • Preserva la métrica, es decir, para cualesquiera campos vectoriales X, Y, Z tenemos , donde X g(Y, Z) denota la derivada de la función g(Y, Z) a lo largo del campo vectorial X. • Es libre de torsión, es decir, para cualesquiera campos vectoriales X y Y tenemos , donde es el corchete de Lie de los campos vectoriales X y Y.

Derivada a lo largo de una curva La conexión de Levi-Civita define también una derivada a lo largo una curva, denotada generalmente por D. Dado curva diferenciable γ sobre (M, g) y un campo vectorial V en γ su derivada se define como

.

Conexión estandar de Para dos campos vectoriales en el espacio euclídeo n-dimensional, ésta está dada por la regla

donde es el jacobiano de Y. Conexión de Levi-Civita 170

Conexión inducida en superficies de Para un par de campos vectoriales tangentes a una superficie (variedad de codimensión 1 en ) se puede inducir una derivada covariante mediante el cálculo

relación conocida como ecuación de Gauss. Es fácil demostrar que satisface las mismas propiedades que D.

Enlaces externos • MathWorld: Levi-Civita Connection [1] • PlanetMath: Levi-Civita Connection [2]

Véase también • vierbein. • Tullio Levi-Civita.

References

[1] http:/ / mathworld. wolfram. com/ Levi-CivitaConnection. html

[2] http:/ / planetmath. org/ encyclopedia/ LeviCivitaConnection. html

Conexión (matemática)

En geometría diferencial, la conexión es un objeto matemático definido en una variedad diferenciable que permite establecer una relación o "conectar" la geometría local en torno a un punto con la geometría local en torno a otro punto. El caso más sencillo de conexión es una conexión afín que permite especificar una derivada covariante en una variedad diferenciable.

Introducción

La teoría de conexiones conduce a los invariantes de curvatura (véase también tensor de curvatura), y la torsión. Esto se aplica a los fibrados tangentes; hay conexiones más generales, en geometría diferencial: una conexión puede referirse a una conexión en cualquier fibrado vectorial o a una conexión en un fibrado principal. El transporte paralelo de un vector a lo largo de una curva cerrada sobre la esfera, que al igual que En un acercamiento particular, una conexión es una 1-forma a valores el concepto de derivada covariante se basa en la en un álgebra de Lie que es un múltiplo de la diferencia entre la noción de conexión matemática. El ángulo después de recorrer una vez la curva es derivada covariante y la derivada parcial ordinaria. Es decir, la proporcional al área dentro de la curva. derivada parcial no es una noción intrínseca en una variedad diferenciable: una conexión corrige el concepto y permite la discusión en términos geométricos. Las conexiones dan lugar a un transporte paralelo.

Tipos de conexión Conexión (matemática) 171

Hay un gran número de enfoques posibles relacionados con el concepto de conexión, entre los cuales están los siguientes: • Un muy directo estilo módulo a la diferenciación covariante, indicando las condiciones que permiten a los campos vectoriales a actuar sobre secciones de fibrados vectoriales. • La notación tradicional de índices especifica la conexión por los componentes, vea derivada covariante (tres índices, pero esto no es un tensor). • En geometría de Riemann hay una manera de derivar una conexión del tensor métrico (conexión de Levi-Civita). • Usando fibrados principales y formas diferenciales a valores en un álgebra de Lie (véase conexión de Cartan). • el acercamiento más abstracto puede ser el sugerido por Alexander Grothendieck, donde se considera una conexión como descenso de vecindades infinitesimales de la diagonal. Las conexiones referidas arriba son conexiones lineales o afines. Hay también un concepto de conexión proyectiva; la forma más comúnmente de esto es derivado de Schwarz en análisis complejo. Vea también: conexión de Gauss-Manin

Véase también • Conexión de Cartan • Conexión de Galois • Conexión de Levi-Civita Fibrado tangente 172 Fibrado tangente

En matemáticas, el fibrado tangente de una variedad es uno de los tipos más sencillos de fibrado obtenido como la unión disjunta de todos los espacios tangentes en cada punto de la variedad.

Definición como direcciones de las curvas

Supongamos que M es una variedad diferenciable Ck, y φ: U → Rn donde U es un subconjunto abierto de M, y n es la dimensión de la variedad, en la carta φ(·) además supóngase que T M es el espacio tangente en un punto p de p M. Entonces el fibrado tangente, es la unión disjunta de los espacios tangentes a diferentes puntos de la variedad:

donde T M denota el espacio tangente a M en el punto p. Así, un elemento de p TM se puede pensar como un par ordenado (p, v), donde p es un punto de M y v es un vector tangente a M en el punto p. Existe una proyección:

definida por π(p, v) = p. Esta proyección "colapsa" cada espacio tangente T M en un único punto x. p Es útil, para distinguir entre el fibrado y el espacio tangente, considerar sus dimensiones, 2n, n respectivamente. Es decir, el fibrado tangente considera dimensiones tanto de las posiciones en la variedad así como de las Informalmente, el fibrado tangente a una direcciones tangentes. variedad (en este caso un círculo dibujado Puesto que podemos definir un función de la proyección, π para cada en azul) puede concebirse considerando todas las rectas tangentes (arriba), y elemento del fibrado tangente que da el elemento en la variedad cuyo espacio "disponiéndolas" de una manera suave y tangente contiene el primer elemento, todo fibrado tangente es también un sin solapes (abajo) fibrado.

Referencias Fibrado 173 Fibrado

En topología, un fibrado (o haz fibrado) es una función continua sobreyectiva π, de un espacio topológico E a otro espacio topológico B, satisfaciendo otra condición que lo hace de una forma particularmente simple localmente. Introduciendo otro espacio topológico F, utilizamos la función de proyección de B x F → B como modelo. Por ejemplo en el caso de un fibrado vectorial, F es un espacio vectorial.

Definición Un fibrado consiste en una cuaterna , donde , y son espacios topológicos y es una aplicación continua y sobreyectiva, de manera que para cualquier existe un entorno de en , y un homeomorfismo tal que , con , . Equivalentemente, para todo punto de B existe un entorno y un homeomorfismo tal que el siguiente diagrama conmuta:

La aplicación es abierta por ser una proyección en un producto cartesiano y B tiene la topología cociente. El espacio se llama el espacio de base del fibrado, el espacio total, para cualquier , se llama la fibra en y la función se llama la proyección. Se denota y se dice que es localmente trivial y el par es una trivialización local. Es habitual escribir en vez de si y se pueden entender por contexto y decir que E es un fibrado sobre B. Ejemplos El primer ejemplo es el fibrado producto o fibrado trivial dado por . Un ejemplo de fibrado no (globalmente) trivial es la Banda de Möbius como espacio total E, base un círculo y fibra F=(0,1) un segmento de línea. La rotación de los segmentos F a lo largo de la cinta es apreciable sólo globalmente ya que localmente la estructura de la banda es homeomorfa a un producto . Una descripción analítica explícita es

y la aplicación es la proyección en la primera coordenada. Un fibrado vectorial es en particular un fibrado. El fibrado vectorial se llama real o complejo si la fibra F es un espacio vectorial real o complejo respectivamente. El fibrado tangente y el fibrado cotangente son ejemplos de fibrados vectoriales. Un espacio recubridor o cubierta es un fibrado, aquí la F es un conjunto discreto. Existen en la literatura una amplia cantidad de ejemplos con variedades específicas o fibras prescritas. Un par de ejemplos recurrentes en topología algebraica son la fibración de Hopf de sobre con fibra y la fibración del espacio de caminos de un espacio topológico con punto base , con fibra isomorfa al espacio de lazos de . Fibrado 174

Morfismos Un morfismo entre dos fibrados y consiste en un par de aplicaciones contínuas , y , tales que . Nótese que la aplicación determina la aplicación . Para cada punto se induce una aplicación . Los morfismos entre fibrados se puede componer mediante . En particular tenemos la noción de isomorfismo de fibrados: un morfismo entre dos fibrados y es un isomorfismo si existe un morfismo entre y tal que y . Observemos que una condición necesaria para que los fibrados sean isomorfos es que las fibras sean isomorfas. Un morfismo vertical en un fibrado es un morfismo con . Un primer paso en la clasificación de fibrados es fijar el espacio base B y clasificar los fibrados con base B salvo isomorfismo.

Operaciones En esta sección introducimos posibles operaciones en la categoría de fibrados en espacios topológicos. Para fibrados particulares es posible desarrollar operaciones específicas, por ejemplo las operaciones de álgebra lineal como el espacio dual, el determinante, el producto tensorial y el producto exterior extienden a las correspondientes nociones para fibrados vectoriales. Las operaciones aquí descritas son generales. El pull-back de fibrados es una de las operaciones de cambio de base. Sea un fibrado y una aplicación contínua. El fibrado pull-back de E a través de f tiene por espacio total

con aplicación proyección , . Entonces es sencillo demostrar que es un fibrado. Nótese que las fibras de y son isomorfas y que existe un morfismo natural de y . Esta operación es functorial contravariante con respecto a la composición de morfismos, es decir, y . El fibrado pull-back depende en general de E y de la aplicación f pero si E es un fibrado trivial también. La restricción de fibrados. Sea un subespacio, la inclusión y E un fibrado sobre B. El fibrado restricción de E al subespacio A es el fibrado . El producto (cartesiano) de dos fibrados y es el fibrado . Si E y E' son fibrados sobre la misma base B, el producto fibrado sobre B se define como

Las fibras son por tanto isomorfas a . Nótese que el fibrado no es más que la restricción del fibrado producto cartesiano a la diagonal con la identificación .

Propiedades homotópicas En esta sección se mencionan propiedades de los fibrados en relación a las homotopías. Las demostraciones son ejercicios y se pueden encontrar en cualquier texto de referencia. El resultado fundamental para entender el compartamiento de los fibrados por homotopía es el siguiente: Sea un fibrado y la proyección al primer factor, entonces . En particular

.

Del enunciado anterior se siguen dos corolarios: Fibrado 175

(1) Sean aplicaciones contínuas y homotópicas y E un fibrado sobre B. Entonces

(2) Sea un retracto de deformación y E un fibrado sobre B. Entonces, Se deduce del segundo resultado que si el espacio base B es contráctil cualquier fibrado es isomorfo al fibrado trivial .

Secciones Una sección de un fibrado es una función continua, f: B → E tal que π(f(x))=x, para x en B. En general un fibrado no tiene secciones, uno de los propósitos de la teoría es explicar la existencia de estas así como su cuantificación. Nótese que los fibrados vectoriales siempre tienen una secció, la sección cero. La obstrucción a la existencia de una sección se puede codificar en elementos de una teoría de cohomología de la base; en el caso de que el espacio base sea un CW-complejo, hallar obstrucciones en la cohomología celular conduce a la teoría de las clases características en topología algebraica. Una aplicación sencilla de esta teoría es demostrar que las esferas de dimensión par no tienen campos tangentes no nulos, luego no son paralelizables.

Grupo estructural Existe, a veces, un grupo topológico G de transformaciones de E, tal que si ρ denota la acción, π(ρ(g)[e])= π(e) para g en G y e en E. La condición indica que cada G-órbita reside dentro de una sola fibra. En ese caso, G se llama grupo estructural del fibrado. Para calificar como G-fibrado, las condiciones que emparejan entre las vecindades trivializable locales tendrían que ser los intertwiners de G-acciones también. Si, además, actúa G libremente, transitivamente y continuamente sobre cada fibra, entonces llamamos al fibrado fibrado principal. Un ejemplo de un fibrado principal que ocurre naturalmente en geometría es el fibrado de todas las bases de los espacios tangentes a una variedad, con G grupo general lineal; la restricción en geometría de Riemann a las bases ortonormales, limitaría G al grupo ortogonal. Vea vierbein para más detalles. Hacer G explícito es esencial para las operaciones de crear un fibrado asociado, y hacer precisa la reducción del grupo estructural de un fibrado.

Aplicaciones El lenguaje de la teoría de fibrados permite la expresión de situaciones físicas en términos matemáticos. Una instancia de ello son las teorías gauge donde los fibrados principales codifican las nociones físicas de simetrías, potenciales y fuerza en términos del grupo de estructura, las conexiones y la curvatura.

References

• Steenrod, Norman (1951), The Topology of Fibre Bundles, Princeton University Press, ISBN 0-691-00548-6. • Bleecker, David (1981), Gauge Theory and Variational Principles, Reading, Mass: Addison-Wesley publishing, ISBN 0-201-10096-7. • Ehresmann, C. «Les connexions infinitésimales dans un espace fibré différentiable». Colloque de Topologie (Espaces fibrés), Bruxelles, 1950. Georges Thone, Liège; Masson et Cie., Paris, 1951. pp. 29–55. • Husemöller, Dale (1994), Fibre Bundles, Springer Verlag, ISBN 0-387-94087-1 • Michor, Peter W. (2008), Topics in Differential Geometry, Graduate Studies in Mathematics, Vol. 93, Providence: American Mathematical Society (to appear). • Voitsekhovskii, M.I. (2001), «Fibre space [1]», en Hazewinkel, Michiel (en inglés), Encyclopaedia of Mathematics, Springer, ISBN 978-1556080104 Fibrado 176

Véase también • Fibración • Variedad • Fibrado de Seifert

Enlaces externos • PlanetMath: Fiber Bundle [2] • MathWorld: Fiber Bundle [3]

References

[1] http:/ / eom. springer. de/ F/ f040060. htm

[2] http:/ / planetmath. org/ encyclopedia/ FiberBundle. html

[3] http:/ / mathworld. wolfram. com/ FiberBundle. html

Campo de Yang-Mills

Un campo de Yang-Mills es un tipo campo físico usado sobre todo en teoría cuántica de campos cuyo lagrangiano tiene la propiedad de ser invariante bajo una transformación de gauge local.

Historia

En 1954, Chen Ning Yang y Robert Mills[1] sugierieron que el principio de invariancia local de fase o invariancia de gauge local no eran compatibles con una teoría de campos local, es decir, Esquema perturbativo de QFT para la interacción de un electrón (e) con un quark (q), la que obedeciera los principios línea azul representa un campo electromagnético (campo de Yang-Mills con simetría relativistas de causalidad. Es decir U(1)) y la línea verde un campo de color (campo de Yang-Mills con simetría SU(3)). cuando, como es común, el lagrangiano de un campo tiene alguna simetría interna dada por un grupo de transformaciones de gauge, debería ser posible escoger en cada punto del espacio una transformación de gauge diferente, sin que eso hiciese que las ecuaciones de la teoría fueran alteradas. Así Yang y Mills buscaron la teoría más general de lagrangiano para un campo con invariancia de gauge local.

De hecho la electrodinámica cuántica era ya una teoría con invariancia de gauge local, donde el grupo de gauge era precisamente el grupo de Lie U(1). El resultado del trabajo de Yang y Mills fue una generalización del lagrangiano de la electrodinámica cuántica, donde ahora el grupo de gauge era un grupo no conmutativo. Los gluones de la cromodinámica cuántica vienen descritos por un campo de Yang-Millis sobre el grupo de Lie no-conmutativo SU(3) asociado a la simetría de color. Campo de Yang-Mills 177

Formulación matemática Para construir un campo de Yang-Mills cuyo grupo de gauge de dimensión m, necesitamos un campo multicomponente (cuyas componentes suelen ser espinores de Dirac). Todas las componentes del campo están definidas sobre un espacio-tiempo :

(1)

Bajo una transformación de gauge local el campo se transformaría de acuerdo con: (2) Donde: es el elemento del grupo de gauge asignado al punto . denota una matriz dada por una representación unitaria del grupo de gauge . , son m funciones definidas sobre el espacio-tiempo que parametrizan la transformación local de gauge (diferentes elecciones de esas funciones representan diferentes transformaciones de gauge). , es una base del álgebra de Lie asociada al grupo de gauge .

Potenciales de un campos de Yang-Mills Los campos de Yang-Mills propiamente dichos, derivan de m campos vectoriales o más propiamente 1-formas con valores sobre el álgebra de Lie asociada al grupo de gauge. Estas 1-formas funcionan como el potencial vector del campo electromagnético. Cada uno de estos potenciales viene j viene dado por:

Dada la ley de transformación (2) es sencillo ver que a partir de estas 1-formas puede definirse un operador diferencial o derivada covariante del campo definda como: (3)

Donde g es un parámetro real llamado constante de acoplamiento. Es sencillo comprobar que se cumplen las leyes de transformación:

(4)

Para una transformación de gauge infinitesimal la última de las expresiones de (4) se reduce a: (5)

Donde los coeficientes f son las constantes de estructura del álgebra de Lie: ijk (6) Campo de Yang-Mills 178

Campos de Yang-Mills Lo que propiamente se denomina campo de Yang-Mills viene dado por un conjunto de componentes de intensidad de campo que matemáticamente se obtienen a partir de los potenciales vectores de la sección anterior. Es importante notar que una 1-forma como las descritas anteriormente puede ser interpretado matemáticamente como una conexión sobre un fibrado principal. Concretamente a partir las componentes de la 1-forma que toma valores en el álgebra de Lie asociada al grupo de gauge, pueden calcularse las componentes físicas que caracterizan el campo de Yang-Mills propiamente dicho que matemáticamente es la 2-forma dada por:

Donde d es la derivada exterior y es producto exterior (o producto cuña). Expresado en componentes la relación anterior puede expresarse como:

Lagrangiano de un campo de Yang-Mills Los campos de Yang-Mills son un caso especial de teoría de campo de gauge con simetría dada generalmente por un grupo no abeliano, el lagrangiano para dicho campo se toma generalmente como: (7)

Donde debe tenerse presente que al ser las magnitudes combinaciones lineales de los generadores del álgebra de Lie asociada al grupo de gauge del campo, que se obtienen a partir del potencial vector: (8)

Este tensor se llama intensidad de campo y a veces, también curvatura del campo, debido a que si se interpreta como las componentes de una conexión matemática entonces es la curvatura de dicha conexión, ya que el conmutador de las derivadas covariantes de gauge: (9)

Donde naturalmente la derivada covariante anterior se define a partir del vector potencial considerado como derivada covariante, es decir, , siendo la identidad para el grupo de generadores, es la constante de acoplamiento. En cuatro dimensiones, la constante de acoplamiento es un número puro. Además para el grupo especial unitario SU(N) y los índices A partir del lagrangiano dado por (7) se deducen las siguientes ecuaciones de evolución para el campo: (10a)

O bien introduciendo la abreviación la ecuación anterior puede reescribirse como: (10b)

De la ecuación anterior, se sigue que el campo tiene la propiedad de interactuar consigo mismo cuando el grupo de gauge no es abeliano, por lo que las ecuaciones de movimiento en ese caso son semilineales, a diferencia de las del electromagnetismo clásico cuyo grupo de gauge es abeliano. En general debido a la no linealidad las ecuaciones de movimiento en general sólo se saben manipular mediante teoría de perturbaciones para pequeñas desviaciones respecto a la linealidad. Campo de Yang-Mills 179

Una propiedad adicional de la intensidad de campo es que al igual que sucede con el campo electromagnético, existe un análogo de la identidad de Bianchi: (11)

Cuando se considera una región del espacio-tiempo donde existen fuentes del campo la ecuación de campo viene dada por: (12)

Nótese que estas corrientes deben transformarse propiamente bajo transformaciones gauge del grupo asociado al grupo de simetría del campo gauge. Dichas corrientes vienen dadas en términos de los espinores que definen el campo como: (13)

Cuando se quiere considerar el efecto de interacción con la material el lagrangiano debe ampliarse para describir tanto el campo fermiónico de partículas fuente del campo como la interacción entre el campo y su fuente: (14)

Siendo: , la parte del lagrangiano que representa la materia (fermiones) y su interacción con el campo de gauge. son las partes en que el lagrangiano anterior puede descomponerse, la correspondinete a la materia aislada y la correspondiente a la interacción.

es el campo fermiónico dado por (1). es la masa del campo fermiónico.

Propiedades de un campo gauge • Aún en ausencia de campos fermiónicos el lagrangiano contiene términos que representan la interacción del campo consigo mismo, lo cual implica que los campos bosónicos pueden propagarse en el vacío. La autointeracción además da lugar a fenómenos de no-linealidad que complican la descripción de la evolución temporal del campo.

Ejemplos Los ejemplos de teoría cuántica de campos renormalizables exitosas son ejemplos de campos de Yang-Mills, entre ellos están la electrodinámica cuántica, que puede generalizarse al modelo electrodébil y la cromodinámica cuántica. A continuación se examinan algunos de estos ejemplos con cierto detalle.

Campo electromagnético El caso más simple posible de campo de Yang-Mills es uno cuyo grupo de gauge es unidimensional y por tanto grupo de gauge conmutativo. El campo electromagnético puede ser visto como un ejemplo de campo de Yang-Mills cuyo grupo de gauge es U(1) cuya álgebra de Lie asociada es isomorfa al espacio euclídeo unidimensional . En esta sección consideraremos el campo electromagnético en interacción con sólo un campo fermiónico asociado a los electrones (naturalmente el ejemplo se podría complicar añadiendo otros tipos de partículas cargadas, aunque no se Campo de Yang-Mills 180

hará aquí para no complicar la explicación). Los electrones libres, sin interacción electromagnética, pueden ser descritos esencialmente por la ecuación de Dirac que puede ser derivada del siguiente lagrangiano de materia:

Existe una simetría global de este lagrangiano consistente en la transformación: (a)

Ya que al substituir el nuevo campo el lagrangiano queda inalterado. Esto indica que U(1) es una simetría interna global del lagrangiano. En una teoría gauge con simetría local U(1), el lagrangiano debería seguir siendo invariante cuando se reemplaza la constante de la ecuación (a) por una función que varía de un punto a otro del espacio tiempo. Es obvio que ahora la transformación: (b)

No deja invariante el lagrangiano, ya que la derivada de la función introduce términos nuevos en el lagrangiano transformado. Sin embargo, si se construye un nuevo lagragiano en el que la derivada ordinaria se reemplaza por la derivada covariante dada por:

Se puede lograr un lagranginao que no sólo sea invariante bajo la transformación (a) sino también bajo la transformación (b), este nuevo lagragiano es:

Si se identifica el parámetro e con la carga eléctrica usual (este es el origen del término en teorías de gauge), y las funciones con las componentes del potencial vector el lagrangiano anterior puede reescribirse como:

Es decir, el nuevo lagrangiano invariante gauge local puede ser visto como el lagrangiano original al que se ha sumado un término de interacción electromagnético adicional. De hecho el principio de requerir que un determinado campo fermiónico sea tenga una invariancia gauge local, acaba requiriendo que exista un campo bosónico que garantizará la invariancia local. Esta "receta" de invariancia gauge conduce a un acoplamiento mínimo entre el campo fermiónico y el campo bosónico representada por . Para obtener una teoría gauge completa se requiere que el lagrangiano incluya términos que describan la dinámica del propio campo , en el caso de la electrodinámica invariante local U(1) el lagrangiano total de la teoría gauge se obtiene sumándole el lagrangiano de Yang-Mills resultando:

Donde pueden obtenerse de la relación general:

Ya que por ser U(1) un grupo abeliano, y siendo que para el grupo U(1) es unidimensional se tiene . Campo de Yang-Mills 181

Campo de color SU(3) La cromodinámica cuántica se asienta en que los quarks interaccionan mediante un campo de Yang-Mills asociado a la carga de color cuya simetría gauge viene dada por SU(3). Considerando tres campos fermiónicos asociados a quars de tres colores, la transformación de simetría puede escribirse como:

Introduciendo la derivada covariante basada en SU(3) se tiene:

Donde el campo gluónico bajo transformaciones gauge sigue la siguiente ley:

Con todo esto, el lagrangiano de Dirac puede generalizarse al lagrangiano invariante gauge:

Campo electrodébil El modelo electrodébil describe la interacción de leptones y quarks en interacción a través del campo electrodébil, es decir, mediante el intercambio de fotones asociados a la interacción electromagnética y bosones vectoriales masivios asociados a la interacción débil. Naturalmente esta teoría engloba como caso particular la electrodinámica cuántica. La peculiaridad del modelo electrodébil convencional es que, debido a la observación empírica de que la interacción débil falta de simetría de paridad en la forma de actuación de dichas interacciones, dicho modelo separa en el lagrangiano la forma en que interaccionan los fermiones levógiros de los ferminoes dextrógiros:

donde las dos partes del lagrangino describen los campos gauge bosónicos ( ) y fermiónicos en interacción con el cg campo electrodébil ( ), siendo cada una de estas partes de la forma: fer-cg

Donde: , está asociada al subgrupo no abeliano.

, es la parte asociada al subgrupo abeliano.

son cuatro potenciales vectores a partir de los cuales pueden obtenerse las componentes del campo. El mecanismo por el cual se introduce esa falta de simetría es el mecanismo de ruptura espontánea de la simetría que finalmente comporta que varios bosones vectoriales de exhiban una masa efectiva, y de ahí que la interacción débil a diferencia de la interacción electromagnética tenga corto alcance (y por tanto a distancias superiores a distancias nucleares sea totalmente despreciable). Campo de Yang-Mills 182

Otras aplicaciones Los campos de Yang-Mills han estimulado también resultados fuera de la física, dentro de la matemática han sido usados extensivamente para examinar las propierdades de fibrados holomorfos poliestables. Y también a través de la teoría de Donaldson se han aplicado a la teoría de nudos. Una importante cuestión abierta concerniente a las ecuciones de campo de Yang-Mills es si dado un hamiltoniano cuántico para un campo de Yang-Mills no-abeliano existe un valor positivo mínimo de la energía, es decir, si considerando el espectro del hamiltoniano es cierto o no que para un campo así:

En ese caso la "masa efectiva del campo" sería . El problema anterior constituye uno de los Problemas del Milenio que el Instituto de Matemáticas Clay premia con 1 millón de dólares estadounidenses a quién pueda resolverlo.

Véase también • teoría de campo de gauge • teoría electrodébil • electrodinámica cuántica

Referencias [1] C. N. Yang & R. L. Mills, Physical Review, 96, 191 (1954).

Grado de libertad (física)

El número de grados de libertad en un sistema físico se refiere al número mínimo de números reales que es necesario especificar para determinar completamente el estado físico. El concepto aparece en mecánica clásica y en termodinámica. En mecánica, por cada partícula libre del sistema y por cada dirección en la que ésta es capaz de moverse existen dos grados de libertad, uno relacionado con la posición y el otro con la velocidad. El número de grados de libertad de un sistema cuando existen ligaduras entre las partículas, será el número total de variables, menos el número de ligaduras que las relacionan. Obsérvese que esta definición no coincide ni con la definición de grados de libertad que se usa en ingeniería de máquinas, ni con la que se usa en ingeniería estructural.

Grados de libertad en mecánica clásica En mecánica hamiltoniana el número de grados de libertad de un sistema coincide con la dimensión topológica del espacio de fases del sistema. En mecánica lagrangiana el número de grados de libertad coincide la dimensión del fibrado tangente del espacio de configuración del sistema. Un conjunto de N partículas intereactuantes pero moviéndose sin restricciones en el espacio tridimensional tiene 6N grados de libertad (tres coordenadas de posición y tres velocidades). Si el conjunto de partículas se mueve sobre un estado d-dimensional el número de grados de libertad es 2d·N. Si existen ligaduras entre las partículas el número de grados de libertad será Grado de libertad (física) 183

Ejemplos • Partícula libre Una sola partícula libre tiene 6 grados de libertad • Partícula obligada a moverse sobre una superficie La superficie supone una ligadura para las posiciones, ya que debe cumplirse

y otra para las velocidades, ya que la velocidad debe ser en todo momento tangente a la superficie, por lo que

por tanto el número de grados de libertad es

valor que coincide con lo que se espera para un movimiento en una variedad bidimensional. • Dos partículas en los extremos de una varilla Por tener dos partículas tenemos 12 grados de libertad, pero la condición de que la distancia entre las partículas sea fijada supone una ligadura para sus posiciones y otra para sus velocidades, lo que nos da

Estos grados de libertad se pueden representar por variables diferentes (las tres coordenadas del centro de la varilla y los dos ángulos que dan la orientación de ésta, con sus correspondientes velocidades). • Un sólido rígido Un sólido formado por partículas posee en principio variables. Pero el número de ligaduras es: Ejemplo: Diferentes formas de visualizar los 3 grados de libertad de una molécula diatómica en • Para la primera partícula, ninguna forma de pesa. (CM: centro de masas del sistema, • Para la segunda partícula, 2 (la distancia a la primera y su T: movimiento traslacional, R: movimiento velocidad, como en el caso de dos partículas unidas por una rotacional, V: movimiento vibracional.) varilla) • Para la tercera partícula, 4 (las distancias a las dos primeras partículas y sus correspondientes velocidades) • Para la cuarta y siguientes, 6, ya que una vez dada la distancia a tres partículas, la distancia a todas las demás está también fijada). Por tanto el número de grados de libertad es

que se pueden representar por seis variables (la posición del centro de masa y los ángulos de Euler) y sus correspondientes velocidades. En general, no todas las ligaduras pueden representarse mediante una reducción en el número de variables (aunque sí en el número de variables independientes). Cuando tenemos un sistema en el cual las ligaduras no son integrables, se dice que el sistema es no holónomo. Es importante señalar que la convención para contabilizar los grados de libertad en ingeniería mecánica es diferente, siendo justamente la mitad que en los casos (1) y (2). Grado de libertad (física) 184

Grados de libertad en mecánica estadística

Teorema de equipartición de la energía En el límite clásico de la mecánica estadística la energía de un sistema en equilibrio térmico con n grados de libertad cuadráticos e independientes es:

Donde: es la constante de Boltzmann es la temperatura es el número de grados de libertad del sistema

Véase también • Grados de libertad (ingeniería)

Grado de libertad (estadística)

En estadística, grados de libertad es un estimador del número de categorías independientes en una prueba particular o experimento estadístico. Se encuentran mediante la fórmula , donde =número de sujetos en la muestra (también pueden ser representados por , donde =número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales) y es el número de sujetos o grupos estadísticamente dependientes. Cuando se trata de ajustar modelos estadísticos a un conjunto de datos, los residuos -expresados en forma de vector- se encuentran habitualmente en un espacio de menor dimensión que aquél en el que se encontraban los datos originales. Los grados de libertad del error los determina, precisamente, el valor de esta menor dimensión. Un ejemplo aclara el concepto. Supongamos que son variables aleatorias, cada una de ellas con media , y que

es la "media muestral". Entonces las cantidades

son los residuos, que pueden ser considerados estimaciones de los errores . La suma de los residuos (a diferencia de la suma de los errores, que no es conocida) es necesariamente 0,

ya que existen variables con valores superiores e inferiores a la media muestral. Esto también significa que los residuos están restringidos a encontrarse en un espacio de dimensión (en este ejemplo, en el caso general a ) ya que, si se conoce el valor de de estos residuos, la determinación del valor del residuo restante es inmediata. Así, se dice que "el error tiene grados de libertad" (el error tiene grados de libertal para el caso general).. Dimensión 185 Dimensión

La dimensión (del latín dimensiō abstracto de dimetiri 'medir') es un número relacionado con las propiedades métricas o topológicas de un objeto matemático. Existen diversas medidas o conceptualizaciones de dimensión: dimensión de un espacio vectorial, dimensión topológica, Un cuadrado posee dos dimensiones. Ampliándolo con una nueva dimensión genera un dimensión fractal, etc. cubo, que es tridimensional. Añadiendo al cubo una nueva (que no se ve) genera un hipercubo, que es de cuatro dimensiones. Figura en proyección, ya que tal objeto no Ocasionalmente se usa el término existe en nuestro espacio. "dimensión" para el valor de una medida lineal o longitud recta de una figura geométrica u objeto físico, pero dicho sentido no tiene relación con el concepto más abstracto de dimensión.

Dimensiones físicas El mundo físico en el que vivimos parece de cuatro dimensiones perceptibles. Tradicionalmente, se separa en tres dimensiones espaciales y una dimensión temporal (y en la mayoría de los casos es razonable y práctico). Podemos movernos hacia arriba o hacia abajo, hacia el norte o sur, este u oeste, y los movimientos en cualquier dirección puede expresarse en términos de estos tres movimientos. Un movimiento hacia abajo es equivalente a un movimiento hacia arriba de forma negativa. Un movimiento norte-oeste es simplemente una combinación de un movimiento hacia el norte y de un movimiento hacia el oeste. El tiempo, a menudo, es la cuarta dimensión. Es diferente de las tres dimensiones espaciales ya que sólo hay uno, y el movimiento parece posible sólo en una dirección. En el nivel macroscópico los procesos físicos no son simétricos con respecto al tiempo. Pero, a nivel subatómico (escala de Planck), casi todos los procesos físicos son simétricos respecto al tiempo (es decir, las ecuaciones utilizadas para describir estos procesos son las mismas independientemente de la dirección del tiempo), aunque esto no significa que las partículas subatómicas puedan regresar a lo largo del tiempo. La Teoría de las cuerdas conjetura que el espacio en que vivimos tiene muchas más dimensiones (10, 11 o 26), pero que el universo medido a lo largo de estas dimensiones adicionales tienen tamaño subatómico. Estas ideas se basan en las ideas de los años 1920 en el contexto de las teorías de Kaluza-Klein. En las ciencias físicas y la ingeniería, del tamaño de una magnitud física es la expresión del tipo de unidades de medida en que esta cantidad se expresa. La dimensión de la velocidad, por ejemplo, resulta de dividir la longitud entre el tiempo. En el sistema SI, las dimensiones vienen dadas por siete magnitudes fundamentales relacionadas con las características físicas fundamentales. Dimensión 186

Dimensiones matemáticas

En matemáticas, no existe una definición de dimensión que incluya de manera adecuada todas las situaciones. En consecuencia, los matemáticos han elaborado muchas definiciones de dimensión para los diferentes tipos de espacio. Todas, sin embargo, están en última instancia, basadas en el concepto de la dimensión de un espacio euclídeo n, E n. El punto E 0 es 0-dimensional. La línea E 1 es 1-dimensional. El plano E 2 es 2-dimensional. En general, E n es n-dimensional.

Dimensión de un espacio vectorial

Un espacio vectorial sobre un cuerpo que se dice que tiene dimensión si existe una base de cardinal n. En un espacio vectorial, todas las bases tienen el mismo cardinal, lo que hace de la dimensión el primer invariante del álgebra lineal. El espacio vectorial trivial {0} tiene como dimensión 0 Un diagrama que muestra las primeras cuatro dimensiones espaciales. porque el conjunto vacío es su base: una combinación de cero vector da el vector nulo.

Intuitivamente hablando, la dimensión de un espacio vectorial nos dice cuántos elementos necesitamos para poder expresar cualquier elemento del espacio en términos de las combinaciones lineales de los primeros, i.e., cuántos elementos del espacio necesitamos para poder expresar todos los elementos del espacio como sumas de múltiplos de éstos elementos. Los espacios vectoriales de dimensión finita son muy comunes en muchas áreas de la ciencia, pero en matemáticas y física cuántica también aparecen casos importante de espacios vectoriales de dimensión infinita.

Dimensión topológica La dimensión topológica es la que nos resulta más intuitiva y pragmática para comprender. Esta establece la dimensión de un punto = 0, la de una línea = 1, la de una superficie = 2, etc. Más formalmente escrito, un objeto tiene dimensión topológica m cuando cualquier recubrimiento de ese objeto, tiene como mínimo una dimensión topológica = m+1 (estableciendo previamente que el punto tiene dimensión topológica = 0). Aún más formalmente: la definición para conjuntos con dimensión topológica 0 queda como sigue: se dice que un conjunto F tiene dimensión topológica 0, DT(F)=0, si y sólo si para todo x perteneciente a F y cualquier conjunto Dimensión 187

abierto U (para la topología relativa de F) que contenga a x, existe un abierto V tal que x pertenece a V que está incluido en U y la frontera de V con la intersección a F es vacía.

Dimensión fractal de Hausdorff-Besicovitch Esta dimensión es comúnmente confundible con la entropía de Kolmogórov o la dimensión de Minkowski Bouligand. La dimensión de Hausdorff-Besicovitch se obtiene como un punto de inflexión del valor de la potencia elegida en la longitud de Hausdorff cuando esta pasa de ser infinita a ser nula. La longitud de Hausdorff es la suma del diámetro topológico elevado a una potencia "s" de un recubrimiento entero del objeto a partir de entornos o cubrimientos de diámetro delta o menor a este del propio objeto.

La entropía de Kolmogórov Se denomina entropía de Kolmogórov a una dimensión obtenida para facilidad de cálculos como el cociente logarítmico entre el número de homotecias internas encontradas en un objeto por transformación, y la inversa de la razón de esa homotecia. Es también llamada Box Counting Dimension y tiene una definición más intuitiva pero más larga al respecto. Es de esta manera que los objetos euclidianos diferenciables se ven con una correspondencia en su valor dimensional topológica, de Box Counting y de H.B. Esto no resulta con los fractales, donde son definidos por Benoit Mandelbrot como: {{cita|Objetos tales que su dimensión de Hausdorff - Besicovitch excede estrictamente su dimensión topológica. Finalmente sabemos que existen casos de fractales que no se apegan a esta definición; una de esas es la curva del Diablo, la cual es un fractal derivado del [conjunto de Cantor].

En ciencia ficción En ciencia ficción, a veces se usa el término "dimensión" como sinónimo de universo paralelo; aunque el término este relacionado no son sinónimos (véase teoría de las cuerdas).

Véase también • Cuaterniones • Cuaterniones y rotación en el espacio • Cuarta dimensión • Quinta dimensión • Multiverso Regla de las fases de Gibbs 188 Regla de las fases de Gibbs

En química y termodinámica, la regla de las fases de Gibbs describe el número de grados de libertad (L) en un sistema cerrado en equilibrio, en términos del número de fases separadas (F), el número de componentes químicos (C) del sistema y N el número de variables no composicionales (por ejemplo; presión o temperatura). Esta regla establece la relación entre esos 4 números enteros dada por:

La regla de las fases de Gibbs fue derivada de principios termodinámicos por Josiah Willard Gibbs hacia 1870.

Deducción Las variables (intensivas) necesarias para describir el sistema son la presión (+1), la temperatura (+1) y las fracciones molares relativas de los componentes en cada fase (+F(C-1)) de cada uno de los componentes de cada fase, eso nos da un número máximo de grados de libertad m = F(C-1)+2 para un sistema cualquiera. La condición termodinámica importante es que en equilibrio el cambio de la energía libre de Gibbs cuando se producen pequeñas transferencias de masa entre las fases es cero. Esa condición equivale a que el potencial químico de cada componentes sea el mismo en todas las fases, eso impone r = C(F-1) restricciones o ecuaciones más para un sistema en equilibrio. La regla de Gibbs para el equilibrio afirma precisamente que L = m - r = C - F +2. A patir de esta ecuación se puede despejar cualquier término.

Véase también • Sobre el equilibrio de las substancias heterogéneas Termodinámica 189 Termodinámica

La termodinámica (del griego θερμo, termo, que significa «calor»[1] y δύναμις, dínamis, que significa «fuerza»)[2] es la rama de la física que describe los estados de equilibrio a nivel macroscópico.[3] Constituye una teoría fenomenológica, a partir de razonamientos deductivos, que estudia sistemas reales, sin modelizar y sigue un método experimental.[4] Los estados de equilibrio son estudiados y definidos por medio de magnitudes extensivas tales como la energía interna, la entropía, el volumen o la composición molar del sistema,[5] o por medio de magnitudes no-extensivas derivadas de las anteriores como la Sistema termodinámico típico mostrando la temperatura, presión y el potencial químico; otras magnitudes tales entrada desde una fuente de calor (caldera) a la como la imanación, la fuerza electromotriz y las asociadas con la izquierda y la salida a un disipador de calor mecánica de los medios continuos en general también pueden ser (condensador) a la derecha. El trabajo se extrae tratadas por medio de la termodinámica. en este caso por una serie de pistones.

Es importante recalcar que la termodinámica ofrece un aparato formal aplicable únicamente a estados de equilibrio,[6] definidos como aquel estado hacia «el que todo sistema tiende a evolucionar y caracterizado porque en el mismo todas las propiedades del sistema quedan determinadas por factores intrínsecos y no por influencias externas previamente aplicadas».[7] Tales estados terminales de equilibrio son, por definición, independientes del tiempo, y todo el aparato formal de la termodinámica --todas las leyes y variables termodinámicas--, se definen de tal modo que podría decirse que un sistema está en equilibrio si sus propiedades pueden ser descritas consistentemente empleando la teoría termodinámica.[8] Los estados de equilibrio son necesariamente coherentes con los contornos del sistema y las restricciones a las que esté sometido. Por medio de los cambios producidos en estas restricciones (esto es, al retirar limitaciones tales como impedir la expansión del volumen del sistema, impedir el flujo de calor, etc), el sistema tenderá a evolucionar de un estado de equilibrio a otro;[9] comparando ambos estados de equilibrio, la termodinámica permite estudiar los procesos de intercambio de masa y energía térmica entre sistemas térmicos diferentes. Para tener un mayor manejo se especifica que calor significa «energía en tránsito» y dinámica se refiere al «movimiento», por lo que, en esencia, la termodinámica estudia la circulación de la energía y cómo la energía infunde movimiento. Históricamente, la termodinámica se desarrolló a partir de la necesidad de aumentar la eficiencia de las primeras máquinas de vapor.

Como ciencia fenomenológica, la termodinámica no se ocupa de ofrecer una interpretación física de sus magnitudes. La primera de ellas, la energía interna, se acepta como una manifestación macroscópica de las leyes de conservación de la energía a nivel microscópico, que permite caracterizar el estado energético del sistema macroscópico.[10] El punto de partida para la mayor parte de las consideraciones termodinámicas son los principios de la termodinámica, que postulan que la energía puede ser intercambiada entre sistemas en forma de calor o trabajo, y que sólo puede hacerse de una determinada manera. También se introduce una magnitud llamada entropía,[11] que se define como aquella función extensiva de la energía interna, el volumen y la composición molar que toma valores máximos en equilibrio: el principio de maximización de la entropía define el sentido en el que el sistema evoluciona de un estado de equilibrio a otro.[12] Es la mecánica estadística, íntimamente relacionada con la termodinámica, la que ofrece una interpretación física de ambas magnitudes: la energía interna se identifica con la suma de las energías individuales de los átomos y moléculas del sistema, y la entropía mide el grado de orden y el estado dinámico de los sistemas, y tiene una conexión muy fuerte con la teoría de información.[13] En la termodinámica se estudian y clasifican las interacciones entre diversos sistemas, lo que lleva a definir conceptos como sistema termodinámico y su contorno. Un sistema termodinámico se caracteriza por sus propiedades, relacionadas entre sí mediante las ecuaciones de estado. Éstas se pueden combinar para expresar la energía interna y los potenciales termodinámicos, útiles para Termodinámica 190

determinar las condiciones de equilibrio entre sistemas y los procesos espontáneos. Con estas herramientas, la termodinámica describe cómo los sistemas responden a los cambios en su entorno. Esto se puede aplicar a una amplia variedad de temas de ciencia e ingeniería, tales como motores, transiciones de fase, reacciones químicas, fenómenos de transporte, e incluso agujeros negros. Los resultados de la termodinámica son esenciales para la química, la física, la ingeniería química, etc, por nombrar algunos.

Leyes de la termodinámica

Principio cero de la termodinámica Este principio o ley cero, establece que existe una determinada propiedad denominada temperatura empírica θ, que es común para todos los estados de equilibrio termodinámico que se encuentren en equilibrio mutuo con uno dado. Tiene una gran importancia experimental «pues permite construir instrumentos que midan la temperatura de un sistema» pero no resulta tan importante en el marco teórico de la termodinámica. El equilibrio termodinámico de un sistema se define como la condición del mismo en el cual las variables empíricas usadas para definir o dar a conocer un estado del sistema (presión, volumen, campo eléctrico, polarización, magnetización, tensión lineal, tensión superficial, coordenadas en el plano x, y) no son dependientes del tiempo. El tiempo es un parámetro cinético, asociado a nivel microscópico; el cual a su vez esta dentro de la físico química y no es parámetro debido a que a la termodinámica solo le interesa trabajar con un tiempo inicial y otro final. A dichas variables empíricas (experimentales) de un sistema se las conoce como coordenadas térmicas y dinámicas del sistema. Este principio fundamental, aún siendo ampliamente aceptado, no fue formulado formalmente hasta después de haberse enunciado las otras tres leyes. De ahí que recibiese el nombre de principio cero.

Primera ley de la termodinámica También conocida como principio de conservación de la energía para la termodinámica «en realidad el primer principio dice más que una ley de conservación», establece que si se realiza trabajo sobre un sistema o bien éste intercambia calor con otro, la energía interna del sistema cambiará. Visto de otra forma, esta ley permite definir el calor como la energía necesaria que debe intercambiar el sistema para compensar las diferencias entre trabajo y energía interna. Fue propuesta por Nicolas Léonard Sadi Carnot en 1824, en su obra Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta potencia, en la que expuso los dos primeros principios de la termodinámica. Esta obra fue incomprendida por los científicos de su época, y más tarde fue utilizada por Rudolf Loreto Clausius y Lord Kelvin para formular, de una manera matemática, las bases de la termodinámica. La ecuación general de la conservación de la energía es la siguiente:

Que aplicada a la termodinámica teniendo en cuenta el criterio de signos termodinámico, queda de la forma:

Donde U es la energía interna del sistema (aislado), Q es la cantidad de calor aportado al sistema y W es el trabajo realizado por el sistema. Esta última expresión es igual de frecuente encontrarla en la forma ∆U = Q + W. Ambas expresiones, aparentemente contradictorias, son correctas y su diferencia está en que se aplique el convenio de signos IUPAC o el Tradicional (véase criterio de signos termodinámico). Termodinámica 191

Segunda ley de la termodinámica

Esta ley cambia la dirección en la que deben llevarse a cabo los procesos termodinámicos y, por lo tanto, la imposibilidad de que ocurran en el sentido contrario (por ejemplo, que una mancha de tinta dispersada en el agua pueda volver a concentrarse en un pequeño volumen). También establece, en algunos casos, la imposibilidad de convertir completamente toda la energía de un tipo en otro sin pérdidas. De esta forma, la segunda ley impone restricciones para las transferencias de energía que hipotéticamente pudieran llevarse a cabo teniendo en cuenta sólo el primer principio. Esta ley apoya todo su contenido aceptando la existencia de una magnitud física llamada entropía, de tal manera que, para un sistema aislado (que no intercambia materia ni energía con su entorno), la variación de la ilustración de la segunda ley mediante una máquina térmica entropía siempre debe ser mayor que cero.

Debido a esta ley también se tiene que el flujo espontáneo de calor siempre es unidireccional, desde los cuerpos de mayor temperatura hacia los de menor temperatura, hasta lograr un equilibrio térmico. La aplicación más conocida es la de las máquinas térmicas, que obtienen trabajo mecánico mediante aporte de calor de una fuente o foco caliente, para ceder parte de este calor a la fuente o foco o sumidero frío. La diferencia entre los dos calores tiene su equivalente en el trabajo mecánico obtenido. Existen numerosos enunciados equivalentes para definir este principio, destacándose el de Clausius y el de Kelvin. Termodinámica 192

Enunciado de Clausius

En palabras de Sears es: «No es posible ningún proceso cuyo único resultado sea la extracción de calor de un recipiente a una cierta temperatura y la absorción de una cantidad igual de calor por un recipiente a temperatura más elevada».

Enunciado de Kelvin

No existe ningún dispositivo que, operando por ciclos, absorba calor de una única fuente (E.absorbida), y lo convierta íntegramente en trabajo (E.útil).

Enunciado de Kelvin—Planck

Es imposible construir una máquina térmica Diagrama del ciclo de Carnot en función de la presión y el volumen. que, operando en un ciclo, no produzca otro efecto que la absorción de energía desde un depósito, y la realización de una cantidad igual de trabajo.

Otra interpretación

Es imposible construir una máquina térmica cíclica que transforme calor en trabajo sin aumentar la energía termodinámica del ambiente. Debido a esto podemos concluir, que el rendimiento energético de una máquina térmica cíclica que convierte calor en trabajo, siempre será menor a la unidad, y ésta estará más próxima a la unidad, cuanto mayor sea el rendimiento energético de la misma. Es decir, cuanto mayor sea el rendimiento energético de una máquina térmica, menor será el impacto en el ambiente, y viceversa.

Tercera ley de la termodinámica La tercera de las leyes de la termodinámica, propuesta por Walther Nernst, afirma que es imposible alcanzar una temperatura igual al cero absoluto mediante un número finito de procesos físicos. Puede formularse también como que a medida que un sistema dado se aproxima al cero absoluto, su entropía tiende a un valor constante específico. La entropía de los sólidos cristalinos puros puede considerarse cero bajo temperaturas iguales al cero absoluto. No es una noción exigida por la termodinámica clásica, así que es probablemente inapropiado tratarlo de «ley». Es importante recordar que los principios o leyes de la termodinámica son sólo generalizaciones estadísticas, válidas siempre para los sistemas macroscópicos, pero inaplicables a nivel cuántico. El demonio de Maxwell ejemplifica cómo puede concebirse un sistema cuántico que rompa las leyes de la termodinámica. Asimismo, cabe destacar que el primer principio, el de conservación de la energía, es la más sólida y universal de las leyes de la naturaleza descubiertas hasta ahora por las ciencias.

Sistema Se puede definir un sistema como un conjunto de materia, que está limitado por una superficie, que le pone el observador, real o imaginaria. Si en el sistema no entra ni sale materia, se dice que se trata de un sistema cerrado, o sistema aislado si no hay intercambio de materia y energía, dependiendo del caso. En la naturaleza, encontrar un sistema estrictamente aislado es, por lo que sabemos, imposible, pero podemos hacer aproximaciones. Un sistema del que sale y/o entra materia, recibe el nombre de abierto. Ponemos unos ejemplos: Termodinámica 193

• Un sistema abierto: es cuando existe un intercambio de masa y de energía con los alrededores; es por ejemplo, un coche. Le echamos combustible y él desprende diferentes gases y calor. • Un sistema cerrado: es cuando no existe un intercambio de masa con el medio circundante, sólo se puede dar un intercambio de energía; un reloj de cuerda, no introducimos ni sacamos materia de él. Solo precisa un aporte de energía que emplea para medir el tiempo. • Un sistema aislado: es cuando no existe el intercambio ni de masa y energía con los alrededores; ¿Cómo encontrarlo si no podemos interactuar con él? Sin embargo un termo lleno de comida caliente es una aproximación, ya que el envase no permite el intercambio de materia e intenta impedir que la energía (calor) salga de él. El universo es un sistema aislado, ya que la variación de energía es cero

Medio externo Se llama medio externo o ambiente a todo aquello que no está en el sistema pero que puede influir en él. Por ejemplo, consideremos una taza con agua, que está siendo calentada por un mechero. Consideremos un sistema formado por la taza y el agua, entonces el medio está formado por el mechero, el aire, etc.

Equilibrio térmico Toda sustancia por encima de los 0 kelvin (-273,15 °C) emite calor. Si dos sustancias en contacto se encuentran a diferente temperatura, una de ellas emitirá más calor y calentará a la más fría. El equilibrio térmico se alcanza cuando ambas emiten, y reciben la misma cantidad de calor, lo que iguala su temperatura. • Nota: estrictamente sería la misma cantidad de calor por gramo, ya que una mayor cantidad de sustancia emite más calor a la misma temperatura.

Variables termodinámicas Las variables que tienen relación con el estado interno de un sistema, se llaman variables termodinámicas o coordenadas termodinámicas, y entre ellas las más importantes en el estudio de la termodinámica son: • la masa • el volumen • la densidad • la presión • la temperatura En termodinámica es muy importante estudiar sus propiedades, las cuáles podemos dividirlas en dos: • propiedades intensivas: son aquellas que no dependen de la cantidad de sustancia o del tamaño de un sistema, por lo que su valor permanece inalterado al subdividir el sistema inicial en varios subsistemas, por este motivo no son propiedades aditivas. • propiedades extensivas: son las que dependen de la cantidad de sustancia del sistema, y son recíprocamente equivalentes a las intensivas. Una propiedad extensiva depende por tanto del «tamaño» del sistema. Una propiedad extensiva tiene la propiedad de ser aditiva en el sentido de que si se divide el sistema en dos o más partes, el valor de la magnitud extensiva para el sistema completo es la suma de los valores de dicha magnitud para cada una de las partes. Algunos ejemplos de propiedades extensivas son la masa, el volumen, el peso, cantidad de sustancia, energía, entropía, entalpía, etc. En general el cociente entre dos magnitudes extensivas nos da una magnitud intensiva, por ejemplo la división entre masa y volumen nos da la densidad. Termodinámica 194

Estado de un sistema Un sistema que puede describirse en función de coordenadas termodinámicas se llama sistema termodinámico y la situación en la que se encuentra definido por dichas coordenadas se llama estado del sistema.

Equilibrio térmico Un estado en el cual dos coordenadas termodinámicas independientes X e Y permanecen constantes mientras no se modifican las condiciones externas se dice que se encuentra en equilibrio térmico. Si dos sistemas se encuentran en equilibrio térmico se dice que tienen la misma temperatura. Entonces se puede definir la temperatura como una propiedad que permite determinar si un sistema se encuentra o no en equilibrio térmico con otro sistema. El equilibrio térmico se presenta cuando dos cuerpos con temperaturas diferentes se ponen en contacto, y el que tiene mayor temperatura cede energía térmica en forma de calor al que tiene más baja, hasta que ambos alcanzan la misma temperatura. Algunas definiciones útiles en termodinámica son las siguientes.

Foco térmico Un foco térmico es un sistema que puede entregar y/o recibir calor, pero sin cambiar su temperatura.

Contacto térmico Se dice que dos sistema están en contacto térmico cuando puede haber transferencia de calor de un sistema a otro.

Procesos termodinámicos Se dice que un sistema pasa por un proceso termodinámico, o transformación termodinámica, cuando al menos una de las coordenadas termodinámicas no cambia. Los procesos más importantes son: • Procesos isotérmicos: son procesos en los que la temperatura no cambia. • Procesos isobáricos: son procesos en los cuales la presión no varía. • Procesos isócoros: son procesos en los que el volumen permanece constante. • Procesos adiabáticos: son procesos en los que no hay transferencia de calor alguna. • Procesos diatermicos: son procesos que dejan pasar el calor fácilmente. Por ejemplo, dentro de un termo donde se colocan agua caliente y cubos de hielo, ocurre un proceso adiabático, ya que el agua caliente se empezará a enfriar debido al hielo, y al mismo tiempo el hielo se empezará a derretir hasta que ambos estén en equilibrio térmico, sin embargo no hubo transferencia de calor del exterior del termo al interior por lo que se trata de un proceso adiabático.

Rendimiento termodinámico o eficiencia Un concepto importante en la ingeniería térmica es el de rendimiento. El rendimiento de una máquina térmica se define como:

donde, dependiendo del tipo de máquina térmica, estas energías serán el calor o el trabajo que se transfieran en determinados subsistemas de la máquina. Termodinámica 195

Teorema de Carnot Nicolas Léonard Sadi Carnot en 1824 demostró que el rendimiento de alguna máquina térmica que tuviese la máxima eficiencia posible (a las que en la actualidad se denotan con su nombre) y que operase entre dos termostatos (focos con temperatura constante), dependería sólo de las temperaturas de dichos focos. Por ejemplo, el rendimiento para un motor térmico de Carnot viene dado por:

donde y son las temperaturas del termostato caliente y del termostato frío, respectivamente, medidas en Kelvin. Este rendimiento máximo es el correspondiente al de una máquina térmica reversible, la cual es sólo una idealización, por lo que cualquier máquina térmica construida tendrá un rendimiento menor que el de una máquina reversible operando entre los mismos focos.

Diagramas termodinámicos • Diagrama PVT • Diagrama de fase • Diagrama p-v • Diagrama T-s

Véase también • Ludwig Boltzmann • Calor y temperatura (continuación del estudio de la termodinámica) • Caos • Criterio de signos termodinámico • Energía • Entalpía • Entropía • Exergía • Neguentropía • Sistémica • Termoquímica • Transmisión de calor Termodinámica 196

Referencias

Notas

[1] « termo- (http:/ / buscon. rae. es/ draeI/ SrvltConsulta?TIPO_BUS=3& LEMA=termo-)», Diccionario de la lengua española (vigésima segunda edición), Real Academia Española, 2001, .

[2] « dinámico (http:/ / buscon. rae. es/ draeI/ SrvltConsulta?TIPO_BUS=3& LEMA=dinámico)», Diccionario de la lengua española (vigésima segunda edición), Real Academia Española, 2001, . [3] Callen, H., Thermodynamics and an Introduction to Thermostatistics, 2nd Ed., Rivas, 1986 [4] Ver R.RIVAS, 1986. [5] Callen, H., Thermodynamics and an Introduction to Thermostatistics, 2nd Ed., Wiley, 1985 [6] Reif, F., Fundamentals of Statistical and Thermal Physics, McGraww-Hill, New York, 1985, pag. 3 [7] Callen, H. Thermodynamics and an Introduction to Thermostatisticas, 2nd Ed., Wiley, 1985 [8] Cfr. Callen, H., 1985 [9] Cfr.Callen, H., 1985; Reif, F., 1985 [10] Reif, F., Fundamentals of Statistical and Thermal Physics, McGraw-Hill, New York, 1985 [11] La entropía se define en termodinámica clásica para sistemas que se encuentran en equilibrio termodinámico y fuera de él no tiene sentido. [12] Cfr. Callen, H., 1985 [13] Cfr. Reif, F, 1985

Bibliografía

• Boltzmann, Ludwig (1986). Escritos de mecánica y termodinámica. Alianza Editorial. ISBN 842060173X.

• Pérez Cruz, Justo R. (2005). La Termodinámica de Galileo a Gibbs (http:/ / www. gobiernodecanarias. org/

educacion/ 3/ Usrn/ fundoro/ web_fcohc/ 005_publicaciones/ mhc/ mhc_htm/ mhc9_termodinamica. htm). Fundación Canaria Orotava de Historia de la Ciencia. ISBN 978-84-609-7580-9. • Planck, Max (1990). Treatise on Thermodynamics. Dover Publications. ISBN 048666371X. • Zemansky, Mark W. (1985). Calor y termodinámica. ISBN 84-85240-85-5. • Callen, Herbert B. (1985). Thermodynamics and an Introduction to Thermostatistics. • Reif, Federick (1985). Fundamentals of Statistical and Thermal Physics.

Enlaces externos

• Wikimedia Commons alberga contenido multimedia sobre TermodinámicaCommons. • Wikcionario tiene definiciones para termodinámica.Wikcionario • Wikiversidad alberga proyectos de aprendizaje sobre Termodinámica.Wikiversidad Física estadística 197 Física estadística

La física estadística o mecánica estadística es una rama de la física que mediante técnicas estadísticas es capaz de deducir el comportamiento de los sistemas físicos macroscópicos a partir de ciertas hipótesis sobre los elementos o partículas que conforman dichos sistemas. Los sistemas macroscópicos son aquellos que tienen un número de partículas parecido al número de Avogadro, cuyo valor aproximadamente igual a es increíblemente grande, por lo que el tamaño de dichos sistemas suele ser fácilmente concebible por el ser humano, aunque el tamaño de cada partícula constituyente sea de escala átomica. Un ejemplo de un sistema macroscópico es, por ejemplo, un vaso de agua. La importancia del uso de las técnicas estadísticas para estudiar estos sistemas radica en que al ser sistemas tan grandes es imposible, incluso para las más avanzadas computadoras, llevar un registro del estado físico de cada partícula y predecir el comportamiento del sistema mediante las leyes de la mecánica, además de ser impracticable el conocer tanta información de un sistema real. La utilidad de la física estadística consiste en ligar el comportamiento microscópico de los sistemas con su comportamiento macroscópico, de modo que conociendo el comportamiento de uno se pueden averiguar detalles del comportamiento del otro. Permite describir numerosos campos de naturaleza estocástica como las reacciones nucleares; los sistemas biológicos, químicos, neurológicos; etc..

Ejemplos de aplicación Empíricamente, la termodinámica ha estudiado los gases y ha establecido su comportamiento macroscópico con alto grado de acierto. Gracias a la fisica estadística es posible deducir las leyes termodinámicas que rigen el comportamiento macroscópico de este gas, como la ecuación de estado del gas ideal o la ley de Boyle-Mariotte, a partir de la suposición de que las partículas en el gas no están sometidas a ningún potencial y se mueven libremente con una energía cinética igual a colisionando entre sí y con las paredes del recipiente de forma elástica. El

comportamiento macroscópico del gas depende de tan sólo unas pocas variables macroscópicas (como la presión, el volumen y la temperatura). Este enfoque particular para estudiar el comportamiento de los gases se llama teoría cinética. Para predecir el comportamiento de un gas, la mecánica exigiría calcular la trayectoria exacta de cada una de las partículas que lo componen (lo cual es un problema inabordable). La termodinámica hace algo radicalmente opuesto, establece unos principios cualitativamente diferentes a los mecánicos para estudiar una serie de propiedades macroscópicas sin preguntarse en absoluto por la naturaleza real de la materia de estudio. La mecánica estadística media entre ambas aproximaciones: ignora los comportamientos individuales de las partículas, preocupándose en vez de ello por promedios. De esta forma podemos calcular las propiedades termodinámicas de un gas a partir de nuestro conocimiento genérico de las moléculas que lo componen aplicando leyes mecánicas.

Historia Los años cincuenta del siglo XIX marcaron un hito en el estudio de los sistemas térmicos. Por esos años la termodinámica, que había crecido básicamente mediante el estudio experimental del comportamiento macroscópico de los sistemas físicos a partir de los trabajos de Nicolas Léonard Sadi Carnot, James Prescott Joule, Clausius y Kelvin, era una disciplina estable de la física. Las conclusiones teóricas deducidas de las primeras dos leyes de la termodinámica coincidían con los resultados experimentales. Al mismo tiempo, la teoría cinética de los gases, que se había basado más en la especulación que en los cálculos, comenzó a emerger como una teoría matemática real. Sin embargo, fue hasta que Ludwig Boltzmann en 1872 desarrolló su teorema H y de este modo estableciera el enlace directo entre la entropía y la dinámica molecular. Prácticamente al mismo tiempo, la teoría cinética comenzó a dar a Física estadística 198

luz a su sofisticado sucesor: la teoría del ensamble. El poder de las técnicas que finalmente emergieron redujo la categoría de la termodinámica de "esencial" a ser una consecuencia de tratar estadísticamente un gran número de partículas que actuaban bajo las leyes de la mecánica clásica. Fue natural, por tanto, que esta nueva disciplina terminara por denominarse mecánica estadística o física estadística.

Aplicación en otros campos La mecánica estadística puede construirse sobre las leyes de la mecánica clásica o la mecánica cuántica, según sea la naturaleza del problema a estudiar. Aunque, a decir verdad, las técnicas de la mecánica estadística pueden aplicarse a campos ajenos a la propia física, como por ejemplo en economía. Así, se ha usado la física estadística para deducir la distribución de la renta, y la distribución de Pareto para las rentas altas puede deducirse mediante la mecánica estadística, suponiendo un estado de equilibrio estacionario para las mismas (ver econofísica).

Relación estadística-termodinámica La relación entre estados microscópicos y macroscópicos (es decir, la termodinámica) viene dada por la famosa fórmula de Ludwig Boltzmann de la entropía:

donde es el número de estados microscópicos compatibles con una energía, volumen y número de partículas dado y es la constante de Boltzmann. En el término de la izquierda tenemos la termodinámica mediante la entropía definida en función de sus variables naturales, lo que da una información termodinámica completa del sistema. A la derecha tenemos las configuraciones microscópicas que definen la entropía mediante esta fórmula. Estas configuraciones se obtienen teniendo en cuenta el modelo que hagamos del sistema real a través de su hamiltoniano mecánico. Esta relación, propuesta por Ludwig Boltzmann, no la aceptó inicialmente la comunidad científica, en parte debido a que contiene implícita la existencia de átomos, que no estaba demostrada hasta entonces. Esa respuesta del medio científico, dicen, hizo que Boltzmann, desahuciado, decidiera quitarse la vida. Actualmente esta expresión no es la más apropiada para realizar cálculos reales. Ésta es la llamada ecuación puente en el Colectivo Micro Canónico. Existen otros colectivos, como el Colectivo Canónico o el Colectividad macrocanónica, que son de más interés práctico.

Postulado fundamental El postulado fundamental de la mecánica estadística, conocido también como postulado de equiprobabilidad a priori, es el siguiente: Dado un sistema aislado en equilibrio, el sistema tiene la misma probabilidad de estar en cualquiera de los microestados accesibles. Este postulado fundamental es crucial para la mecánica estadística, y afirma que un sistema en equilibrio no tiene ninguna preferencia por ninguno de los microestados disponibles para ese equilibrio. Si Ω es el número de microestados disponibles para una cierta energía, entonces la probabilidad de encontrar el sistema en uno cualquiera de esos microestados es p = 1/Ω; El postulado es necesario para poder afirmar que, dado un sistema en equilibrio, el estado termodinámico (macroestado) que está asociado a un mayor número de microestados es el macroestado más probable del sistema. Puede ligarse a la función de teoría de la información, dada por: Física estadística 199

Cuando todas las rho son iguales, la función de información I alcanza un mínimo. Así, en el macroestado más probable además es siempre uno para el que existe una mínima información sobre el microestado del sistema. De eso se desprende que en un sistema aislado en equilibrio la entropía sea máxima (la entropía puede considerarse como una medida de desorden: a mayor desorden, mayor desinformación y, por tanto, un menor valor de I).

La entropía como desorden En todos los libros de termodinámica se interpreta la entropía como una medida del desorden del sistema. De hecho, a veces se enuncia el segundo principio de la termodinámica diciendo: El desorden de un sistema aislado sólo aumenta. Es importante saber que esta relación viene, como acabamos de saber, de la mecánica estadística. La termodinámica no es capaz de establecer esta relación por sí misma, pues no se preocupa en absoluto por los estados microscópicos. En este sentido, la mecánica estadística es capaz de demostrar la termodinámica, ya que, partiendo de unos principios más elementales (a saber, los mecánicos), obtiene por deducción estadística el segundo principio. Fue ésa la gran contribución matemática de Ludwig Boltzmann a la termodinámica.[1]

Procedimientos de cálculo La formulación moderna de esta teoría se basa en la descripción del sistema físico por un elenco de conjuntos o colectividad que representa la totalidad de configuraciones posibles y las probabilidades de realización de cada una de las configuraciones. A cada colectividad se le asocia una función de partición que, por manipulaciones matemáticas, permite extraer los valores termodinámicos del sistema. Según la relación del sistema con el resto del Universo, se distinguen generalmente tres tipos de colectividades, en orden creciente de complejidad: • la colectividad microcanónica describe un sistema completamente aislado, por tanto con energía constante, que no intercambia energía, ni partículas con el resto del Universo; • la colectividad canónica describe un sistema en equilibrio térmico con un foco térmico exterior; sólo puede intercambiar energía en forma de transferencia de calor con el exterior; • la colectividad gran canónica reemplaza a la colectividad canónica para sistemas abiertos que permiten el intercambio de partículas con el exterior.

Tabla resumen de Colectividades : colectividades en física estadística Microcanónica Canónica Gran canónica Variables fijas E, N, V o B T, N, V o B T, μ, V o B Función microscópica Número de Función de partición Función de partición gran microestados canónica canónica

Función macroscópica Física estadística 200

Véase también • Ludwig Boltzmann • colectividad canónica • colectividad macrocanónica • colectividad microcanónica • entropía • macroscópico • modelo de Ising • termodinámica

Referencias [1] Véase el capítulo 10, "Un mundo dentro del mundo", de El ascenso del hombre, de Jacob Bronowski (versión en español de Alejandro Ludlow Wiechers/BBC, Bogotá, 1979, Fondo Educativo Interamericano, no. 0853). Y, en inglés, el video de los últimos minutos del capítulo

correspondiente de esa serie de divulgación científica: (http:/ / www. youtube. com/ watch?v=C2p9By0qXms).

Otras lecturas

• Landau, L.D.; Lifshitz, E. M. (1980). Statistical Physics. Pergamon Press Ltd. 0-08-023039-3.

• Pathria R. K. (2001). Statistical Mechanics. Butterworth Heinemann. 0 7506 2469 8.

Qualia

Los qualia (singular: quale, en latín y español) son las cualidades subjetivas de las experiencias individuales. Por ejemplo, la rojez de lo rojo, o lo doloroso del dolor. Los qualia simbolizan el vacío explicativo que existe entre las cualidades subjetivas de nuestra percepción y el sistema físico que llamamos cerebro. Las propiedades de las experiencias sensoriales son, por definición, epistemológicamente no cognoscibles en la ausencia de la experiencia directa de ellas; como resultado, son también incomunicables. La existencia o ausencia de estas propiedades es un tema calurosamente debatido en la filosofía de la mente contemporánea. Los qualia han desempeñado un papel importante en la filosofía de la mente, principalmente porque son vistos como una refutación de facto del fisicalismo. Hay un debate sobre la precisa definición de los qualia dado que varios filósofos enfatizan o niegan la existencia de ciertas propiedades.

Definición En el artículo de Thomas Nagel ¿Cómo es ser un murciélago? se introduce una rudimentaria definición de quale. [...] al margen de cómo varíe la forma, el hecho de que un organismo tenga experiencias conscientes significa, básicamente, que hay algo que es cómo es ser ese organismo.[1] Por su parte, Daniel Dennett identifica cuatro propiedades que son comúnmente adscritas a los qualia, esto es, los qualia son: 1. inefables; esto es, no pueden ser comunicados o aprendidos por otros medios diferentes a la experiencia directa. 2. intrínsecos; esto es, son propiedades no relacionales, que no cambian dependiendo de la relación de la experiencia con otras cosas. 3. privados; esto es, todas las comparaciones interpersonales de los qualia son sistemáticamente imposibles. 4. directamente o inmediatamente aprehensibles en la conciencia esto es, la experiencia de un quale es saber que uno experimenta un quale, y saber todo ello es saber acerca del quale. Qualia 201

Es importante notar que el quale no tiene el estatus de las propiedades observadas, las cuáles existen seguramente, pero podrían ser erróneas. En su lugar el concepto de qualia es el primero y el más dependiente de su propia definición, y la existencia de los qualia es predicada sobre la existencia de las propiedades que llenan su definición. Así si fuéramos a descubrir que existe una de tales propiedades como "qué es tener cierta experiencia" pero esta propiedad fuera conocible por otros, no sería un quale.

Notas y referencias [1] Nagel, T., 2003, "¿Cómo es ser un murciélago?", en M. Ezcurdia, O.Hansberg, La natulareza de la experiencia. Vol. I: Sensaciones, UNAM, México D. F., p. 46

Enlaces externos

• What is it like to be a bat? (¿Cómo es ser un murciélago?) (http:/ / members. aol. com/ NeoNoetics/ Nagel_Bat. html)

Thomas Nagel

Thomas Nagel (Belgrado, antigua Yugoslavia, 4 de julio de 1937) es un filósofo estadounidense, actualmente Profesor de Filosofía y Derecho en la Universidad de Nueva York (NYU). Sus trabajos se han centrado en filosofía de la mente, filosofía política y ética. Es conocido por su crítica de los estudios reduccionistas sobre la mente en su ensayo "What Is it Like to Be a Bat?" (1974) y por su contribución a la teoría político-moral liberal y deontológica en "The Possibility of Altruism" (1970).

Biografía Thomas Nagel.

Thomas Nagel nació el 4 de julio de 1937 en Belgrado, que entonces formaba parte de Yugoslavia (en la actualidad, es la capital de Serbia); su familia era judía. Obtuvo un grado en Filosofía en la Universidad Cornell en 1958 y, posteriormente, en la Universidad de Oxford en 1960. En 1963, obtuvo un doctorado en Filosofía en la Universidad Harvard, bajo la supervisión de John Rawls. Antes de establecerse en Nueva York, Nagel dio clases por un tiempo en la Universidad de California, Berkeley (entre 1963 y 1966) y en la Universidad de Princeton (desde 1966 a 1980), donde convivió con colegas de la talla de Saul Kripke, Bas van Fraseen y David Lewis. En 2006 ingresó en la American Philosophical Society.[1] En 2008 ganó el Premio Balzan por la Filosofía moral.

El Dr. Thomas Nagel se ha especializado en las diferencias entre la subjetividad y la objetividad, plantéandose la pregunta ¿es posible adquirir un punto de vista puramente objetivo y si no, hasta qué grado de objetividad se puede llegar? Este es un tema que ha tratado en varios de sus libros y artículos a través de varios años, por ejemplo en Mortal Questions, A View From Nowhere, y en su colección de ensayos Other Minds. Estos problemas filosóficos han llevado a Nagel a investigar otros problemas relacionados como el problema mente-cuerpo en filosofía de la mente, la universalidad de la ética y cuestiones de justicia social. En ética rechaza las posturas de aquellos filósofos que intentan explicar la moral como una consecuencia de la evolución de la especie humana, Nagel considera que tratar de aplicar los modelos de biología evolucionaria a estas áreas es una maniobra equivocada y que las cuestiones de valor, bien y mal son universales y planteables incluso en aquellos mundos posibles en donde la teoría de la evolución fuera falsa. Por razones similares Nagel ha contribuido al debate actual entre la cultura posmoderna y una Thomas Nagel 202

visión más racionalista del mundo. Por ejemplo en The Last Word Nagel plantea que ciertos pensamientos son inatacables, por ejemplo los pensamientos matemáticos o lógicos que expresamos en proposiciones como: 2 + 2 = 4 o P → Q & P :. Q. Nagel considera que si estos pensamientos pudieran ser atacados no sería el caso que pudiera existir el pensamiento, puesto que estos pensamientos nos permiten decir, pensar cualquier otra cosa: el contenido de P; concebir estados de cosas: P v Q, P & Q, etc; imaginar, y sobre todo afirmar, negar, etc. Ya que de hecho podemos tener toda esta actividad intelectual, podemos pensar, entonces el relativismo cognoscitivo es falso. Otras contribuciones importantes de Nagel incluyen su artículo ¿Cómo es ser un Murciélago? en donde sugiere que la cualidad especial de aquello que llamamos "mental" es que haya algo que es, para ese organismo, cómo es ser ese organismo. Por ejemplo hay algo que es ser Thomas Nagel, o algo que es ser Moisés o Fernanda o Patricia o cualquier ser humano de los tantos en el mundo. Hay algo que es ser como cada uno de ellos, para cada uno de ellos: desde un punto de vista que constituye la perspectiva de la primera persona. Así como hay algo que es ser un particular perro Fido o un particular murciélago, etc. Esto es fundamental puesto que nos permite ver las deficiencias en otras definiciones de filosofía de la mente, sugerencias tales como que lo mental es lo disposicional, o que lo mental es lo funcional, etc. Si lo mental fuera simplemente un engrane más en una cadena de procesos funcionales: neurofisiológicos, químicos, mecánicos, etc, entonces cualquier ser que implementara un algoritmo y tuviera las partes necesarias podría ejecutar esas funciones (¿un Robot?) pero ¿por qué habría que haber algo que es ser ese ser? Parece que la física y la fisiología nos describen y explican perfectamente los movimientos de los cuerpos físicos, y si esto es así parece que ni en la física ni en la fisiología habría ningún dato que nos dijera cómo es ser ese cuerpo particular. Por lo tanto la mente parece ser algo más que los funcionamientos físicos y fisiológicos, por decir, del cerebro. Quizá, una sugerencia que Nagel considera pero no origina en él sino en Bertrand Russell, lo mental es la cualidad intrínseca de esos procesos (qualia). En todo caso en un mundo en el cual vamos explorando y descubriendo con nuestros modelos físicos, biológicos, económicos, etc, surge la pregunta, por qué teniendo tantos puntos de vista de ninguna parte siempre queda al final "mi" punto de vista, el punto de vista de un ser subjetivo pensando el mundo objetivamente. Nagel ha contribuido también extensivamente a debates de filosofía práctica sobre temas como la igualdad, la justicia en la guerra, la muerte, el aborto, la eutanasia y el absurdo de la vida. En su ensayo The Absurd Nagel sugiere que nos percatamos de la condición absurda de nuestra existencia cuando contrastamos el punto de vista subjetivo de nuestra propia importancia con el hecho objetivo que nuestra existencia no vale más que ninguna otra, ni siquiera más que la existencia de ningún objeto inanimado. Nagel concluye que de todos los posibles escapes al absurdo (el desafío, la religión, el amor, el suicidio, etc.), el más adecuado quizá sea la ironía. Nagel es un liberal en la connotación actual de la palabra en Norteamérica, es decir, está a favor del estado benefactor que provee de educación, salud y pensiones a sus habitantes, en contra del libre mercado sin restricciones y de nuevo a favor de que cada individuo escoja su estilo de vida siempre y cuando no dañe a otros. Muestra escepticismo sobre si algún día sea posible manejar un concepto como justicia global entre los distintos estado-nación. Recientemente junto con otros filósofos como John Rawls, Ronald Dworkin y Robert Nozick escribió un documento dirigido a la Suprema Corte de Justicia de Estados Unidos abogando por la permisibilidad legal y moral de la eutanasia. Thomas Nagel 203

Libros La Muerte en Cuestion, ensayos sobre la vida humana; fondo de cultura popular.

Notas y referencias

[1] Información biográfica extraída del CV de Nagel en la NYU (http:/ / www. nyu. edu/ gsas/ dept/ philo/ faculty/ nagel/ nagelcv. pdf).

Enlaces externos

• Página de Thomas Nagel en la Universidad de Nueva York (http:/ / philosophy. fas. nyu. edu/ object/ thomasnagel)

Experiencia

Experiencia (del latín experiri, "comprobar") es una forma de conocimiento o habilidad derivados de la observación, de la vivencia de un evento o proveniente de las cosas que suceden en la vida.

Descripción general

Tanto el ser humano como también muchos animales pueden obtener esta forma de conocimiento llamada experiencia a lo largo de sus vidas. La experiencia es en parte derivada de la El concepto de experiencia generalmente se refiere al conocimiento observación y de la compañía de los que ya son procedimental (cómo hacer algo), en lugar del conocimiento factual sabios. (qué son las cosas). Los filósofos tratan el conocimiento basado en la experiencia como "conocimiento empírico" o "un conocimiento a posteriori". Desde el punto de vista de la hermenéutica filosófica (Gadamer), solamente son posibles las experiencias si se tienen expectativas, por eso una persona de experiencia no es la que ha acumulado más vivencias (Erlebnis), sino la que está capacitada para permitírselas. La experiencia contribuye sensiblemente a la sabiduría. Aunque se puede obtener cierto grado de sabiduría al sufrir castigo u observar a otros recibirlo, una mejor manera de adquirir sabiduría, y que además ahorra tiempo, es beneficiarse y aprender de la experiencia de los que ya son sabios, prefiriendo su compañía a la de “los inexpertos”. Una persona con considerable conocimiento en un área determinada puede ganar reputación como un experto.

En juegos de rol Por su simulacionismo mimético de la realidad los juegos de rol representan también la experiencia ficticia que los personajes jugadores van acumulando a medida que van viviendo sus vidas de ficción: cuantas más partidas juega un jugador con un personaje determinado, más experiencia acumula ese personaje. El personaje adquiere entonces habilidades nuevas o se perfecciona en las que ya posee. Cada sistema de juego tiene diferentes maneras de representar el aumento de experiencia de los personajes, aunque los dos métodos más habituales son: • La atribución de puntos de experiencia (puntos que se traducen en incrementos de habilidades). • Las tiradas de experiencia (tiradas de dados para la mejora de las habilidades que hayan sido correctamente realizadas durante el juego). Experiencia 204

En videojuegos La experiencia acumulada por los personajes jugadores de un videojuego se simula de diferentes maneras: • En una aventura gráfica el personaje puede, por ejemplo, ir recolectando objetos o informaciones transmitidas por otros personajes del juego. • En un videojuego de rol el director de juego distribuye puntos de experiencia que incrementan las capacidades del personaje.

Véase también • Conocimiento • Conocimiento a posteriori • Aprendizaje • Intuición • Sabiduría • Experiencia (juegos de rol) • Experiencia (videojuegos)

Enlaces externos • Wikiquote alberga frases célebres de o sobre Experiencia. Wikiquote

• Wikcionario tiene definiciones para experiencia.Wikcionario

Sistema de juego (juegos de rol)

Un sistema de juego es un conjunto de reglas usadas en un juego de rol.

Descripción general El sistema de juego de un juego de rol sirve ante todo para dar al director de juego un conjunto de reglas tanto para él, que es quien dirige la partida de rol, como para los jugadores que juegan la partida. Este conjunto de reglas sirve para impedir que surjan conflictos durante las partidas de rol. Un ejemplo muy básico puede ser el siguiente: un jugador quiere que su personaje lleve a cabo una investigación en un pequeño pueblo aislado en unas montañas. El director de juego decide que los habitantes de ese pueblo odian a los forasteros y que la investigación será difícil, pero un buen director de juego no debería en ningún momento decir a tal jugador que no obtendrá nunca ninguna información. Bloquear arbitrariamente las acciones de los jugadores mediante decisiones autoritarias irrevocables crea en los jugadores una frustración que puede llevar al conflicto y al enfrentamiento, anulando el placer que normalmente ha de proporcionar la interpretación de personajes en un juego de rol. El sistema de juego del juego de rol al que estén jugando (sea cual sea ese juego) dispone seguramente de una regla o conjunto de reglas para que un personaje jugador pueda o no, en función de sus características y habilidades, obtener ciertas informaciones al entrar en contacto con uno o más personajes no jugadores. Otro ejemplo muy elemental de la necesidad de disponer de un sistema de juego a la hora de jugar a rol es el de las acciones llevadas a cabo en situaciones de combate. Si un jugador quiere darle un espadazo a un adversario es necesario que haya un sistema de reglas que determine si el espadazo alcanza o no a tal adversario. Cuanto más simulacionista sea el sistema de juego más elementos realistas serán tenidos en cuenta a la hora de efectuar las resoluciones de las acciones de los jugadores. ¿Qué hace el adversario del jugador? ¿esquiva o detiene la espada con su escudo? ¿qué grado de habilidad tiene el personaje jugador en el uso de la espada? ¿qué tipo de armadura lleva puesta el adversario? un simple peto de cuero protegerá menos que una espesa coraza de acero... etc. Dependiendo de cada juego de rol, estos conjuntos de reglas servirán Sistema de juego (juegos de rol) 205

para resolver acciones en un único universo de juego concreto, o bien para resolver acciones en una multitud de universos ficticios, en cuyo caso se habla de sistemas de juego genéricos.

Resolución de acciones Los diferentes sistemas de juego suelen resolver las acciones de los personajes, ya sean personajes interpretados por los jugadores o por el director de juego, mediante tiradas de dados cuyos resultados se comparan con lo estipulado por las reglas. Un ejemplo es el del juego de rol Pendragón (1985), en el que las habilidades de los jugadores están expresadas mediante una cifra que va de 1 a 20 y cuya puesta en práctica se verifica mediante la tirada de un dado de veinte caras: todos los resultados iguales o inferiores a esa cifra son un éxito. Los resultados superiores son un fallo. Si por ejemplo un personaje jugador de Pendragón decide dar un espadazo y dispone de un grado de habilidad de 14 en el uso de la espada, tendrá que obtener 14 o menos de 14 en la tirada de un dado de 20. Otros juegos basan el éxito o el fallo de una acción mediante la superación de un número de dificultad. En cualquier caso la mayor parte de los sistemas de juego recurren a tiradas de dados para resolver acciones y conflictos. Esto introduce un elemento de aleatoriedad con el fin de introducir incertidumbre en los procesos de resolución de escenas o tareas. La forma más usual es mediante tiradas de dados pero el uso de naipes no es raro e incluso se utilizan a veces torres de jenga. Muy pocos juegos de rol no hacen uso de tales elementos, siendo el más conocido Amber, que no usa de ningún tipo de aleatoriedad. Algunos sistemas de juego conceden una gran importancia a las reglas y a la simulación de la realidad mediante estas, como el sistema de juego de RuneQuest (1978). Otros, como los de Ars Magica o Castillo de Falkenstein,[1] están diseñados para enfatizar más la interpretación de personajes, para resaltar un estilo de juego o para complementar un escenario de campaña específico a través de mecanismos exclusivos.

Originalidad y extrapolaciones Los juegos de rol no siempre gozan de un sistema de juego enteramente concebido para ellos, ciertos juegos de rol utilizan a veces el sistema de algún juego que les haya precedido. Muy a menudo estos sistemas de juego empiezan por ser concebidos para un juego en particular antes de ser extrapolados a otros juegos o a ser incluso publicados como sistemas genéricos de reglas aplicables a cualquier universo o a cualquier tipo de juego de rol. Eso hace que algunos sistemas de juego sean propios de un único juego de rol y no se les encuentre en los demás juegos mientras que otros sean genéricos y estén compartidos por varios juegos. Estos últimos, los sistemas de juego genéricos, no están atados a un solo género literario o a un único escenario de campaña y pueden ser usados como base para muchos juegos de rol. Según los casos los sistemas de juego genéricos pueden haber sido extrapolados a partir del sistema de juego de un juego de rol en particular o bien haber sido publicados originalmente como sistema genérico independiente, sin haberse inspirado de ningún juego que los hubiera precedido. Un sistema de juego propio que se extrapola a otros juegos puede además acabar siendo publicado como sistema de juego genérico (como el sistema de juego de Los Cazafantasmas, que acabó por ser publicado como sistema genérico en 1996 después de haber sido extrapolado a juegos de rol como Star Wars) o incluso ser publicado de este modo antes incluso de ser extrapolado a otros juegos. Por ejemplo el sistema de RuneQuest (1978) fue publicado directamente como sistema genérico en 1980 antes de ser extrapolado a otros juegos de rol a partir de 1981. He aquí algunos ejemplos de las diferentes formas oiginales y extrapoladas de sistema de juego: • Ejemplos de sistema de juego propio no extrapolado: • James Bond 007[2][3] (1983) • Paranoia[4][5] (1984) • Pendragón[6] (1985) • ¡Piratas![7] (1994) • Ejemplos de sistema de juego propio extrapolado a otros juegos: Sistema de juego (juegos de rol) 206

• El sistema de juego de RuneQuest[8] (1978) fue usado para juegos como La llamada de Cthulhu[9] (1981) o Far West[10] (1994) • El sistema de juego de Los Cazafantasmas[11][12] (1986) fue usado para juegos como Star Wars[13][14] (1987) o Indiana Jones Adventures (1996) • Ejemplos de sistema de juego propio publicado ulteriormente como sistema de juego genérico: • El sistema de juego de RuneQuest (1978) fue publicado en 1980 bajo el título Basic Role-Playing • El sistema de juego de Los Cazafantasmas (1986) fue publicado en 1996 bajo el título The : The Customizable Roleplaying Game • El sistema d20, concebido para la tercera edición de Dungeons & Dragons (2000), fue declarado sistema genérico en el mismo año que esa misma tercera edición • Ejemplos de sistema de juego genérico original: • (1980) • GURPS (1986) • Fudge (1992) • C-System (2007) • RyF (2008)

Clasificación De una manera general los sistemas de juego pueden ser clasificados según el tipo de resolución de las acciones de los personajes. • Sistemas de juego basados en el concepto de nivel. Se atribuye a los personajes una cifra que corresponde a un nivel (nivel 1, nivel 2, nivel 3 etc). Las tiradas de dados se ven entonces afectadas por el nivel del personaje. Ejemplos: • Rolemaster (1980). Usa de un dado de 100. • El Señor de los Anillos[15] (1984). Usa de un dado de 100. • Sistemas de juego basados en la obtención de resultados inferiores a un cierto grado de habilidad. Se atribuye a los personajes un cierto grado de habilidad y las tiradas de dados deben obtener resultados iguales o inferiores a tal grado de habilidad. Ejemplos: • Basic Role-Playing (1980). Extrapolado a partir de RuneQuest (1978). Usa de un dado de 100. • Pendragón (1985). Usa de un dado de 20. • Sistemas de juego basados en una clasificación de los resultados de las tiradas de dados siguiendo un modelo de categorías de éxito. Ejemplos: • James Bond 007 (1983). Usa de un dado de 100. • Sistemas de juego basados en la superación de una cierta cantidad de puntos de dificultad en el momento de hacer las tiradas de dados. Ejemplos: • Sistema D6. Usa de dados de seis caras. • Sistema d20. Usa de un dado de veinte caras. • Príncipe Valiente[16] (1989). Usa de monedas como si fueran dados de dos caras. Sistema de juego (juegos de rol) 207

Lista de sistemas de juego genéricos Los siguientes sistemas de juego de rol son genéricos, para saber más sobre sistemas de juego propios de un único juego de rol consúltese cada juego por separado en la cronología de los juegos de rol. • Action! • • Basic Role-Playing • C-System • Dice & Glory • Fudge • GURPS • • Multiverser • Rifts • Rolemaster • RyF • • Silhouette • Sistema CODA • Sistema 3d20 • Sistema d20 • Sistema D6 • Sistema Gumshoe • Sistema Narrativo • Sistema Sombra • Sistema «tirar y guardar dados» • Steve Perrin's Quest Rules • Torg • • Worlds of Wonder

Referencias [1] PONDSMITH Mike, Castillo de Falkenstein, Ediciones Martínez Roca, Madrid, primera edición en castellano: octubre de 1995, traducción del inglés al castellano por Juan Manuel Barranquero [et al.], ISBN 84-270-2028-7. [2] KLUG Gerard Christopher, James Bond 007: Role Playing in Her Majesty's Secret Service, Victory Games, Baltimore, octubre de 1983, ISBN 0-912515-00-7 [3] KLUG Gerard Christopher, James Bond 007, el juego de rol, Joc Internacional, Barcelona, primera edición en español: mayo de 1990, traducción del inglés al castellano por Karl Walter Klobuznik y Moisés Prieto, ISBN 84-7831-029-0 [4] SETH GELBER Daniel, COSTIKYAN Greg, GOLDBERG Eric y ROLSTON Ken, Paranoia, West End Games, New York, 1984, ISBN 0-87431-025-3 [5] SETH GELBER Daniel, COSTIKYAN Greg, GOLDBERG Eric y ROLSTON Ken, Paranoia, Joc Internacional, Barcelona, primera edición en español: abril de 1991, traducción en castellano de Luis Fernando Giménez Marco, ISBN 84-7831-033-9 [6] STAFFORD Greg, El rey Arturo Pendragón, Joc Internacional, Barcelona, primera edición española: septiembre de 1992, título original: King Arthur Pendragon, traducción en castellano de Juan Ignacio Sánchez Pérez, ISBN 84-7831-057-6. [7] ROMERO-SALAZAR Juan Antonio, ¡Piratas!, Ludotecnia, Bilbao, primera edición: agosto de 1994, ISBN 84-8172-006-2 [8] STAFFORD Greg, RuneQuest, Joc Internacional, Barcelona, primera edición española: octubre de 1988, traducción de Ana Isabel Utande y Luis Serrano, ISBN 84-7831-002-9 [9] PETERSEN Sandy, La llamada de Cthulhu, Joc Internacional, Barcelona, primera edición española: septiembre de 1988, título original: Call of Cthulhu, traducción en castellano de Jordi Zamarreño, ISBN 84-7831-000-2 [10] PÉREZ Darío y DÍAZ Óscar, Far West, M+D Editores S.L., Madrid, enero de 1993, ISBN 84-604-4995-5 Sistema de juego (juegos de rol) 208

[11] ALLSTON Aaron, y KAUFMAN Douglas, Ghostbusters: A Frightfully Cheerful Roleplaying Game, West End Games, New York, 1986, ISBN 0-87431-043-1 [12] ALLSTON Aaron, y KAUFMAN Douglas, Los Cazafantasmas, Joc Internacional, Barcelona, primera edición española: marzo de 1992, traducción en castellano de Xavier Salvador, ISBN 84-7831-068-1 [13] COSTIKYAN Greg, Star Wars: The Role-Playing Game, West End Games, New York, octubre de 1987, ISBN 0-87431-065-2 [14] COSTIKYAN Greg, Star Wars, el juego de rol, Joc Internacional, Barcelona, primera edición en español: abril de 1990, traducción en castellano de Xavier Salvador i Vilalta, ISBN 84-7831-021-5 [15] COLEMAN CHARLTON S., El Señor de los Anillos, el juego de rol de la Tierra Media, Joc Internacional, Barcelona, primera edición en español: septiembre de 1989, traducción de José López Jara («Pepe Jara»), ISBN 84-7831-008-8 [16] STAFFORD Greg, DUNN William, WILLIS Lynn y KRANK Charlie, Príncipe Valiente, Joc Internacional, Barcelona, primera edición en español: octubre de 1990, traducción en castellano de Juan Ignacio Sánchez Pérez, ISBN 84-7831-027-4

Véase también • Juego de rol • Dados de rol

Dilema del prisionero

El dilema del prisionero es un problema fundamental de la teoría de juegos que muestra que dos personas pueden no cooperar incluso si en ello va el interés de ambas. Fue desarrollado originariamente por Merrill Flood y Melvin Dresher mientras trabajaban en RAND en 1950. Albert W. Tucker formalizó el juego con la frase sobre las recompensas penitenciarias y le dio el nombre del "dilema del prisionero" (Poundstone, 1995). Es un ejemplo de problema de suma no nula. Las técnicas de análisis ¿Cooperarán los dos prisioneros para minimizar de la teoría de juegos estándar, por ejemplo determinar el equilibrio de la pérdida total de libertad o uno de ellos, Nash, pueden llevar a cada jugador a escoger traicionar al otro, pero confiando en la cooperación del otro, lo ambos jugadores obtendrían un resultado mejor si colaborasen. traicionará para quedar en libertad?

En el dilema del prisionero iterado, la cooperación puede obtenerse como un resultado de equilibrio. Aquí se juega repetidamente, por lo que, cuando se repite el juego, se ofrece a cada jugador la oportunidad de castigar al otro jugador por la no cooperación en juegos anteriores. Así, el incentivo para defraudar puede ser superado por la amenaza del castigo, lo que conduce a un resultado cooperativo.

El dilema del prisionero clásico La enunciación clásica del dilema del prisionero es: La policía arresta a dos sospechosos. No hay pruebas suficientes para condenarlos y, tras haberlos separado, los visita a cada uno y les ofrece el mismo trato. Si uno confiesa y su cómplice no, el cómplice será condenado a la pena total, diez años, y el primero será liberado. Si uno calla y el cómplice confiesa, el primero recibirá esa pena y será el cómplice quien salga libre. Si ambos confiesan, ambos serán condenados a seis años. Si ambos lo niegan, todo lo que podrán hacer será encerrarlos durante seis meses por un cargo menor. Lo que puede resumirse como: Dilema del prisionero 209

Tú confiesas Tú lo niegas

Él confiesa Ambos son condenados a 6 años. Él sale libre y tú eres condenado a 10 años.

Él lo niega Él es condenado a 10 años y tú sales libre. Ambos son condenados a 6 meses.

Vamos a suponer que ambos prisioneros son completamente egoístas y su única meta es reducir su propia estancia en la cárcel. Como prisioneros tienen dos opciones: cooperar con su cómplice y permanecer callado, o traicionar a su cómplice y confesar. El resultado de cada elección depende de la elección del cómplice. Por desgracia, uno no conoce qué ha elegido hacer el otro. Incluso si pudiesen hablar entre sí, no podrían estar seguros de confiar mutuamente. Si uno espera que el cómplice escoja cooperar con él y permanecer en silencio, la opción óptima para el primero sería confesar, lo que significaría que sería liberado inmediatamente, mientras el cómplice tendrá que cumplir una condena de 10 años. Si espera que su cómplice decida confesar, la mejor opción es confesar también, ya que al menos no recibirá la condena completa de 10 años, y sólo tendrá que esperar 6, al igual que el cómplice. Y, sin embargo, si ambos decidiesen no cooperar y permanecer en silencio, ambos serían liberados en sólo 6 meses. Confesar es una estrategia dominante para ambos jugadores. Sea cual sea la elección del otro jugador, pueden reducir siempre su sentencia confesando. Por desgracia para los prisioneros, esto conduce a un resultado regular, en el que ambos confiesan y ambos reciben largas condenas. Aquí se encuentra el punto clave del dilema. El resultado de las interacciones individuales produce un resultado que no es óptimo -en el sentido de eficiencia de Pareto-; existe una situación tal que la utilidad de uno de los detenidos podría mejorar (incluso la de ambos) sin que esto implique un empeoramiento para el resto. En otras palabras, el resultado en el cual ambos detenidos no confiesan domina al resultado en el cual los dos eligen confesar. Si se razona desde la perspectiva del interés óptimo del grupo (de los dos prisioneros), el resultado correcto sería que ambos cooperasen, ya que esto reduciría el tiempo total de condena del grupo a un total de un año. Cualquier otra decisión sería peor para ambos si se consideran conjuntamente. A pesar de ello, si siguen sus propios intereses egoístas, cada uno de los dos prisioneros recibirá una sentencia dura. Si has tenido una oportunidad para castigar al otro jugador por confesar, entonces un resultado cooperativo puede mantenerse. La forma iterada de este juego (mencionada más abajo) ofrece una oportunidad para este tipo de castigo. En ese juego, si el cómplice traiciona y confiesa una vez, se le puede castigar traicionándolo a la próxima. Así, el juego iterado ofrece una opción de castigo que está ausente en el modo clásico del juego. Una opción es considerar este dilema como una simple "máquina de la verdad". El jugador puede tomar no dos, sino tres opciones: cooperar, no cooperar o, sencillamente, no jugar. La respuesta lógica en este caso es "no jugar", pues el prisionero carece de información suficiente para jugar correctamente: no sabe cuál será la opción de su compañero. No hay tal dilema, pues no es posible el juego. Si juega, se trata de una "apuesta", más que de una solución lógica. Pensemos también que el prisionero en realidad está "jugando" con su carcelero, no con el otro prisionero. El carcelero le ofrece una opción. Para él, la mayor ganancia sería condenar al prisionero a la pena mayor, pues ése es su trabajo. Si logra condenar a los dos a la máxima pena, doble ganancia. El prisionero sabe eso, en el fondo. Sólo "jugaría" si supiera con toda certeza que el policía cumpliría su palabra a pesar de su confesión. Pero tampoco lo sabe. En realidad, prisionero-carcelero y prisionero-prisionero están jugando al mismo juego: encubrir o traicionar (en el caso del ejemplo de los prisioneros, no concuerda el verdad o mentira puesto que decir la verdad sería traicionar). Dilema del prisionero 210

Tú encubres Tú traicionas

Él encubre Máximo beneficio común Tú ganas, él pierde

Él traiciona Él gana, tú pierdes Máximo perjuicio común

En este caso, decir la verdad equivale a cooperar, a callarse. Pero un jugador sólo optará por la casilla "verdad" si sabe que el otro jugador también opta por la misma solución. En la vida real, eso no lo sabemos: hay que "jugar", es decir, arriesgarse. Todo se basa en la "relación de confianza" existente entre los dos jugadores. Pongamos, por ejemplo, que los dos prisioneros son hermanos, con una relación de confianza muy estrecha. O que lo son uno de los prisioneros y el carcelero. Entonces sí sabrían (casi con toda seguridad, pero nunca completa) cuál sería la opción de su compañero, y entonces siempre jugarían correctamente: cooperarían. La única solución lógica es, por tanto, decir la verdad. Y además será la que dará el máximo beneficio común. Este planteamiento nos lleva a la correcta solución del dilema, que es decir la verdad, cooperar. Pero en este caso el error estaba en el planteamiento correcto del dilema, que no es pensar en nuestro beneficio (ser egoísta) sino en el del "otro" (ser generoso). En este caso, jugando a "verdad" siempre conseguiremos que el "otro" gane. Si el objetivo del juego es que siempre gane el rival, hay pues una única solución lógica, y que no depende de la jugada del rival. Dilema resuelto. Una solución "incorrecta" sería en el caso que el hermano traicione al hermano. Aun así, el juego es correcto (pues todo juego tiene una y sólo una solución lógica). Lo que ha sucedido es que ha cambiado el nombre del juego: ahora lo podríamos llamar "Descubre al mentiroso". Hemos ganado, pues descubrimos a un mentiroso.

Tú ganas Tú pierdes

Él gana Los dos dijeron la verdad Él mintió

Él pierde Tú mentiste Lo dos mintieron

Es entonces una auténtica "máquina de la verdad". El dilema del prisionero es pues siempre un juego dual; pero siempre tiene una solución lógica. Si los dos juegan lógicamente, es decir, con honestidad, el juego es beneficioso para ambos. Si uno engaña y el otro no, el juego se llama "Descubre al Mentiroso", y ambos vuelven a ganar. Pero si pensamos en el Dilema como búsqueda egoísta, y no generosa, la jugada "incorrecta" del dilema impide la iteración, luego finaliza el juego. Por esa razón, el jugador "ilógico" siempre tendrá dos objetivos: uno, engañar al honesto; y dos, convencerle a posteriori de que no fue engañado, mediante otro ardid, para poder seguir engañándole. Un mentiroso siempre necesitará otra mentira para cubrir la primera. Este tipo de estrategias es muy común en la vida cotidiana y se conoce como "manipulación". Para algunos, quizás exagerando, la política (la mala política) es el arte de la manipulación continua. Y que la estrategia funcione tiene tanto que ver con la "mentira" del tramposo como la "doble ingenuidad" del honesto. Fiarse de un mentiroso no es honestidad, sino estupidez. (De ahí que la estrategia conocida como "vengativa no rencorosa", o Toma y daca (tit for tat) —ver más adelante— sea la más eficaz). Pero sabemos que el único resultado correcto es bueno para todos los jugadores, y éste sólo sucede cuando todos dicen la verdad. Si alguien miente, engaña o manipula, la solución siempre será incorrecta. O, dicho de otro modo, si la solución es incorrecta, es que alguien nos engañó o nos mintió. Dilema del prisionero 211

Un juego similar pero distinto El científico cognitivo Douglas Hofstadter (ver las referencias más abajo) sugirió una vez que la gente encuentra muchas veces problemas como el dilema del prisionero más fáciles de entender cuando están presentados como un simple juego o intercambio. Uno de los ejemplos que usó fue el de dos personas que se encuentran e intercambian bolsas cerradas, con el entendimiento de que una de ellas contiene dinero y la otra contiene un objeto que está siendo comprado. Cada jugador puede escoger seguir el acuerdo poniendo en su bolsa lo que acordó, o puede engañar ofreciendo una bolsa vacía. En este juego de intercambio el engaño no es la mejor opción, pues si los dos anteponen su egoísmo al bien común nunca serán capaces de realizar un intercambio, ya que las dos personas siempre darán la bolsa vacía.

Matriz de pagos del dilema del prisionero En el mismo artículo, Hofstadter también observó que la matriz de pagos del dilema del prisionero puede, de hecho, escribirse de múltiples formas, siempre que se adhiera al siguiente principio: T > R > C > P donde T es la tentación para traicionar (esto es, lo que obtienes cuando desertas y el otro jugador coopera); R es la recompensa por la cooperación mutua; C es el castigo por la deserción mutua; y P es la paga del primo (esto es, lo que obtienes cuando cooperas y el otro jugador deserta). En el caso del dilema del prisionero, la fórmula se cumple: 0 > -0,5 > -6 > -10 (en negativo pues los números corresponden a años de cárcel). Suele también cumplirse que (T + C)/2 < R, y esto se requiere en el caso iterado. Las fórmulas anteriores aseguran que, independientemente de los números exactos en cada parte de la matriz de pagos, es siempre "mejor" para cada jugador desertar, haga lo que haga el otro. Siguiendo este principio, y simplificando el dilema del prisionero al escenario del cambio de bolsas anterior (o a un juego de dos jugadores tipo Axelrod — ver más abajo), obtendremos la siguiente matriz de pagos canónica para el dilema del prisionero, esto es, la que se suele mostrar en la literatura sobre este tema:

Cooperar Desertar

Cooperar 3, 3 -5, 5

Desertar 5, -5 -1, -1

En terminología "ganancia-ganancia" la tabla sería similar a esta:

Cooperar Desertar

Cooperar ganancia - ganancia pérdida sustancial - ganancia sustancial

Desertar ganancia sustancial - pérdida sustancial pérdida - pérdida Dilema del prisionero 212

Criterio egoísta versus criterio del bien común en la matriz de resultados del dilema del prisionero En el tratamiento del Dilema del Prisionero por lo general sólo se considera una matriz con los resultados individuales o egoístas pero no con los resultados conjuntos o de bien común, esto es, la suma de los resultados individuales. Podemos crear una matriz de resultados extendida:

Prisionero A Prisionero B Prisionero A Prisionero B Ambos

No Confesar No Confesar 1 año de cárcel 1 año de cárcel 2 años de cárcel

No Confesar Confesar 5 años de cárcel 0 años de cárcel 5 años de cárcel

Confesar No Confesar 0 años de cárcel 5 años de cárcel 5 años de cárcel

Confesar Confesar 3 años de cárcel 3 años de cárcel 6 años de cárcel

A partir de esta matriz de resultados podemos utilizar un criterio del resultado conjunto o del bien común que produce resultados diferentes a los obtenidos por el criterio de los resultados individuales o egoístas: La decisión que beneficia en forma conjunta a ambos participantes es No Confesar que resulta en un total de dos años de cárcel contra cinco o seis años de cárcel con las otras decisiones. Dos importantes corolarios de este criterio son los siguientes: • La mejor decisión basada en el criterio individual o egoísta es opuesta a la decisión basada en el criterio conjunto o del bien común. • La decisión conjunta o de bien común implica un costo individual real o de oportunidad. Recordemos que el concepto de Costo de Oportunidad se refiere al beneficio que se deja de percibir que es diferente al desembolso de algo que se poseía. En este caso, el costo individual de la decisión altruista o de bien común es de un año de cárcel en lugar de salir libre de manera inmediata. Nótese que no se habla de la culpabilidad o inocencia reales de los presuntos criminales sino de la decisión de confesar o no hacerlo. El efecto del cambio de criterio, del resultado individual o egoísta al resultado conjunto o del bien común, produce un cambio de 180º en el análisis del Dilema del Prisionero. El más importante corolario de este dilema es que la única forma de ganar es con un cambio de valores: del egoísmo individual al altruísmo del bien común. Este puede ser el juego de supervivencia del planeta: o la humanidad termina en la extinción o sobrevive gracias al respeto al otro. El instinto filial (amor padres-hijos) adquirido en el proceso evolutivo ha permitido la supervivencia de la especie humana, que de otra forma ya se hubiera extinguido debido a la incapacidad de los infantes humanos para sobrevivir sin la protección de sus padres o substitutos; tal incapacidad es mayor en los humanos que en ninguna otra especie animal. El problema es que no existe el tiempo para adquirir por evolución biológica un instinto social o de amor al otro. Parece que la única salida es adelantarse al proceso evolutivo con la toma de conciencia y el cambio propositivo de valores de los seres humanos. La paradoja de todo lo anterior es que para lograr el beneficio individual es menester respetar el bien común. El egoísmo finalmente desemboca en la auto-destrucción de la humanidad. Los mensajes éticos producto de la sabiduría humana, desde los albores del hombre, son vigentes. Dilema del prisionero 213

Ejemplos en la vida real Estos ejemplos en concreto en los que intervienen prisioneros, intercambio de bolsas y cosas parecidas pueden parecer rebuscados, pero existen, de hecho, muchos ejemplos de interacciones humanas y de interacciones naturales en las que se obtiene la misma matriz de pagos. El dilema del prisionero es por ello de interés para ciencias sociales como economía, ciencia política y sociología, además de ciencias biológicas como etología y biología evolutiva. En ciencia política, dentro del campo de las relaciones internacionales, el escenario del dilema del prisionero se usa a menudo para ilustrar el problema de dos estados involucrados en una carrera armamentística. Ambos razonarán que tienen dos opciones: o incrementar el gasto militar, o llegar a un acuerdo para reducir su armamento. Ninguno de los dos estados puede estar seguro de que el otro acatará el acuerdo; de este modo, ambos se inclinarán hacia la expansión militar. La ironía está en que ambos estados parecen actuar racionalmente, pero el resultado es completamente irracional. Otro interesante ejemplo tiene que ver con un concepto conocido de las carreras en ciclismo, por ejemplo el Tour de Francia. Considérense dos ciclistas a mitad de carrera, con el pelotón a gran distancia. Los dos ciclistas trabajan a menudo conjuntamente (cooperación mutua) compartiendo la pesada carga de la posición delantera, donde no se pueden refugiar del viento. Si ninguno de los ciclistas hace un esfuerzo para permanecer delante, el pelotón les alcanzará rápidamente (deserción mutua). Un ejemplo visto a menudo es que un sólo ciclista haga todo el trabajo (coopere), manteniendo a ambos lejos del pelotón. Al final, esto llevará probablemente a una victoria del segundo ciclista (desertor) que ha tenido una carrera fácil en la estela del primer corredor. Un ejemplo adicional se puede observar en las intersecciones de dos vías por donde circulan autos y donde ninguna tiene una preferencia sobre la otra: si todos los conductores colaboran y hacen turnos para pasar, la pequeña espera se justifica por el beneficio de no generar una congestión en el medio. Si alguien no colabora y el resto sí, se beneficia el "no colaborador" generando un desorden en la secuencia de turnos que perjudica a los que estaban colaborando. Por último, cuando nadie quiere colaborar y tratan de pasar primero, se genera una gran congestión donde todos pierden mucho tiempo. Por último, la conclusión teórica del dilema del prisionero es una razón por la cual, en muchos países, se prohíben los acuerdos judiciales. A menudo, se aplica precisamente el escenario del dilema del prisionero: está en el interés de ambos sospechosos el confesar y testificar contra el otro prisionero/sospechoso, incluso si ambos son inocentes del supuesto crimen. Se puede decir que, el peor caso se da cuando sólo uno de ellos es culpable: no es probable que el inocente confiese, mientras que el culpable tenderá a confesar y testificar contra el inocente.

El dilema del prisionero iterado Robert Axelrod, en su libro La evolución de la cooperación: el dilema del prisionero y la teoría de juegos (1984), estudió una extensión al escenario clásico del dilema del prisionero que denominó dilema del prisionero iterado (DPI). Aquí, los participantes deben escoger una y otra vez su estrategia mutua, y tienen memoria de sus encuentros previos. Axelrod invitó a colegas académicos de todo el mundo a idear estrategias automatizadas para competir en un torneo de DPI. Los programas que participaron variaban ampliamente en la complejidad del algoritmo: hostilidad inicial, capacidad de perdón y similares. Axelrod descubrió que cuando se repiten estos encuentros durante un largo periodo de tiempo con muchos jugadores, cada uno con distintas estrategias, las estrategias "egoístas" tendían a ser peores a largo plazo, mientras que las estrategias "altruistas" eran mejores, juzgándolas únicamente con respecto al interés propio. Usó esto para mostrar un posible mecanismo que explicase lo que antes había sido un difícil punto en la teoría de la evolución: ¿cómo puede evolucionar un comportamiento altruista desde mecanismos puramente egoístas en la selección natural? Se descubrió que la mejor estrategia determinista era el Toma y daca (tit for tat, "Donde las dan, las toman"), que fue desarrollada y presentada en el torneo por Anatol Rapoport. Era el más simple de todos los programas presentados, conteniendo únicamente cuatro líneas de BASIC, y fue el que ganó el concurso. La estrategia consiste simplemente Dilema del prisionero 214

en cooperar en la primera iteración del juego, y después de eso elegir lo que el oponente eligió la ronda anterior. Una estrategia ligeramente mejor es "tit for tat con capacidad de perdón". Cuando el jugador B deserta, en la siguiente ronda el jugador A coopera a veces de todos modos con una pequeña probabilidad (del 1% al 5%). Esto permite la recuperación ocasional de quedarse encerrado en un círculo de deserciones. La probabilidad exacta depende de la alineación de los oponentes. "Toma y daca con capacidad de perdón" es la mejor estrategia cuando se introducen problemas de comunicación en el juego. Esto significa que a veces la jugada de un jugador se transmite incorrectamente a su oponente: A coopera pero B cree que ha desertado. Toma y daca funcionaba, mantenía Axelrod, por dos motivos. El primero es que es "amable", esto es, comienza cooperando y sólo deserta como respuesta a la deserción de otro jugador, así que nunca es el responsable de iniciar un ciclo de deserciones mutuas. El segundo es que se le puede provocar, al responder siempre a lo que hace el otro jugador. Castiga inmediatamente a otro jugador si éste deserta, pero igualmente responde adecuadamente si cooperan de nuevo. Este comportamiento claro y directo significa que el otro jugador entiende fácilmente la lógica detrás de las acciones de Toma y daca, y puede por ello encontrar una forma de trabajar con él productivamente. No es una coincidencia que la mayoría de las estrategias que funcionaron peor en el torneo de Axelrod fueron las que no estaban diseñadas para responder a las elecciones de otros jugadores. Contra ese tipo de jugador, la mejor estrategia es desertar siempre, ya que nunca puedes asegurarte de establecer una cooperación mutua fiable. Para el DPI, no siempre es correcto decir que una cierta estrategia es la mejor. Por ejemplo, considérese una población donde todo el mundo deserta siempre, excepto por un único individuo que sigue la estrategia Toma y daca. Este individuo tiene una pequeña desventaja porque pierde la primera ronda. En una población con un cierto porcentaje de individuos que siempre desertan y otros que siguen la estrategia Toma y daca, la estrategia óptima para un individuo depende del porcentaje, y de la duración del juego. Se han realizado simulaciones de poblaciones, donde mueren los individuos con puntuaciones bajas y se reproducen aquellos con puntuaciones altas. La mezcla de algoritmos en la población final depende de la mezcla en la población inicial. Si un DPI va a ser iterado exactamente N veces, para alguna constante conocida N, hay otro dato interesante. El equilibrio de Nash es desertar siempre. Esto se prueba fácilmente por inducción: El jugador A puede desertar la última ronda, ya que B no tendrá oportunidad de castigarle. Por ello, ambos desertaran la última ronda. Entonces, A puede desertar la ronda anterior, ya que B desertará en la última sin importar lo que suceda. Y se continúa de este modo. Para que la cooperación siga siendo atractiva, el futuro debe ser indeterminado para ambos jugadores. Una solución consiste en hacer aleatorio el número total de rondas N. Otro caso especial es "jugar eternamente" el dilema del prisionero. El juego se repite un número infinito de rondas, y la puntuación es la media (calculada apropiadamente). El juego del dilema del prisionero es fundamental para entender ciertas teorías de cooperación y confianza humana. En la suposición de que las transacciones entre dos personas que requieran confianza pueden ser modelizadas por el dilema del prisionero, el comportamiento cooperativo en poblaciones puede ser modelado por una versión para varios jugadores e iterada del juego. Por ello ha fascinado a muchos estudiosos a lo largo de los años. Una estimación no demasiado actualizada (Grofman and Pool, 1975) sitúa el número de artículos dedicados al mismo sobre 2.000. Dilema del prisionero 215

Sociedades secretas en el dilema del prisionero iterado En el vigésimo aniversario de la competición del dilema del prisionero iterado (2004), el equipo de la Universidad de Southampton ganó las primeras posiciones, venciendo entre los demás competidores a algoritmos modelo Toma y daca y sus derivados. La competición era de la variante del dilema del prisionero iterado con problemas de comunicación (esto es, algunas veces no se comunicaban bien los movimientos al otro jugador). En esa edición, se presentaron 223 competidores, de los cuales 60 fueron inscritos por Southampton. Todos eran variantes de un mismo algoritmo, y en los primeras 5 a 10 iteraciones del dilema del prisionero utilizaban sus respuestas como "saludo secreto" para identificarse entre sí. Entonces, si identificaban al otro jugador como perteneciente a la "sociedad", algunos algoritmos estaban diseñados para sacrificarse colaborando siempre, de modo que los otros, traicionándolos siempre, pudiesen conseguir una puntuación máxima. Si no identificaban al otro algoritmo como perteneciente a la sociedad tras ver sus jugadas iniciales, todas las variantes le traicionaban siempre para bajar en lo posible su puntuación. Esta estrategia, aunque de discutible correspondencia con el espíritu del juego, ya que requiere una comunicación inicial entre los participantes de la "sociedad" para decidir el formato del "saludo", se ajusta a las reglas de la competición. Siguiéndola, Southampton consiguió que tres de sus participantes ocupasen las tres primeras posiciones, a costa de que muchos de sus otros algoritmos estuviesen entre los de peor puntuación.

Variantes Existen algunas variantes del juego, con diferencias sutiles pero importantes en las matrices de pago, que se muestran a continuación:

Gallina Otro importante juego de suma no nula se llama "gallina". En este caso, si tu oponente deserta, te beneficias más si cooperas, y éste es tu mejor resultado. La deserción mutua es el peor resultado posible (y por ello un equilibrio inestable), mientras que en el dilema del prisionero el peor resultado posible es la cooperación mientras el otro jugador deserta (así la deserción mutua es un equilibrio estable). En ambos juegos, la "cooperación mutua" es un equilibrio inestable. Una matriz de pagos típica sería: • Si ambos jugadores cooperan, cada uno obtiene +5. • Si uno coopera y el otro deserta, el primero obtiene +1 y el otro +10. • Si ambos desertan, cada uno obtiene -20. Se llama "gallina" por el juego de carreras de coches. Dos jugadores corren el uno hacia el otro hacia una aparente colisión frontal: el primero en desviarse de la trayectoria es el gallina. Ambos jugadores evitan el choque (cooperan) o continúan con la trayectoria (desertan). Otro ejemplo se encuentra cuando dos granjeros usan el mismo sistema de irrigación en sus campos. El sistema puede ser mantenido adecuadamente por una persona, pero ambos granjeros se benefician de ello. Si un granjero no contribuye a su mantenimiento, sigue estando dentro del interés del otro granjero hacerlo, porque se beneficiará haga lo que haga el otro. Así, si un granjero puede establecerse como el desertor dominante —esto es, si su hábito se vuelve tan enraizado que el otro hace todo el trabajo de mantenimiento— seguramente continuará con ese comportamiento. Dilema del prisionero 216

Juego de confianza Un juego de confianza comparte algunas similitudes con el dilema del prisionero. Sin embargo el juego de confianza implica un juego secuencial en que un jugador decide primero su nivel de confianza en el segundo jugador. A mayor confianza mayor es el pago que se genera para el segundo jugador, quien debe después decidir si corresponde la confianza con una decisión que es mutuamente benéfica para los dos. Un ejemplo clásico es en el que 2 jugadores inician el juego con una dotación de $10 cada uno. El primer jugador debe decidir cuánto de sus $10 enviar al jugador 2. La cantidad enviada se triplica en el camino hacia el jugador 2. Una vez el jugador 2 recibe esa cantidad triplicada, debe decidir cuánto retornar al jugador 1. La cantidad retornada no se triplica. Claramente este juego en una sola ronda tiene un equilibrio de Nash de ($10,$10) en el que el jugador 2 debería quedarse con toda la cantidad recibida, y por tanto el jugador 1 no tiene incentivos a enviar dinero al jugador 2. El óptimo social de este juego se logra cuando el jugador envía toda su dotación al jugador 2 generando una suma total de pagos de 3x$10 + $10 = $40. En términos de los pagos el juego de confianza tiene una estructura similar al dilema del prisionero, ya que la recompensa por la cooperación mutua es mayor que la otorgada por la deserción mutua. El juego de confianza repetido es potencialmente muy estable, ya que da la máxima recompensa a jugadores que establecen un hábito de confianza y cooperación mutua. A pesar de ello, existe el problema de que los jugadores no sean conscientes de que está en su interés cooperar, o que no anticipen la reciprocidad negativa del otro jugador erosionando la reputación, cooperación y confianza en el proceso.

Amigo o enemigo "Amigo o enemigo" (Friend or Foe) es un juego que se está emitiendo actualmente en el canal de cable y satélite estadounidense Game Show Network. Es un ejemplo del juego del dilema del prisionero probado en personas reales, pero en un entorno artificial. En el concurso, compiten tres pares de personas. Cuando cada pareja es eliminada, juegan a un juego del dilema del prisionero para determinar cómo se reparten sus ganancias. Si ambos cooperan ("amigo"), comparten sus beneficios al 50%. Si uno coopera y el otro deserta ("enemigo"), el desertor se lleva todas las ganancias y el cooperador ninguna. Si ambos desertan, ninguno se lleva nada. Advierta que la matriz de pagos es ligeramente diferente de la estándar dada anteriormente, ya que los pagos de "ambos desertan" y el de "yo coopero y el otro deserta" son idénticos. Esto hace que "ambos desertan" sea un equilibrio neutral, comparado con el dilema del prisionero estándar. Si sabes que tu oponente va a votar "enemigo", entonces tu elección no afecta a tus ganancias. En cierto modo, "amigo o enemigo" se encuentra entre el dilema del prisionero y gallina. La matriz de pagos es: • Si ambos jugadores cooperan, cada uno obtiene +1. • Si ambos desertan, cada uno obtiene 0. • Si tú cooperas y el otro deserta, tú te llevas +0 y él +2. "Amigo o enemigo" es útil para alguien que quiera hacer un análisis del dilema del prisionero aplicado a la vida real. Fíjese en que sólo se puede jugar una vez, así que todos los conceptos que implican juegos repetidos no se presentan, y no se puede desarrollar la estrategia de la revancha. En "amigo o enemigo", cada jugador puede hacer un comentario para convencer al otro de su amistad antes de hacer la decisión en secreto de cooperar o desertar. Un posible modo de "ganar al sistema" sería decir al rival: "Voy a escoger 'enemigo'. Si confías en que te dé la mitad de los beneficios después, escoge 'amigo'. De otro modo, nos iremos ambos sin nada." Una versión más egoísta de esto sería: "Voy a escoger 'enemigo'. Voy a darte X% y me quedaré con (100-X)% del premio total. Así que tómalo o déjalo, ambos nos llevamos algo o ninguno nos llevamos nada." Ahora el truco se encuentra en minimizar X de modo que el otro concursante siga escogiendo 'amigo'. Básicamente, debes conocer el umbral en el que los beneficios que obtiene viéndote no llevarte nada superan a los que obtiene simplemente llevándose el dinero que has ofrecido. Este acercamiento no ha sido intentado en el juego: es posible que los jueces no lo permitiesen. Dilema del prisionero 217

La "tragedia de los comunes" La llamada "tragedia de los comunes" (de los pastos comunales) es un caso de dilema de prisionero que involucra a muchos agentes y que parece referirse a situaciones reales. En la formulación que popularizó Garrett Harding, cada vecino de una comunidad campesina prefiere alimentar a su ganado en pastos comunales que en otros propios de peor calidad; si el número de vecinos que satisface esta preferencia supera cierto límite, los pastos comunes quedan esquilmados, y es a esto precisamente a lo que conduce la solución del juego. Para que algún vecino se beneficie de los pastos, otros deben pagar el coste de renunciar, o cada uno debe renunciar en parte; pero el equilibrio está en una situación donde cada quién utiliza los pastos sin preocuparse de los demás. Trasladando la situación al esquema de Hofstadter, cada vecino tiene aquí la tentación T de beneficiarse de los pastos sin pagar el coste; la recompensa R por la cooperación mutua consiste en negociar cuántos -o en cuanto- han de dejar de beneficiarse de los pastos comunes para conservar los pastos en buenas condiciones; el castigo C para todos porque cada uno ceda a la tentación es la ruina de los pastos; la paga del primo P es la de quien al no aprovecharse de los prados comunes, ha permitido que otros lo hagan. Estas posibilidades se combinan como en el dilema del prisionero bipersonal, haciendo que ante el riesgo de recibir la paga del primo todos cedan a la tentación de no cooperar y provoquen la situación de castigo. La misma estructura se puede aplicar a cualquier dinámica de agotamiento de recursos por sobreexplotación, y parece estar en el origen de la contaminación ambiental –donde una atmósfera no contaminada podría desempeñar el papel de los pastos comunes, y el automóvil privado el papel del ganado-. Se ha interpretado que evitar soluciones subóptimas como éstas pasa por la privatización de los bienes de acceso público, limitando en función de la renta el número de personas que pueden caer en la tentación. Para el filósofo inglés Derek Parfit los juegos que tienen más interés para estudiar la lógica del dilema del prisionero son los que dependen de la concurrencia de muchos agentes -como "la tragedia de los comunes"-, y no los juegos bipersonales o los juegos iterados: por un lado, la situación que los provoca no depende de pagos diseñados externamente -por un experimentador o una institución-, sino de la simple concurrencia de múltiples agentes; por otro, mientras más sean los participantes, más irracional es abandonar unilateralmente la solución subóptima que lleva a C –más improbables son los beneficios de no ceder a la tentación T-, y menos peso tienen las soluciones que se postulan en contextos artificiales de iteración. En suma, el gran número de participantes es para Parfit tanto causa como garantía de que la no cooperación sea una solución estable, y la hace permanente e inevitable (para agentes racionales que busquen satisfacer su propio interés). Paula Casal afirma que la capacidad secular de las comunidades indígenas para mantener en buen estado los pastos comunes desmiente la inevitabilidad de C; "la educación, las costumbres, los consejos de ancianos u otras instituciones sociales" de esas comunidades serían las barreras que impiden que la tragedia se dé en ellas. Parece entonces que el dilema se supera gracias a la paradójica receta que admite Parfit: el propio interés prescribe que, para llegar a soluciones óptimas de Pareto estables, los individuos deben ser educados en teorías morales contrarias a la satisfacción del propio interés. Dilema del prisionero 218

Referencias

• Axelrod, Robert; Hamilton, William D. (1981). «The evolution of cooperation». Science (211). p. 1390-1396. • Axelrod, Robert (octubre de 1986). La evolución de la cooperación : el dilema del prisionero y la teoría de juegos. CDU 316. Alianza Editorial, S.A.. ISBN 8420624748. • Grofman; Pool (1975). «Bayesian models for iterated prisoner's dilemma games». General Systems (20). p. 185-194. • Hofstadter, Douglas R. (1985). «Ch. 29 - The Prisoner's Dilemma computer tournaments and evolution of cooperation». Metamagical Themas: Questing for the essence of mind and pattern. Basic Books. ISBN 0465045669. • Poundstone, William (septiembre de 1995). El dilema del prisionero: John Von Neumann, la teoría de juegos y la bomba. CDU 519.8. Alianza Editorial, S.A.. ISBN 8420607479. • Grossman, Wendy M. (13/10/2004). «New Tack Wins Prisoner's Dilemma [1]» (en inglés). Wired News. Consultado el 07/10/2008. • Parfit, Derek (marzo de 2005). Razones y personas. CDU 16. A. Machado Libros, S.A.. ISBN 8477747709.

Enlaces externos • Una introducción [2] (en inglés) a la teoría de juegos con un claro y preciso tratamiento del dilema del prisionero, completado con un glosario de los términos definidos. • Enciclopedia de filosofía Stanford (en inglés), Prisoner's Dilemma [3] • Jugar en línea al dilema del prisionero iterado [4] • La competición anual [5] sobre el dilema de prisionero iterado • El artículo original sobre la "tragedia de los comunes" [6], en castellano. • Paula Casal, Tragedia de los comunes [7], en Román Reyes (ed.), Diccionario crítico de ciencias sociales. • La tragedia de los comunes [8], blog con comentarios sobre noticias que reflejan casos de esta estructura. • Serie sobre el dilema del prisionero [9], serie de varios artículos sobre el dilema del prisionero y sus consecuencias filosóficas. • Dilema del prisionero y atascos [10], estudio sobre el paralelismo de cierto tipo de atascos con la "tragedia de los comunes".

References

[1] http:/ / www. wired. com/ news/ culture/ 0,1284,65317,00. html

[2] http:/ / www. cdam. lse. ac. uk/ Reports/ Files/ cdam-2001-09. pdf

[3] http:/ / plato. stanford. edu/ entries/ prisoner-dilemma/

[4] http:/ / www. wadzar. fr/ prisonniers. php?langue=es

[5] http:/ / www. prisoners-dilemma. com/

[6] http:/ / www. eumed. net/ cursecon/ textos/ hardin-tragedia. htm

[7] http:/ / www. ucm. es/ info/ eurotheo/ diccionario/ T/ tragedia_comunes. htm

[8] http:/ / latragediadeloscomunes. blogspot. com/

[9] http:/ / www. boulesis. com/ boule/ el-dilema-del-prisionero/

[10] http:/ / www. subliminalia. com/ 2008/ 05/ el_dilema_del_camionero/ Equilibrio de Nash 219 Equilibrio de Nash

El equilibrio de Nash o equilibrio de Cournot o equilibrio de Cournot y Nash es, en la teoría de los juegos,[1][2] un “concepto de solución” para juegos con dos o más jugadores,[3] que asume que cada jugador: • Conoce y ha adoptado su mejor estrategia, y • Todos conocen las estrategias de los otros. Consecuentemente, cada jugador individual no gana nada modificando su estrategia mientras los otros mantengan las suyas. Así, cada jugador está ejecutando el mejor "movimiento" que puede dados los movimientos de los demás jugadores. En otras palabras, un equilibrio de Nash es una situación en la cual todos los jugadores han puesto en práctica, y saben que lo han hecho, una estrategia que maximiza sus ganancias dadas las estrategias de los otros. Consecuentemente, ningún jugador tiene ningún incentivo para modificar individualmente su estrategia. Es importante tener presente que un equilibrio de Nash no implica que se logre el mejor resultado conjunto para los participantes, sino sólo el mejor resultado para cada uno de ellos considerados individualmente. Es perfectamente posible que el resultado fuera mejor para todos si, de alguna manera, los jugadores coordinaran su acción. En términos económicos, es un tipo de equilibrio de competencia imperfecta que describe la situación de varias empresas compitiendo por el mercado de un mismo bien y que pueden elegir cuánto producir para intentar maximizar su ganancia.

Ejemplo Quizás el mejor ejemplo de un equilibrio de Nash es una variación del conocido “dilema del prisionero” modificado a fin de resaltar los efectos descritos. En esta versión hay varios jugadores (más de tres). El resultado sería mejor para todos si todos cooperaran entre ellos y no declararan, pero, dado que cada cual persigue su propio interés, y ninguno puede confiar en que nadie declarará, todos deben adoptar la estrategia de declarar, lo que termina en una situación (equilibrio) en la cual cada uno minimiza su posible pérdida. Modificaciones adicionales permiten repetir el juego de forma indefinida (por ejemplo, con los jugadores repartiendo un “botín”, etc.). En todas esas situaciones resulta que la estrategia de no cooperar es la que minimiza el riesgo de pérdidas y otorga una ganancia media pero segura para cada jugador individual, pero la cooperación maximizaría la ganancia tanto a nivel individual como de grupo.

Historia El concepto de equilibrio de Nash comienza su desarrollo con Antoine Augustin Cournot y su trabajo sobre oligopolios (1838). En éste se plantea el modelo de varias empresas que compiten por el mercado de un mismo bien y que pueden elegir cuánto producir para intentar maximizar su ganancia en función de la producción de las otras. Se establece un equilibrio de Cournot cuando la producción de cada empresa maximiza sus beneficios, dada la producción de las otras empresas, lo que es una situación de estrategia pura en el equilibrio de Nash. Los equilibrios de Nash en estrategias puras son limitados en muchos aspectos y fue con el desarrollo de la teoría moderna de juegos que surgen los equilibrios en estrategias mixtas (aquellas en las que los jugadores pueden elegir aleatoriamente entre varias estrategias). El concepto de equilibrio para este tipo de estrategias fue introducido por John von Neumann y Oskar Morgenstern en su libro Theory of Games and Economic Behavior (1944), aunque sólo trataron los equilibrios para el caso especial de juegos de suma cero. Fue John Forbes Nash quien en su tesis de doctorado (1951) define los equilibrios que hoy llevan su nombre, tratando de manera general las estrategias mixtas y demostrando que cualquier juego con un número finito de estrategias tiene al menos un equilibrio de Nash en estrategias mixtas. Nash ganaría posteriormente un premio Nobel Equilibrio de Nash 220

por la amplia gama de aplicaciones que tuvo este concepto en diversas ramas de las ciencias. Posteriormente se encontraron algunos casos en los que los equilibrios de Nash no llevaban a predicciones totalmente adecuadas para los comportamientos de los jugadores, o comportamientos estables que no se podían encontrar como equilibrios de Nash, lo que dio paso a la búsqueda y desarrollo de nuevos equilibrios (muchas veces como refinamientos de los equilibrios de Nash) y conceptos de solución de un juego.

Definiciones formales Un juego rectangular se define como una terna , donde N es el conjunto de jugadores, es el conjunto de estrategias para cada jugador j y

son las llamadas funciones de pago, que a cada conjunto de estrategias (una para cada jugador) le asocia un respectivo pago al jugador j.

Denotaremos

Por otro lado dado un juego rectangular , decimos que es una estrategia mixta del jugador

j, si para toda , y . El entero denota el número de estrategias puras del

jugador j. Intuitivamente, una estrategia mixta es un vector que asocia cierta probabilidad a cada estrategia pura del jugador j, de ahí que cada entrada tenga que ser no negativa y la suma de todas ellas sea 1.

En una estrategia mixta del jugador j, se interpreta como el peso o probabilidad que el jugador j le asocia a su estrategia pura . La letra denotará al conjunto de estrategias mixtas del jugador j y M al producto cartesiano de los conjuntos . A cada elemento de M lo llamaremos un perfil de estrategias mixtas.

Equilibrios en estrategias puras Dado un juego rectangular , se dice que es un equilibrio de Nash en estrategias puras (ep) si para cada jugador en N se cumple:

y donde representa el pago para el jugador j cuando éste decide cambiar su estrategia por cualquier otra , mientras que los demás jugadores mantienen la estrategia dada por el perfil σ.

Equilibrios en estrategias mixtas Decimos que un perfil de estrategias mixtas X es un equilibrio de Nash en estrategias mixtas (em) si para cada jugador j∈N se cumple:

Donde es el pago esperado (o pago promedio) que obtendrá el jugador j al jugarse siempre el perfil de estrategias mixtas X. Intuitivamente, un perfil de estrategias mixtas es equilibrio de Nash si, en promedio, ningún jugador puede mejorar su pago cambiando sus estrategias mixtas cuando el resto de los jugadores se mantenga con la estrategia actual. Equilibrio de Nash 221

Equilibrios de Nash para juegos extensivos A menudo no es posible modelar un problema de la teoría de juegos a través de un juego rectangular y se hace necesario modelarlo como un juego extensivo. En estos casos pueden buscarse los equilibrios de Nash a través de la forma normal del juego o usando diversos algoritmos en el juego extensivo, como la inducción hacia atrás.

Ocurrencia En la definición informal de equilibrios de Nash como estrategias estables que los jugadores terminan eligiendo hay fuertes supuestos de racionalidad. A menudo se pasa por alto el hecho de que en un juego los equilibrios de Nash se adoptarán solo bajo ciertas condiciones: 1. Todos los jugadores buscan maximizar su pago esperado de acuerdo a los pagos que describen el juego. 2. Los jugadores ejecutan sus estrategias sin errores. 3. Los jugadores tienen inteligencia suficiente para deducir sus propios equilibrios y los de los demás. 4. Los jugadores suponen que el hecho de cambiar su propia estrategia no provocará desviaciones en las estrategias de otros. 5. Existe un conocimiento común tanto de las reglas como de los supuestos de racionalidad. De este modo, el incumplimiento de alguna de las condiciones puede llevar a desviaciones que resulten en estrategias distintas a los equilibrios de Nash: 1. La primera condición no se cumple si el juego no representa correctamente los pagos. Así, el dilema del prisionero no es tal si uno de los jugadores, contrario a toda racionalidad, busca quedarse el mayor tiempo posible en prisión. 2. Puede acontecer que a la hora de elegir una estrategia los jugadores se vean imposibilitados a llevarla a cabo en su realización. Así, la segunda condición pide que un jugador sea capaz de implementar su estrategia una vez que ha elegido su plan de acción. 3. Incluso en personas racionales e inteligentes existen juegos que, debido al poder de cómputo necesario para calcular sus equilibrios, se ven imposibilitadas a saber qué estrategia deberían seguir. Así, el juego del ajedrez no puede ser abordado para encontrar soluciones al juego y debido a esto los jugadores tienen que recurrir al ingenio para intentar vencer al oponente. 4. En muchas ocasiones los jugadores no saben exactamente las verdaderas reglas del juego y tienen que deducirlas de la experiencia, en cuyo caso incluso siendo racionales pueden deducir equilibrios que no corresponden completamente a los equilibrios reales.

Pruebas de existencia Muchos juegos no tienen equilibrios en estrategias puras, ni siquiera los más sencillos, como por ejemplo el juego de piedra, papel o tijeras. En estrategias mixtas sin embargo se puede asegurar que siempre existen equilibrios. Fue Nash quien demostró que cualquier juego rectangular finito tiene al menos un equilibrio de Nash en estrategias mixtas (em). Inicialmente Nash se basa en la correspondencia de mejor respuesta y el teorema del punto fijo de Kakutani; posteriormente, en su tesis de doctorado dio una nueva demostración basada en la función de reajuste de Nash y el teorema del punto fijo de Brouwer; sin embargo ambas pruebas son de existencia y no constructivas, es decir, aseguran la existencia de equilibrios de Nash, pero no muestran como calcularlos. Fue a finales de los años sesenta que surgieron algoritmos (gracias al trabajo de matemáticos y economistas como Herbert Scarf, Carlton Lemke y Emanuel Sperner) que permitían calcular eficientemente puntos fijos: el algoritmo de Scarf y el lema de Sperner son los dos resultados más importantes que permitieron la prueba constructiva de existencia de equilibrios de Nash (cabe destacar que ambos resultados son generales y han encontrado una amplia gama de aplicaciones además de la teoría de juegos). Equilibrio de Nash 222

Ejemplos

Juego competitivo Consideramos el siguiente juego de dos jugadores: "Los jugadores escogen simultáneamente un número entero entre cero (0) y diez (10). Los dos jugadores ganan el valor menor en dólares, pero además, si los números son distintos, el que ha escogido el mayor le debe pagar $2 al otro." Este juego tiene un único equilibrio de Nash: ambos jugadores deben escoger cero (0). Cualquier otra estrategia puede desfavorecer a un jugador si otro escoge un número menor. Si se modifica el juego de modo que los dos jugadores ganen el número escogido si ambos son iguales, y de otro modo no ganen nada, hay 11 equilibrios de Nash distintos.

Juego de coordinación Este juego es un juego de coordinación al conducir. Las opciones son: o conducir por la derecha o conducir por la izquierda: 100 significa que no se produce un choque y 0 significa que sí. El primer número en cada celda indica la ganancia del primer jugador (cuyas opciones se muestran a la izquierda) y el segundo la ganancia del segundo jugador (cuyas opciones se muestran encima).

Conducir por la izquierda: Conducir por la derecha:

Conducir por la izquierda: 100,100 0,0

Conducir por la derecha: 0,0 100,100

En este caso hay dos equilibrios de Nash con estrategias puras, cuando ambos conducen por la derecha o ambos conducen por la izquierda. Esto ayuda a explicar por qué en casi todo el mundo se conduce por el mismo lado (a la derecha) y como en Inglaterra, al ser una isla y no empeorar su pago por no coordinarse con los demás países, se mantuvo la estrategia de conducir por la izquierda.

Dilema del prisionero El dilema del prisionero tiene un equilibrio de Nash en estrategias puras: se produce cuando ambos jugadores confiesan. A pesar de ello, "ambos confiesan" es peor que "ambos cooperan", en el sentido de que el tiempo total de cárcel que deben cumplir es mayor. Sin embargo, la estrategia "ambos cooperan" es inestable, ya que un jugador puede mejorar su resultado desertando si su oponente mantiene la estrategia de cooperación. Así, "ambos cooperan" no es un equilibrio de Nash pero sí un óptimo paretiano. Una manera de llegar a ese resultado es logrando una colusión y mediante la promesa de cada jugador de "castigar" al otro si rompe el acuerdo. También podría llegarse a una solución fuera del equilibrio de Nash si el juego se repitiese infinitas veces, cuando se logra la estrategia "ojo por ojo".

La tragedia de los comunes La tragedia de los comunes es una generalización del dilema del prisionero ideada por Garrett James Hardin y publicada por primera vez en su artículo "the tragedy of the commons" (1968). En este juego existen n jugadores que hacen uso de un bien común (como por ejemplo, un terreno comunal). Aunque cada jugador puede participar en el cuidado de este bien (lo que conlleva un costo para el que lo hace), todos los jugadores tienen derecho a usarlo, lo cuiden o no. De este modo tenemos un juego n-personal donde cada jugador tiene dos estrategias: egoísta o solidario, y donde la estrategia egoísta es dominante estricta, es decir, para cualquier perfil de estrategias puras el jugador j puede mejorar su pago si elige la estrategia egoísta en lugar de la solidaria. De este modo, el juego sólo tiene un equilibrio de Nash en estrategias puras y es (egoísta, egoísta,..., egoísta) a pesar de que, como en el dilema Equilibrio de Nash 223

del prisionero, el beneficio para cada jugador termina siendo mucho menor que si todos hubieran elegido ser solidarios. Este juego ha encontrado diversas aplicaciones en la vida diaria. Consideremos por ejemplo una ciudad, con caminos libres de transito y contaminación baja como un bien común que todos debemos cuidar. Siempre existe la tentación de ser egoísta (usar automóvil particular para mejorar nuestro propio transporte por la ciudad, ignorar semáforos en rojo, etc) a pesar de que si todos siguen la misma estrategia las vialidades sufren congestionamientos extremos y surge el serio problema de la contaminación ambiental. Debido a que la ruina común es el único equilibrio de Nash, los gobiernos recurren a medidas externas para intentar cambiar los pagos por ser egoísta y llevar a nuevos equilibrios. Así el poner multas a los que no obedecen los reglamentos y encarecer el uso del transporte privado a la vez que se mejora el transporte público es una forma de conseguir que la estrategia egoísta deje de ser dominante estricta y que todas las personas puedan seguir una estrategia solidaria, es decir, como un contrato en un juego cooperativo.

Piedra, papel o tijera Consideremos el juego piedra, papel o tijera con la matriz de pagos dada por:

Piedra Papel Tijera

Piedra 0 -1 +1

Papel +1 0 -1

Tijera -1 +1 0

Supongamos que el jugador 1 juega siempre en estrategias puras, por ejemplo piedra. Entonces el jugador 2 podría sacar ventaja de ello jugando siempre papel. Una mejor respuesta del jugador 1 sería entonces jugar con estrategias mixtas, es decir, asignarle cierta probabilidad a cada estrategia y en cada jugada elegir aleatoriamente de acuerdo a la distribución elegida. Puede demostrarse que siempre que haya sesgo en estas probabilidades (es decir, cuando se le asigne más probabilidad a una estrategia que a otra), el otro jugador puede sacar ventaja de ello y mejorar su pago esperado. De éste modo, el juego sólo tiene un equilibrio de Nash y es (1/3,1/3,1/3), es decir, jugar con igual probabilidad cada estrategia (siempre y cuando se mantengan los pagos dados por la matriz).

Véase también • Teoría de juegos • Estrategia mixta • Estrategia pura

Referencias

[1] Para la definición como "equilibrio de Cournot", véase, por ejemplo: Hermides Martínez A: Teoría de juegos (página 2) (http:/ / www.

monografias. com/ trabajos41/ equilibrio-nash/ equilibrio-nash2. shtml) sección “Equilibrio Nash y óptimo.” [2] Para la definición como "equilibrio de Cournot y Nash", véase, por ejemplo: Elvio Accinelli, Edgard Carrera (2006) : Unicidad del equilibrio

de Nash-Cournot con correspondencias de mejor respuesta contractivas (http:/ / decon. edu. uy/ publica/ 2006/ 1506. pdf) [3] Un concepto de solución es una regla formal que predice las estrategias que los participantes adoptarán a fin de obtener los mejores resultados, prediciendo los resultados del juego. Equilibrio de Nash 224

Bibliografía • H.S. Bierman, L. Fernández, "Game Theory with Economic Applications", Addison-Wesley, 1993. • K. Binmore, "Teoría de Juegos", McGraw-Hill, 1994. • R. Gibbons, "Un Primer Curso de Teoría de Juegos", Antoni Bosh, 1996. • Oskar Morgenstern y John von Neumann, "Theory of Games and Economic Behavior" Princeton University Press, 1947. • Zapata L. Paloma, "Economía, Política y Otros Juegos: Una Introducción a los Juegos No Cooperativos", las prensas de ciencias, 2007.

Enlaces externos

• Tesis doctoral de Nash (http:/ / www. princeton. edu/ mudd/ news/ faq/ topics/ Non-Cooperative_Games_Nash. pdf)

• Prueba de existencia de equilibrios de Nash (em) (https:/ / wiki. cc. gatech. edu/ theory/ index. php/ Nash_equilibrium)

Teoría de juegos

La teoría de juegos es un área de la matemática aplicada que utiliza modelos para estudiar interacciones en estructuras formalizadas de incentivos (los llamados «juegos») y llevar a cabo procesos de decisión. Sus investigadores estudian las estrategias óptimas así como el comportamiento previsto y observado de individuos en juegos. Tipos de interacción aparentemente distintos pueden, en realidad, presentar estructura de incentivo similar y, por lo tanto, se puede representar mil veces conjuntamente un mismo juego. Desarrollada en sus comienzos como una herramienta para entender el comportamiento de la economía, la teoría de juegos se usa actualmente en muchos campos, como en la biología, sociología, psicología y filosofía. Experimentó un crecimiento sustancial y se formalizó por primera vez a partir de los trabajos de John von Neumann y Oskar Morgenstern, antes y durante la Guerra Fría, debido sobre todo a su aplicación a la estrategia militar, en particular a causa del concepto de destrucción mutua garantizada. Desde los setenta, la teoría de juegos se ha aplicado a la conducta animal, incluyendo el desarrollo de las especies por la selección natural. A raíz de juegos como el dilema del prisionero, en los que el egoísmo generalizado perjudica a los jugadores, la teoría de juegos ha atraído también la atención de los investigadores en informática, usándose en inteligencia artificial y cibernética. Aunque tiene algunos puntos en común con la teoría de la decisión, la teoría de juegos estudia decisiones realizadas en entornos donde interaccionan. En otras palabras, estudia la elección de la conducta óptima cuando los costes y los beneficios de cada opción no están fijados de antemano, sino que dependen de las elecciones de otros individuos. Un ejemplo muy conocido de la aplicación de la teoría de juegos a la vida real es el dilema del prisionero, popularizado por el matemático Albert W. Tucker, el cual tiene muchas implicaciones para comprender la naturaleza de la cooperación humana. La teoría psicológica de juegos, que se arraiga en la escuela psicoanalítica del análisis transaccional, es enteramente distinta. Los analistas de juegos utilizan asiduamente otras áreas de la matemática, en particular las probabilidades, las estadísticas y la programación lineal, en conjunto con la teoría de juegos. Además de su interés académico, la teoría de juegos ha recibido la atención de la cultura popular. La vida del matemático teórico John Forbes Nash, desarrollador del Equilibrio de Nash y que recibió un premio Nobel, fue el tema de la biografía escrita por Sylvia Nasar, Una mente maravillosa (1998), y de la película del mismo nombre (2001). Varios programas de televisión han explorado situaciones de teoría de juegos, como el concurso de la televisión de Cataluña (TV3) Sis a traïció (Seis a traición), el programa de la televisión estadounidense Friend or foe? (¿Amigo o enemigo?) y, hasta cierto punto, el concurso Supervivientes.[1] Teoría de juegos 225

Representación de juegos Los juegos estudiados por la teoría de juegos están bien definidos por objetos matemáticos. Un juego consiste en un conjunto de jugadores, un conjunto de movimientos (o estrategias) disponible para esos jugadores y una especificación de recompensas para cada combinación de estrategias. Hay dos formas comunes de representar a los juegos.

Forma normal de un juego

Un juego en forma normal

El jugador 2 elige izquierda El jugador 2 elige derecha El jugador 1 elige arriba 4, 3 -1, -1 El jugador 1 elige abajo 0, 0 3, 4

La forma normal (o forma estratégica) de un juego es una matriz de pagos, que muestra los jugadores, las estrategias, y las recompensas (ver el ejemplo a la derecha). Hay dos tipos de jugadores; uno elige la fila y otro la columna. Cada jugador tiene dos estrategias, que están especificadas por el número de filas y el número de columnas. Las recompensas se especifican en el interior. El primer número es la recompensa recibida por el jugador de las filas (el Jugador 1 en nuestro ejemplo); el segundo es la recompensa del jugador de las columnas (el Jugador 2 en nuestro ejemplo). Si el jugador 1 elige arriba y el jugador 2 elige izquierda entonces sus recompensas son 4 y 3, respectivamente. Cuando un juego se presenta en forma normal, se presupone que todos los jugadores actúan simultáneamente o, al menos, sin saber la elección que toma el otro. Si los jugadores tienen alguna información acerca de las elecciones de otros jugadores el juego se presenta habitualmente en la forma extensiva. También existe una forma normal reducida. Ésta combina estrategias asociadas con el mismo pago.

Forma extensiva de un juego

La representación de juegos en forma extensiva modela juegos con algún orden que se debe considerar. Los juegos se presentan como árboles (como se muestra a la derecha). Cada vértice o nodo representa un punto donde el jugador toma decisiones. El jugador se especifica por un número situado junto al vértice. Las líneas que parten del vértice representan acciones posibles para el jugador. Las recompensas se

especifican en las hojas del árbol. Un juego en forma extensiva. En el juego que se muestra en el ejemplo hay dos jugadores. El jugador 1 mueve primero y elige F o U. El jugador 2 ve el movimiento del jugador 1 y elige A o R. Si el jugador 1 elige U y entonces el jugador 2 elige A, entonces el jugador 1 obtiene 8 y el jugador 2 obtiene 2. Los juegos en forma extensiva pueden modelar también juegos de movimientos simultáneos. En esos casos se dibuja una línea punteada o un círculo alrededor de dos vértices diferentes para representarlos como parte del mismo conjunto de información (por ejemplo, cuando los jugadores no saben en qué punto se encuentran). La forma normal da al matemático una notación sencilla para el estudio de los problemas de equilibrio, porque desestima la cuestión de cómo las estrategias son calculadas o, en otras palabras, de cómo el juego es jugado en realidad. La notación conveniente para tratar estas cuestiones, más relevantes para la teoría combinatoria de juegos, Teoría de juegos 226

es la forma extensiva del juego.

Tipos de juegos y ejemplos La teoría clasifica los juegos en muchas categorías que determinan qué métodos particulares se pueden aplicar para resolverlos (y, de hecho, también cómo se define "resolución" en una categoría particular). Las categorías comunes incluyen:

Juegos simétricos y asimétricos

Un juego asimétrico

E F E 1, 2 0, 0 F 0, 0 1, 2

Un juego simétrico es un juego en el que las recompensas por jugar una estrategia en particular dependen sólo de las estrategias que empleen los otros jugadores y no de quien las juegue. Si las identidades de los jugadores pueden cambiarse sin que cambien las recompensas de las estrategias, entonces el juego es simétrico. Muchos de los juegos 2×2 más estudiados son simétricos. Las representaciones estándar del juego de la gallina, el dilema del prisionero y la caza del ciervo son juegos simétricos.[2] Los juegos asimétricos más estudiados son los juegos donde no hay conjuntos de estrategias idénticas para ambos jugadores. Por ejemplo, el juego del ultimátum y el juego del dictador tienen diferentes estrategias para cada jugador; no obstante, puede haber juegos asimétricos con estrategias idénticas para cada jugador. Por ejemplo, el juego mostrado a la derecha es asimétrico a pesar de tener conjuntos de estrategias idénticos para ambos jugadores.

Juegos de suma cero y de suma no cero

Un juego de suma cero

A B C 1 30, -30 -10, 10 20, -20 2 10, -10 20, -20 -20, 20

En los juegos de suma cero el beneficio total para todos los jugadores del juego, en cada combinación de estrategias, siempre suma cero (en otras palabras, un jugador se beneficia solamente a expensas de otros). El go, el ajedrez, el póker y el juego del oso son ejemplos de juegos de suma cero, porque se gana exactamente la cantidad que pierde el oponente. Como curiosidad, el fútbol dejó hace unos años de ser de suma cero, pues las victorias reportaban 2 puntos y el empate 1 (considérese que ambos equipos parten inicialmente con 1 punto), mientras que en la actualidad las victorias reportan 3 puntos y el empate 1. La mayoría de los ejemplos reales en negocios y política, al igual que el dilema del prisionero, son juegos de suma no cero, porque algunos desenlaces tienen resultados netos mayores o menores que cero. Es decir, la ganancia de un jugador no necesariamente se corresponde con la pérdida de otro. Por ejemplo, un contrato de negocios involucra idealmente un desenlace de suma positiva, donde cada oponente termina en una posición mejor que la que tendría si no se hubiera dado la negociación. Se puede analizar más fácilmente un juego de suma cero, y cualquier juego se puede transformar en un juego de suma cero añadiendo un jugador "ficticio" adicional ("el tablero" o "la banca"), cuyas pérdidas compensen las Teoría de juegos 227

ganancias netas de los jugadores. La matriz de pagos de un juego es una forma conveniente de representación. Por ejemplo, un juego de suma cero de dos jugadores con la matriz que se muestra a la derecha.

Criterios «maximin» y «minimax» Los criterios «maximin» y «minimax» establecen que cada jugador debe minimizar su pérdida máxima: • Criterio «maximin»: el jugador A, elige que su pago mínimo posible sea el mayor. • Criterio «minimax»: el jugador B elige que el pago máximo a A sea el menor posible.

Equilibrio de Nash. Los equilibrios de las estrategias dominantes están muy bien cuando aparecen en los juegos, pero desafortunadamente, eso no ocurre con frecuencia. Un par de estrategias es un equilibrio de Nash si la elección del jugador A es óptima, dada elección de B, y la de B es óptima, dada la de A. El equilibrio de Nash puede interpretarse como un par de expectativas sobre la elección de cada persona tal que, cuando la otra revela su elección, ninguna de las dos quiere cambiar de conducta.

Juegos cooperativos Un juego cooperativo se caracteriza por un contrato que puede hacerse cumplir. La teoría de los juegos cooperativos da justificaciones de contratos plausibles. La plausibilidad de un contrato está muy relacionada con la estabilidad. Dos jugadores negocian tanto quieren invertir en un contrato. La teoría de la negociación axiomática nos muestra cuánta inversión es conveniente para nosotros. Por ejemplo, la solución de Nash para la negociación demanda que la inversión sea justa y eficiente. De cualquier forma, podríamos no estar interesados en la justicia y exigir más. De hecho, existe un juego no-cooperativo creado por Ariel Rubinstein consistente en alternar ofertas, que apoya la solución de Nash considerándola la mejor, mediante el llamado equilibrio de Nash.

Simultáneos y secuenciales Los juegos simultáneos son juegos en los que los jugadores mueven simultáneamente o en los que éstos desconocen los movimientos anteriores de otros jugadores. Los juegos secuenciales (o dinámicos) son juegos en los que los jugadores posteriores tienen algún conocimiento de las acciones previas. Este conocimiento no necesariamente tiene que ser perfecto; sólo debe consistir en algo de información. Por ejemplo, un jugador1 puede conocer que un jugador2 no realizó una acción determinada, pero no saber cuál de las otras acciones disponibles eligió. La diferencia entre juegos simultáneos y secuenciales se recoge en las representaciones discutidas previamente. La forma normal se usa para representar juegos simultáneos, y la extensiva para representar juegos secuenciales. Teoría de juegos 228

Juegos de información perfecta

Un subconjunto importante de los juegos secuenciales es el conjunto de los juegos de información perfecta. Un juego es de información perfecta si todos los jugadores conocen los movimientos que han efectuado previamente todos los otros jugadores; así que sólo los juegos secuenciales pueden ser juegos de información perfecta, pues en los juegos simultáneos no todos los jugadores (a menudo ninguno) conocen las acciones Un juego de información imperfecta (las líneas punteadas representan la ignorancia de la parte del jugador 2). del resto. La mayoría de los juegos estudiados en la teoría de juegos son juegos de información imperfecta, aunque algunos juegos interesantes son de información perfecta, incluyendo el juego del ultimátum y el juego del ciempiés. También muchos juegos populares son de información perfecta, incluyendo el ajedrez y el go.

La información perfecta se confunde a menudo con la información completa, que es un concepto similar. La información completa requiere que cada jugador conozca las estrategias y recompensas del resto pero no necesariamente las acciones. En los juegos de información completa cada jugador tiene la misma "información relevante al juego" que los demás jugadores. El ajedrez y el dilema del prisionero ejemplifican juegos de información completa. Los juegos de información completa ocurren raramente en el mundo real, y los teóricos de los juegos, usualmente los ven sólo como aproximaciones al juego realmente jugado. John Conway desarrolló una notación para algunos juegos de información completa y definió varias operaciones en esos juegos, originalmente para estudiar los finales de go, aunque buena parte de este análisis se enfocó en nim. Esto devino en la teoría de juegos combinatoria. Descubrió que existe una subclase de esos juegos que pueden ser usados como números, como describió en su libro On Numbers and Games, llegando a la clase muy general de los números surreales.

Juegos de longitud infinita (SuperJuegos) Por razones obvias, los juegos estudiados por los economistas y los juegos del mundo real finalizan generalmente tras un número finito de movimientos. Los juegos matemáticos puros no tienen estas restricciones y la teoría de conjuntos estudia juegos de infinitos movimientos, donde el ganador no se conoce hasta que todos los movimientos se conozcan. El interés en dicha situación no suele ser decidir cuál es la mejor manera de jugar a un juego, sino simplemente qué jugador tiene una estrategia ganadora (Se puede probar, usando el axioma de elección, que hay juegos —incluso de información perfecta, y donde las únicas recompensas son "perder" y "ganar"— para los que ningún jugador tiene una estrategia ganadora.) La existencia de tales estrategias tiene consecuencias importantes en la teoría descriptiva de conjuntos Teoría de juegos 229

Aplicaciones La teoría de juegos tiene la característica de ser un área en que la sustancia subyacente es principalmente una categoría de matemáticas aplicadas, pero la mayoría de la investigación fundamental es desempeñada por especialistas en otras áreas. En algunas universidades se enseña y se investiga casi exclusivamente fuera del departamento de matemática. Esta teoría tiene aplicaciones en numerosas áreas, entre las cuales caben destacar las ciencias económicas, la biología evolutiva, la psicología, las ciencias políticas, el diseño industrial, la investigación operativa, la informática y la estrategia militar.

Economía y negocios Los economistas han usado la teoría de juegos para analizar un amplio abanico de problemas económicos, incluyendo subastas, duopolios, oligopolios, la formación de redes sociales, y sistemas de votaciones. Estas investigaciones normalmente están enfocadas a conjuntos particulares de estrategias conocidos como conceptos de solución. Estos conceptos de solución están basados normalmente en lo requerido por las normas de racionalidad perfecta. El más famoso es el equilibrio de Nash. Un conjunto de estrategias es un equilibrio de Nash si cada una representa la mejor respuesta a otras estrategias. De esta forma, si todos los jugadores están aplicando las estrategias en un equilibrio de Nash, no tienen ningún incentivo para cambiar de conducta, pues su estrategia es la mejor que pueden aplicar dadas las estrategias de los demás. Las recompensas de los juegos normalmente representan la utilidad de los jugadores individuales. A menudo las recompensas representan dinero, que se presume corresponden a la utilidad de un individuo. Esta presunción, sin embargo, puede no ser correcta. Un documento de teoría de juegos en economía empieza presentando un juego que es una abstracción de una situación económica particular. Se eligen una o más soluciones, y el autor demuestra qué conjunto de estrategias corresponden al equilibrio en el juego presentado. Los economistas y profesores de escuelas de negocios sugieren dos usos principales.

Descriptiva

El uso principal es informar acerca del comportamiento de las poblaciones humanas actuales. Algunos investigadores creen que encontrar el equilibrio de los juegos puede predecir cómo se comportarían las poblaciones humanas si se enfrentasen a situaciones análogas al juego Un juego del ciempiés de tres fases. estudiado. Esta visión particular de la teoría de juegos se ha criticado en la actualidad. En primer lugar, se la critica porque los supuestos de los teóricos se violan frecuentemente. Los teóricos de juegos pueden suponer jugadores que se comportan siempre racionalmente y actúan para maximizar sus beneficios (el modelo homo oeconomicus), pero los humanos reales a menudo actúan irracionalmente o racionalmente pero buscando el beneficio de un grupo mayor (altruismo).

Los teóricos de juegos responden comparando sus supuestos con los que se emplean en física. Así, aunque sus supuestos no se mantienen siempre, pueden tratar la teoría de juegos como una idealización razonable, de la misma forma que los modelos usados por los físicos. Sin embargo, este uso de la teoría de juegos se ha seguido criticando porque algunos experimentos han demostrado que los individuos no se comportan según estrategias de equilibrio. Por ejemplo, en el juego del ciempiés, el juego de adivinar 2/3 de la media y el juego del dictador, las personas a Teoría de juegos 230

menudo no se comportan según el equilibrio de Nash. Esta controversia se está resolviendo actualmente.[3] Por otra parte, algunos autores aducen que los equilibrios de Nash no proporcionan predicciones para las poblaciones humanas, sino que proporcionan una explicación de por qué las poblaciones que se comportan según el equilibrio de Nash permanecen en esa conducta. Sin embargo, la cuestión acerca de cuánta gente se comporta así permanece abierta. Algunos teóricos de juegos han puesto esperanzas en la teoría evolutiva de juegos para resolver esas preocupaciones. Tales modelos presuponen o no racionalidad o una racionalidad acotada en los jugadores. A pesar del nombre, la teoría evolutiva de juegos no presupone necesariamente selección natural en sentido biológico. La teoría evolutiva de juegos incluye las evoluciones biológica y cultural y también modela el aprendizaje individual.

Normativa

El dilema del prisionero

Cooperar Traicionar Cooperar 2 0 2 3 Traicionar 3 1 0 1

Por otra parte, algunos matemáticos no ven la teoría de juegos como una herramienta que predice la conducta de los seres humanos, sino como una sugerencia sobre cómo deberían comportarse. Dado que el equilibrio de Nash constituye la mejor respuesta a las acciones de otros jugadores, seguir una estrategia que es parte del equilibrio de Nash parece lo más apropiado. Sin embargo, este uso de la teoría de juegos también ha recibido críticas. En primer lugar, en algunos casos es apropiado jugar según una estrategia ajena al equilibrio si uno espera que los demás también jugarán de acuerdo al equilibrio. Por ejemplo, en el juego adivina 2/3 de la media. El dilema del prisionero presenta otro contraejemplo potencial. En este juego, si cada jugador persigue su propio beneficio ambos jugadores obtienen un resultado peor que de no haberlo hecho. Algunos matemáticos creen que esto demuestra el fallo de la teoría de juegos como una recomendación de la conducta a seguir.

Biología

Halcón-Paloma

Halcón Paloma Halcón (V-C)/2 V (V-C)/2 0 Paloma 0 V/2 V V/2

A diferencia del uso de la teoría de juegos en la economía, las recompensas de los juegos en biología se interpretan frecuentemente como adaptación. Además, su estudio se ha enfocado menos en el equilibrio que corresponde a la noción de racionalidad, centrándose en el equilibrio mantenido por las fuerzas evolutivas. El equilibrio mejor conocido en biología se conoce como estrategia evolutivamente estable, y fue introducido por primera vez por John Maynard Smith. Aunque su motivación inicial no comportaba los requisitos mentales del equilibrio de Nash, toda estrategia evolutivamente estable es un equilibrio de Nash. En biología, la teoría de juegos se emplea para entender muchos problemas diferentes. Se usó por primera vez para explicar la evolución (y estabilidad) de las proporciones de sexos 1:1 (mismo número de machos que de hembras). Teoría de juegos 231

Ronald Fisher sugirió en 1930 que la proporción 1:1 es el resultado de la acción de los individuos tratando de maximizar el número de sus nietos sujetos a la restricción de las fuerzas evolutivas. Además, los biólogos han usado la teoría de juegos evolutiva y el concepto de estrategia evolutivamente estable para explicar el surgimiento de la comunicación animal (John Maynard Smith y Harper en el año 2003). El análisis de juegos con señales y otros juegos de comunicación ha proporcionado nuevas interpretaciones acerca de la evolución de la comunicación en los animales. Finalmente, los biólogos han usado el problema halcón-paloma (también conocido como problema de la gallina) para analizar la conducta combativa y la territorialidad.

Informática y lógica La teoría de juegos ha empezado a desempeñar un papel importante en la lógica y la informática. Muchas teorías lógicas se asientan en la semántica de juegos. Además, los investigadores de informática han usado juegos para modelar programas que interactúan entre sí.

Ciencia política La investigación en ciencia política también ha usado resultados de la teoría de juegos. Una explicación de la teoría de la paz democrática es que el debate público y abierto en la democracia envía información clara y fiable acerca de las intenciones de los gobiernos hacia otros estados. Por otra parte, es difícil conocer los intereses de los líderes no democráticos, qué privilegios otorgarán y qué promesas mantendrán. Según este razonamiento, habrá desconfianza y poca cooperación si al menos uno de los participantes de una disputa no es una democracia. [4]

Filosofía La teoría de juegos ha demostrado tener muchos usos en filosofía. A partir de dos trabajos de W.V.O. Quine publicados en 1960 y 1967, David Lewis (1969) usó la teoría de juegos para desarrollar el concepto filosófico de convención. De esta forma, proporcionó el primer análisis del conocimiento común y lo empleó en analizar juegos de coordinación. Además, fue el primero en sugerir que se podía entender el significado en términos de juegos de señales. Esta sugerencia se ha seguido por muchos filósofos desde el trabajo de Lewis.[5] Leon Henkin, Paul Lorenzen y Jaakko Hintikka iniciaron una aproximación a la semántica de los lenguajes formales que explica con conceptos de teoría de juegos los conceptos de verdad lógica, validez y similares. En esta aproximación los "jugadores" compiten proponiendo cuantificaciones e instancias de oraciones abiertas; las reglas del juego son las reglas de interpretación de las sentencias en un modelo, y las estrategias de cada jugador tienen propiedades de las que trata la teoría semántica (ser dominante si y sólo si las oraciones con que se juega cumplen determinadas condiciones, etc.).

La caza del ciervo

Ciervo Liebre Ciervo 3, 3 0, 2 Liebre 2, 0 2, 2

En ética, algunos autores han intentado continuar la idea de Thomas Hobbes de derivar la moral del interés personal. Dado que juegos como el dilema del prisionero presentan un conflicto aparente entre la moralidad y el interés personal, explicar por qué la cooperación es necesaria para el interés personal es una componente importante de este proyecto. Esta estrategia general es un componente de la idea de contrato social en filosofía política (ejemplos en Gauthier 1987 y Kavka 1986).[6] Teoría de juegos 232

Finalmente, otros autores han intentado usar la teoría evolutiva de juegos para explicar el nacimiento de las actitudes humanas ante la moralidad y las conductas animales correspondientes. Estos autores han buscado ejemplos en muchos juegos, incluyendo el dilema del prisionero, la caza del ciervo, y el juego del trato de Nash para explicar la razón del surgimiento de las actitudes acerca de la moral (véase Skyrms 1996, 2004; Sober y Wilson 1999).

Historia de la teoría de juegos

Cronología[7]

Año Acontecimiento

1713 James Waldegrave da la primera demostración matemática para un caso de dos jugadores.

1838 Antoine Augustin Cournot publica una solución teórica al caso de dos jugadores.

1928 John von Neumann presenta un a serie de artículos sobre el tema.

1944 John von Neumann junto con Oskar Morgenstern publican Theory of Games and Economic Behavior.

1950 Albert W. Tucker planteó formalmente "dilema del prisionero", fundamental en la teoría de juegos. John Forbes Nash, bajo la dirección de Albert W. Tucker, se doctora con una tesis sobre juegos no cooperativos, que incluye lo que más tarde se denominó como el equilibrio de Nash.

1965 Reinhard Selten introdujo su concepto de solución de los equilibrios perfectos del subjuego, que más adelante refinó el equilibrio de Nash.

1967 John Harsanyi desarrolló los conceptos de la información completa y de los juegos bayesianos.

1982 En biología John Maynard Smith introduce el concepto de estrategia evolutivamente estable.

1994 John Harsanyi, John Nash y Reinhard Selten ganan el Premio Nobel de Economía.

La primera discusión conocida de la teoría de juegos aparece en una carta escrita por James Waldegrave en 1713. En esta carta, Waldegrave proporciona una solución mínima de estrategia mixta a una versión para dos personas del juego de cartas le Her. Sin embargo no se publicó un análisis teórico de teoría de juegos en general hasta la publicación de Recherches sur les príncipes mathématiques de la théorie des richesses, de Antoine Augustin Cournot en 1838. En este trabajo, Cournot considera un duopolio y presenta una solución que es una versión restringida del equilibrio de Nash. Aunque el análisis de Cournot es más general que el de Waldegrave, la teoría de juegos realmente no existió como campo de estudio aparte hasta que John von Neumann publicó una serie de artículos en 1928. Estos resultados fueron ampliados más tarde en su libro de 1944, Theory of Games and Economic Behavior[8], escrito junto con Oskar Morgenstern. Este trabajo contiene un método para encontrar soluciones óptimas para juegos de suma cero de dos personas. Durante este período, el trabajo sobre teoría de juegos se centró, sobre todo, en teoría de juegos cooperativos. Este tipo de teoría de juegos analiza las estrategias óptimas para grupos de individuos, asumiendo que pueden establecer acuerdos entre sí acerca de las estrategias más apropiadas. En 1950 Albert W. Tucker planteó formalmente las primeras discusiones del dilema del prisionero, y se emprendió un experimento acerca de este juego en la corporación RAND. En ese año John Nash desarrolló una definición de una estrategia óptima para juegos de múltiples jugadores donde el óptimo no se había definido previamente, conocido como equilibrio de Nash, bajo la supervisión del mencionado Tucker. Este equilibrio es suficientemente Teoría de juegos 233

general, permitiendo el análisis de juegos no cooperativos además de los juegos cooperativos. La teoría de juegos experimentó una notable actividad en la década de 1950, momento en el cual los conceptos base, el juego de forma extensiva, el juego ficticio, los juegos repetitivos, y el valor de Shapley fueron desarrollados. Además, en ese tiempo, aparecieron las primeras aplicaciones de la teoría de juegos en la filosofía y las ciencias políticas. En 1965, Reinhard Selten introdujo su concepto de solución de los equilibrios perfectos del subjuego, que más adelante refinó el equilibrio de Nash. En 1967 John Harsanyi desarrolló los conceptos de la información completa y de los juegos bayesianos. Él, junto con John Nash y Reinhard Selten, ganaron el Premio Nobel de Economía en 1994. En la década de 1970 la teoría de juegos se aplicó extensamente a la biología, en gran parte como resultado del trabajo de John Maynard Smith y su concepto estrategia estable evolutiva. Además, los conceptos del equilibrio correlacionado, la perfección del temblor de la mano, y del conocimiento común fueron introducidos y analizados.[9] En 2005, los teóricos de juegos Thomas Schelling y Robert Aumann ganaron el premio Nobel de Economía. Schelling trabajó en modelos dinámicos, los primeros ejemplos de la teoría de juegos evolutiva. Por su parte, Aumann contribuyó más a la escuela del equilibrio. En el 2007, Roger Myerson, junto con Leonid Hurwicz y Eric Maskin, recibieron el premio Nobel de Economía por "sentar las bases de la teoría de diseño de mecanismos."

Véase también • Teoría de los juegos de rol

Bibliografía Referencias generales • Bierman, H. S. y L. Fernández, Game Theory with economic applications, Addison-Wesley, 1998. • Davis, M. D. (1971): Introducción a la teoría de juegos. Alianza Editorial, 1ª edición. • Fudenberg, Drew y Jean Tirole: Game Theory, MIT Press, 1991, ISBN 0262061414 • Gardner, R. (1996): Juegos para empresarios y economistas. Antoni Bosh editores, 1ª edición. • Gibbons, Robert (1992): Game Theory for Applied Economists, Princeton University Press ISBN 0691003955. También publicado en Londres por Harvester Wheatsheaf (Londres) con el título A primer in game theory. • Gibbons, R. (1993): Un primer curso de teoría de juegos. Antoni Bosch editores, 1ª edición. • Ginits, Herbert (2000): Game Theory Evolving. Princeton University Press, ISBN 0691009430 • Osborne, Martin y Ariel Rubinstein: A Course in Game Theory, MIT Press, 1994, ISBN 0-262-65040-1 • Rasmusen, Erik: Games and information, 4ª edición, Blackwell, 2006. Disponible en Internet [10]. • William Poundstone: El Dilema del Prisionero, Alianza Editorial, 2005. • Cano, Mauricio, Mena L., Carlos y Sadka, Joyce (2009): "Teoría de Juegos y Derecho Contemporáneo; Temas Selectos", ITAM, George Mason University y Porrúa. ISBN 978-607-9-00031-8 • Hillier, Frederick S. Introducción a la investigación de operaciones. México, D.F. : McGraw-Hill, c2010. Lecturas adicionales • Binmore, K. (1994): Teoría de juegos. Editorial McGraw-Hill, 1ª edición. • Friedman, J.W. (1991): Teoría de juegos con aplicaciones a la economía. Editorial Alianza Universidad. • Kreps, D.M. (1994): Teoría de juegos y modelación económica. Fondo de Cultura Económica, 1º Edición. • Tirole, J. (1990): La teoría de la organización industrial. Editorial Ariel, 1ª edición. Textos de importancia histórica • Fisher, Ronald (1930) The Genetical Theory of Natural Selection. Clarendon Press, Oxford. Teoría de juegos 234

• Luce, Duncan y Howard Raiffa Games and Decisions: Introduction and Critical Survey. Dover, ISBN 0486659437 • Maynard Smith, John: Evolution and the Theory of Games, Cambridge University Press, 1982. • Morgenstern, Oskar y John von Neumann (1947): Theory of Games and Economic Behavior. Princeton University Press. • Nash, John (1950) "Equilibrium points in n-person games" Proceedings of the National Academy of the USA 36(1):48-49. • Poundstone, William Prisoner's Dilemma: John von Neumann, Game Theory and the Puzzle of the Bomb, ISBN 038541580X

Notas

[1] GameTheory.net (http:/ / www. gametheory. net) Tiene una extensa lista de referencias a la teoría de juegos en la cultura

popular (http:/ / www. gametheory. net/ popular/ ). [2] Algunos estudiosos consideran ciertos juegos asimétricos como ejemplos deste tipo de juegos. Sin embargo, las recompensas más habituales para todos estos juegos son simétricas. [3] El trabajo experimental en teoría de juegos recibe muchos nombres, economía experimental, economía conductista y teoría conductista de juegos. Para discusiones recientes en este campo véase Camer 2003.

[4] http:/ / papers. ssrn. com/ sol3/ papers. cfm?abstract_id=433844 [5] Skyrms 1996, Grim et al. 2004 [6] Para una discusión detallada del uso de la teoría de juegos en ética véase la entrada de la Stanford Encyclopedia of

Philosophy teoría de juegos y ética (http:/ / plato. stanford. edu/ entries/ game-ethics/ ). [7] Tony Crilly (2011). 50 cosas que hay que saber sobre matemáticas. Ed. Ariel. ISBN 978-987-1496-09-9. [8] Teoría de juegos y del comportamiento económico [9] Aunque el conocimiento común fue discutido por primera vez por el filósofo David Lewis en su disertación Convention a finales de la década de 1960, no se estudió con detenimiento por los economistas hasta el trabajo de Robert Aumann, en 1970.

[10] http:/ / www. rasmusen. org/ GI/ index. html

Enlaces externos

• Wikimedia Commons alberga contenido multimedia sobre Teoría de juegos. Commons En español:

• Introducción a la teoría de juegos (http:/ / www. eumed. net/ cursecon/ juegos/ index. htm), Eumed.net

• Literatura sobre teoría de juegos (http:/ / www. uned. es/ personal/ rosuna/ resources/ theoryofgames. htm), Rubén Osuna

• "La teoría de los juegos y el origen de las instituciones" (http:/ / www. eseade. edu. ar/ servicios/ Libertas/

13_6_Krause. pdf), Martín Krause, RIIM/ESEADE

• Sencilla introducción a la teoría de juegos (http:/ / raulbajo. blogspot. com/ 2009/ 07/

introduccion-la-teoria-de-juegos. html), Raúl Bajo En inglés:

• "Game Theory" (http:/ / plato. stanford. edu/ entries/ game-theory/ ), Wilfrid Hodges, Stanford Encyclopedia of Philosophy

• "A framework for the unification of the behavioral sciences" (http:/ / www. umass. edu/ preferen/ gintis/

Unity-BBS Print Version. pdf), Herbert Gintis, Behavioral and Brain Sciences (2007) 30:1-61

• Game Theory, Experimental Economics, and Market Design Page (http:/ / www. economics. harvard. edu/ ~aroth/

alroth. html), Alvin Roth

• A Chronology of Game Theory (http:/ / www. econ. canterbury. ac. nz/ personal_pages/ paul_walker/ gt/ hist. htm), Paul Walker

• GameTheory.net: A resource for educators and students of game theory (http:/ / www. gametheory. net), Mike Shor Teoría de juegos 235

• Introduction to Game Theory. Lecture by Benjamin Polak (http:/ / www. academicearth. org/ lectures/ introduction-to-game-theory)

Estrategia de las armas nucleares

La estrategia de las armas nucleares o Destrucción Mutua Asegurada es el conjunto de conceptos y estrategias ideadas bien para evitar la utilización de este tipo de armas o bien para obtener una hipotética ventaja en caso de guerra nuclear y alcanzar beneficios políticos o militares mediante la utilización de armas nucleares. Frente a la idea generalizada, compartida por el público y por numerosos especialistas, de que la única guerra nuclear posible es la guerra nuclear total y que esta implicaría el fin del mundo, los estados mayores de las principales potencias nucleares, teorizan con diferentes estrategias, para vencer en un conflicto de estas características o al menos quedar en una posición ventajosa sin desembocar en un conflicto nuclear total.

La disuasión nuclear La disuasión nuclear es un fenómeno psicológico y defensivo basado en la existencia de las armas nucleares y que descansa sobre las apreciaciones subjetivas de las intenciones. Es el eje sobre el que gira la estrategia general de las armas nucleares. La estrategia de la disuasión nuclear podría definirse como aquella que pretende renunciar a la guerra nuclear y hacer imposible ésta. Se basa en que un número limitado de armas nucleares puede originar daños intolerables capaces de disuadir a un agresor potencial. Trata de alcanzar el objetivo político, no mediante la victoria militar, sino por la acción indirecta, gracias a la paralización nuclear del adversario, es decir, gracias a la disuasión a la que se le somete. Realmente la disuasión nuclear ha funcionado hasta nuestros días, ya que ninguna potencia se ha atrevido a utilizar su arsenal nuclear contra otra, temiendo una respuesta nuclear que causaría daños realmente graves y que no compensarían el ataque. Los fundamentos de la disuasión nuclear se desarrollan finalizada la Segunda Guerra Mundial, que fue cuando surgieron los primeros conceptos de la guerra nuclear.

Estrategia de Contención Es la primera de las estrategias adoptada para la utilización de armamento nuclear. Se trata de un concepto sobre el que se basó la estrategia norteamericana desde 1946 hasta 1954 aproximadamente. Debido a la creciente expansión de la URSS, pretendía detener una posible agresión soviética con armas convencionales, recurriendo a las armas nucleares como medio para neutralizar esta agresión. Esta estrategia se mantuvo operativa mientras la URSS no dispuso de arsenal nuclear. Posteriormente hubo de ser modificada para adaptarla a escenarios con nuevas potencias nucleares. La disuasión comenzó a perfilarse como única estrategia válida. Estrategia de las armas nucleares 236

Estrategia de Disuasión Máxima (del Todo o de la Nada) Este es un concepto ligado a la estrategia de las represalias masivas. Trata de disuadir al adversario, haciéndole saber que ante un ataque mínimo y limitado, convencional o nuclear, se le contestará con una respuesta nuclear total. En ella se basó la estrategia norteamericana a partir de 1954, así como la soviética que, en 1962, propugnaba el mariscal Vasili Sokolovski.

Credibilidad Nuclear

Es la base sobre la que descansa la disuasión nuclear. Se mantiene por el convencimiento de que, en caso de agresión, el adversario no dudará en utilizar su armamento nuclear. Además se funda también en la certeza de que política, militar y técnicamente, las fuerzas estratégicas propias serán en cualquier caso capaces de alcanzar al agresor, incluso, después de un primer ataque. Los tres factores que caracterizan la credibilidad nuclear son: • Posibilidad técnica de alcanzar al enemigo. • Existencia de una amplia gama de armas nucleares. • Certeza o compromiso de que serán empleadas en caso necesario. Las pruebas nucleares se realizan, entre otras razones, para demostrar que un país es capaz técnicamente de desplegar Estrategia Contrafuerza armamento nuclear. En la imagen una prueba realizada por Estados Unidos en el Pacífico. Estrategia específica dentro de la estrategia de la disuasión, que trata de disponer de los medios nucleares necesarios llamados Fuerzas de Primer Ataque o First Strike, para destruir o reducir a límites tolerables la capacidad de respuesta o represalia del enemigo, es decir, las Fuerzas de Segundo Ataque o Second Strike.

Estrategia Contravalor Tiene la finalidad de destruir los núcleos urbanos y los recursos del adversario y descansa en la existencia de las Fuerzas de Segundo Ataque, que son las que llevan a cabo una respuesta cuando se ha sufrido un primer ataque nuclear conducido por el enemigo. En realidad, son las fuerzas nucleares residuales que han sobrevivido a aquel ataque y que se lanzan en represalia.

Concepto de Tríada La Tríada surge en los EE. UU. a finales de los años 50 gracias al continuo desarrollo de sistemas de armas y de nuevas tecnologías. Poco a poco se transforma en una verdadera filosofía que pretende contrarrestar la estrategia contrafuerza y se basa en un triangulo letal: • Misiles Balísticos Intercontinentales. • Submarinos nucleares. • Bombarderos de largo alcance. Lo que consigue evitar la Tríada es la destrucción del arsenal nuclear en un primer ataque enemigo gracias a la diversificación y a la dispersión de este arsenal. Los ICBM's son muy eficaces por su gran disponibilidad -pueden ser disparados en un cortísimo espacio de tiempo- pero a la vez son relativamente vulnerables porque, a pesar de estar protegidos en silos blindados, son fácilmente localizables. Estrategia de las armas nucleares 237

Los bombarderos de largo alcance, el vector de lanzamiento tradicional, tardan en situarse sobre el objetivo a pesar de tener siempre cierto número en una rotación continua en vuelo permanente. Además, son vulnerables a un ataque con interceptores o misiles tierra-aire. Los submarinos nucleares son un sistema de armas nuevo y comienzan a ser utilizado como portador de misiles nucleares SLBM. Tienen la ventaja de poder estar ocultos hasta el momento del ataque y aunque son detectables, se perfilan rápidamente como el pilar fundamental de la Tríada.

Tácticas de respuesta Ante un inminente primer ataque nuclear que pretenda eliminar una Fuerza de Segundo Ataque o Second Strike, hay dos actitudes básicas posibles de respuesta:

Lanzamiento a la Alerta También denominado LOW o Launch-on-warning, es una táctica concebida para que se libren de un primer ataque los ICBM's propios. Implica el dispararlos al recibir la señal de alerta que dan los radares avanzados o los satélites.

Lanzamiento al Ataque También llamado LOA o Launch-on-attack, se refiere a la táctica para retrasar el disparo de misiles nucleares hasta que algunas cabezas nucleares enemigas lleguen a sus objetivos. Su finalidad es evitar la posibilidad de efectuar un lanzamiento de respuesta ante una falsa alarma.

Guerra Nuclear Limitada Los estados mayores de las potencias nucleares, también disponen de estrategias con las que se pretende evitar una escalada nuclear que acabe en una guerra nuclear total. Las potencias nucleares de segundo orden como Gran Bretaña o Francia, debido a lo limitado de su arsenal, se ven obligadas en muchos casos a utilizar estas estrategias. Los conceptos de guerra nuclear limitada no son compatibles con estrategias como la de disuasión máxima y otras estrategias concebidas al comienzo de la era nuclear.

Estrategia de la Respuesta Flexible Responde a los conceptos de la respuesta graduada y pretende el responder a cada amenaza o agresión, con una respuesta proporcionada a la naturaleza de aquella, con la esperanza de dominar el proceso de escalada y conducir al adversario a contenerse o negociar. Este tipo de estrategias se desarrollaron a partir de los años 70 para ser utilizadas en organizaciones militares como la OTAN y como respuesta a escenarios muy concretos y definidos.

Guerra Nuclear Táctica Hasta ahora hemos hablado de conceptos creados para las armas nucleares estratégicas, que son todas aquellas que pretenden destruir la capacidad bélica del adversario fundamentalmente en su retaguardia. Estas armas estratégicas suelen tener largo alcance y enorme potencia destructiva. Existen una clase de armas nucleares denominadas tácticas o de teatro, que son de menor potencia y alcance que las estratégicas. También se encuentran bajo control político pero pueden ser empleadas por los mandos en apoyo directo de las fuerzas convencionales y se emplean básicamente contra los ejércitos del adversario. Por su menor potencia, rebajan el umbral crítico aumentando, a cambio, la credibilidad nuclear disuasoria. Estrategia de las armas nucleares 238

Vectores, Tríadas, potencias y sumas cero

En sí, un arma nuclear no es más que un explosivo de gran potencia, eficiencia y versatilidad con letales y prolongados efectos colaterales. Para alcanzar alguna utilidad militar, el explosivo debe ser transportado hasta su blanco mediante un medio denominado vector. Este vector suele ser un misil, un avión o un submarino, aunque algunas armas nucleares han sido equipadas en torpedos, minas e incluso obuses. La naturaleza de estos equipos viene determinada por el uso que pretenda darse al arma; por ejemplo, para realizar un ataque estratégico a gran escala contra un país Los bombarderos estratégicos son una de las tres ramas de la lejano se instalarán en misiles balísticos intercontinentales, triada, junto a los submarinos nucleares y los misiles intercontinentales. mientras que si deseamos emplearla en el campo de batalla podemos utilizar misiles de corto o medio alcance.

Esta constatación nos permite diferenciar dos conceptos esenciales, aunque no bien delimitados, de la estrategia de las armas nucleares: su utilización táctica —orientada a procurar la victoria en un campo de batalla específico delimitado geográficamente— y su utilización estratégica, concebida para desarticular los servicios esenciales de la retaguardia enemiga y debilitar o aniquilar su esfuerzo de guerra. Como es sabido, la utilización masiva de armas nucleares es un factor decisivo tanto a nivel táctico como estratégico. Bien eliminando fuerzas navales o terrestres de un solo impacto, bien aniquilando refinerías o instalaciones portuarias del enemigo, su uso puede garantizar la victoria o el empate de manera instantánea y contundente. Es esta asimetría esencial característica de las armas nucleares lo que ha transformado la historia de la guerra y de la política internacional, convirtiendo en obsoletas las tácticas y estrategias convencionales, que unida a su capacidad para aniquilar ciudades enteras en un solo ataque, han generado una mítica bien justificada tanto entre la sociedad en general como para los expertos. En consecuencia, no es difícil colegir que el primer objetivo de toda fuerza nuclear es la fuerza nuclear del enemigo. La posibilidad de degradar significativamente la capacidad de ataque atómico del oponente con un primer ataque sorpresivo ha sido acariciada una y otra vez por los estrategas de la guerra nuclear como un elemento clave para obtener ventaja en el conflicto. El temor a que fuera el enemigo quien alcanzara tal objetivo condujo rápidamente a tres reacciones que encontramos en las principales potencias nucleares: • La multiplicación del número de armas desplegadas hasta alcanzar cifras absurdas, para evitar que ese primer ataque pudiera alcanzar a la totalidad de la fuerza propia simultáneamente, • La habilitación de mecanismos de represalia instantánea que permita lanzar las propias armas antes de que lleguen las del enemigo, y • La dispersión geográfica y ocultación de las mismas. Pronto se hizo evidente que era posible desplegar armas nucleares a bordo de numerosos vehículos e instalaciones, englobados en cuatro grandes grupos: 1. Instalaciones fijas (silos) o móviles (camiones, trenes, etc) con base en tierra. 2. Buques submarinos, capaces de realizar lanzamientos desde el mar. 3. Bombarderos de distintos tipos, desplegados en diversas bases aéreas. 4. Satélites en órbita. Si bien existieron algunas armas FOBS (sistema de bombardeo orbital fraccional) para su ubicación satelitaria, lo cierto es que la inmensa mayoría de armas nucleares se hallan desplegadas en instalaciones o vehículos terrestres, submarinos y bombarderos. Esta triple multiplicación y dispersión de los medios nucleares, que imposibilita su localización y destrucción generalizada en un primer golpe asestado por sorpresa, se denomina tríada nuclear. Algunos países, como Francia o el Reino Unido, han renunciado a la "pata" terrestre de la tríada por considerarla Estrategia de las armas nucleares 239

excesivamente vulnerable y concentran sus esfuerzos en los aviones y submarinos. De lo expuesto se deduce que la mera posesión de una o varias armas nucleares no convierte a un país en potencia nuclear. Una potencia nuclear es un Estado que: • dispone de armas nucleares y vectores en cantidad suficiente y lo bastante dispersados como para preservar una porción significativa de su fuerza aún en caso de que un primer ataque por sorpresa enemigo tuviera éxito. • dispone de medios de inteligencia, mando, control y comunicaciones con la capacidad de detectar una acción enemiga y contraatacar antes de que ésta alcance sus objetivos. Se denomina superpotencia nuclear a un Estado que es capaz de completar un ataque o represalia nuclear contra cualquier número de enemigos simultáneos, cualquiera que sea su ubicación geográfica, aprovechando eficazmente la asimetría esencial que otorgan las armas.

Destrucción Mutua Asegurada: la Carta del Loco y la disuasión nuclear

La destrucción mutua asegurada (en inglés mutual assured destruction o MAD, siglas que forman la palabra "loco" en inglés, coincidencia), también conocida como "1+1=0" es la doctrina concebida por John von Neumann de una situación en la cual cualquier uso de armamento nuclear por cualquiera de dos bandos opuestos podría resultar en la completa destrucción de ambos (atacante y defensor). Paradójicamente, durante toda la Guerra Fría la capacidad MAD nucleada en torno a los Estados Unidos y la Unión Soviética mantuvo una precaria "paz helada" por la disuasión que este potencial acarreaba consigo.

En efecto, cuando se es consciente de que el único resultado posible de un conflicto es la propia aniquilación —aunque nuestros enemigos resulten igualmente borrados de la faz de la tierra—, los ímpetus belicistas resultan moderados hasta el extremo de desaparecer en la práctica. Dicho en otras palabras, disuade eficazmente a cualquier país o alianza de iniciar hostilidades abiertas contra una potencia o superpotencia nuclear. En 1983 Estados Unidos desplegaron los misiles Pershing, Si bien los bombardeos atómicos de Hiroshima y Nagasaki como el de la imagen, dentro de Europa. Eso provocaría el incidente de Able Archer 83, el cual es considerado el punto crearon una "mítica de las armas nucleares" según la cual toda más cercano a una guerra nuclear total de toda la historia. batalla de estas características conllevaría el fin del mundo, ni los Estados Unidos ni la URSS alcanzarían la suma cero hasta finales de los años 1960 y la capacidad MAD hasta principios de los años 1970. Esto quiere decir que, por ejemplo, si la Crisis de los misiles de Cuba (1962) se hubiera resuelto violentamente, ninguno de los oponentes habría resultado aniquilado en contra de la opinión popular. Por el contrario, diversos incidentes con los sistemas de represalia instantánea de ambas superpotencias acaecidos durante los años 1980 y 90 estuvieron a punto de conducirnos a una guerra termonuclear total.

En la actualidad, y como consecuencia de los diversos acuerdos de desarme que caracterizaron al final de la Guerra Fría y su Posguerra, la capacidad de las principales potencias ha caído por debajo de la suma cero total o MAD para pasar de nuevo a una situación de suma cero simple. No obstante, como veremos más adelante, las prestaciones devastadoras de las nuevas armas nucleares y sus aplicaciones especiales, así como la fragilidad tecnológica de las sociedades modernas, siguen siendo capaces de mantener la disuasión eficazmente. Estrategia de las armas nucleares 240

Fundamento de la Teoría La doctrina supone que cada bando posee suficiente armamento para destruir a su oponente y que cualquiera de los bandos, de ser atacado por cualquier razón por el bando opuesto, respondería al ataque con la misma o mayor fuerza. El resultado esperado es que la batalla escale al punto donde cada bando obtenga la destrucción total y asegurada del enemigo. La doctrina supone además que el armamento nuclear de los Estados se encuentra diseminado por todo el mundo (en submarinos, aviones, etc) por lo que la idea de lanzar un primer ataque devastador sobre la totalidad del armamento atómico de un país para neutralizar un eventual contraataque igual de devastador resulta imposible. Fue la respuesta a los postulados según los cuales un primer ataque empleando bombarderos y posteriormente submarinos nucleares podía inutilizar todas o la mayor parte de las armas nucleares enemigas. Asumiendo que ninguno de los bandos sería lo suficientemente irracional como para arriesgar su propia destrucción, ninguno de los bandos se atrevería a lanzar un primer ataque, bajo el temor de que el otro ataque en respuesta. La ventaja de esta doctrina es una paz estable aunque de elevada tensión. La principal aplicación de esta doctrina ocurrió durante la Guerra Fría (años 1950 a 1990) entre los Estados Unidos y la Unión de Repúblicas Socialistas Soviéticas. Cabe destacar que las aserciones de la Teoría sólo son aplicables a Estados Nación, instituciones que no aceptan como escenario posible la autodestrucción, aún si ésta implica la del adversario. La aplicación de las ideas de la Destrucción Mutua Asegurada entre ejecutores diferentes en escenarios diversos (como pueden ser las acciones de soldados o grupos terroristas dispuestos a morir como mártires al atacar a sus enemigos, por ejemplo una nación, en su acepción política) no se ha estudiado en profundidad

La estrategia de la Guerra de las Galaxias

Estados Unidos intentó, por medio de un proyecto presentado durante la presidencia de Ronald Reagan, romper con los postulados de la Teoría a partir de la idea de poner en órbita terrestre y alojar en tierra un número determinado de plataformas espaciales armadas con armamentística láser, balísticos y de red. Estos dispositivos permitirían anular el contraataque enemigo. El proyecto es conocido popularmente como "Guerra de las Galaxias".

Este pulso tecnológico y económico prentendía transformar por completo la concepción de la guerra nuclear. Hasta ese momento la estrategia consistía en aumentar más la cantidad y contundencia del ataque; de la bomba atómica a la bomba de hidrógeno (ambas transportadas por aviones) y de éstas a los misiles con ojivas nucleares, a los misiles con cabeza múltiple, etcétera. Con la entrada de la Iniciativa de defensa estratégica, la Administración Reagan invirtió más de 3 000 millones de dólares en desarrollar las ideas preliminares, demostrándose inviables con el estado de la tecnología de su tiempo.

Sin embargo, el rearme como respuesta a la implantación de un escudo Prototipo de cohete diseñado para destruir a un antimisiles volvió a plantearse en 2007, cuando la Administración misil intercontinental balístico en movimiento. Bush informó que planeaba instalar partes de este escudo en antiguos Fue lanzado de la base Vandenberg en Estados países del disuelto Pacto de Varsovia (previa notificación y aprobación Unidos en diciembre de 2001 y se engloba dentro de estas naciones). A lo que el presidente Putin respondió con volver a de las técnicas llamadas "Guerra de las Galaxias". fabricar e instalar más misiles de medio alcance[1] e ICBMs específicamente diseñados para contrarrestar escudos antimisiles, como el RS-24. Estrategia de las armas nucleares 241

Sátiras y consecuencias Una sátira de la doctrina y sus posibles consecuencias puede verse en la película de Stanley Kubrick Dr. Strangelove. En esta película el embajador soviético informa al presidente estadounidense que la URSS dispone de un arma con la capacidad de destruir toda la civilización, la cual se dispararía automáticamente en cuanto la URSS recibiera el primer ataque. Años después, científicos estadounidenses estudiando las consecuencias de los impactos de meteoritos, descubrieron que las consecuencias de un primer ataque serían, entre otras, la producción de ingentes cantidades de cenizas (obra de los incendios que provoca una explosión nuclear) y de polvo en suspensión. Dichas cenizas y polvo taparían el Sol durante, al menos, 14 días; tiempo suficiente para reducir la temperatura de la Tierra a niveles muy inferiores a los de cualquier glaciación que acabarían con toda vida vegetal y con ella la de la mayoría de los animales.[2] Así pues, esa "arma" presentada en la película de Kubrick sí “existía”, en cierto modo, asegurando la destrucción de los dos contendientes, aunque uno de los bandos no llegase a utilizar ninguna de sus armas.

Los campos de batalla de la guerra nuclear Como consecuencia de la suma cero y la disuasión, y pese a toda la propaganda al respecto, las potencias y superpotencias nucleares adoptaron casi desde el principio una actitud eminentemente defensiva. Eran conscientes de que incluso un enfrentamiento limitado causaría enormes daños, condenándoles a convertirse en países subdesarrollados dependientes del exterior para su reconstrucción. La consiguiente paranoia colectiva condujo a estas potencias a creer que el oponente estaba constantemente maniobrando para lanzar alguna clase de ataque sorpresivo, por lo que se armaban cada vez más. El oponente, con un grado similar de paranoia, tomaba estas acciones como indicios evidentes de la actitud hostil del primero, conduciéndole a armarse todavía más, y así sucesivamente en un círculo vicioso al que se denominó carrera armamentística. En una carrera armamentística, ambas partes creen estar en el lado de la razón. El resultado no podía ser otro que la suma cero total, como demostraron repetidos análisis y ejercicios. Pero aún y así seguían intentándolo.

SIOP/RISOP: los planes para el Armagedón Los planes para la utilización de armas nucleares tácticas o de teatro —para el campo de batalla— eran similares a otras operaciones convencionales que implicaban el uso de artillería misilística de alta potencia. No obstante, poco a poco iría surgiendo la idea de escalada nuclear: un escenario donde tras la utilización de un número reducido de armas nucleares en el calor del combate su uso iría ampliándose y extendiéndose hasta llegar a la guerra termonuclear total. Los misiles de alcance intermedio como el SS-20 soviético y los misiles Pershing y Pershing II norteamericano, al igual que los bombarderos, se consideraban especialmente peligrosos por su capacidad de actuar como escalón intermedio entre la guerra táctica localizada y la guerra estratégica general; es por ello que fueron eliminados con los primeros acuerdos de limitación de armas nucleares. En Estados Unidos, a los planes para la utilización de armamento nuclear se les denominó SIOP, acrónimo de special integrated operations plan, plan especial de operaciones integradas. Consistía en una serie de directivas para determinar qué blancos atacar, en qué orden y de qué manera. Existen cuatro niveles SIOP: • RNO - Opciones nucleares regionales, para ejecutar un ataque nuclear contra fuerzas convencionales que ataquen el territorio propio. • LAO - Opciones de ataque limitado, para ejecutar un ataque nuclear restringido a algunas unidades esenciales de la fuerza nuclear enemiga. • SAO - Opciones de ataque selectivo, para ejecutar un ataque nuclear contra un grupo de blancos seleccionados en territorio enemigo. • MAO - Opciones de ataque mayor, destinadas a causar un grado de devastación importante al esfuerzo de guerra enemigo. Estrategia de las armas nucleares 242

Dentro de las opciones de ataque mayor, existen a su vez otros cuatro subniveles: • MAO-1 (ataque contrafuerza) - Dirigido contra las fuerzas nucleares del enemigo: silos de misiles, bases de misiles en camiones o trenes, bases de submarinos, aeropuertos primarios, instalaciones de almacenamiento de cabezas nucleares, el complejo tecnológico-industrial de producción de las mismas y las instalaciones esenciales de mando, control, comunicaciones e inteligencia, pero tratando de evitar las áreas urbanas y las fuerzas no nucleares. • MAO-2 (ataque contrafuerza extendido) - Dirigido contra todos los blancos del MAO-1 más: puertos y aeropuertos secundarios, arsenales, dirigencia militar y unidades seleccionadas de la fuerza militar no nuclear, flotas de superficie y redes de mando, control, comunicaciones e inteligencia no nucleares. • MAO-3 (ataque contravalor limitado) - Dirigido contra todos los blancos del MAO-1 y el MAO-2 más las instalaciones de la dirigencia político-administrativa del enemigo. • MAO-4 (ataque contravalor extendido) - Dirigido contra todos los blancos del MAO-1, el MAO-2 y el MAO-3 más las instalaciones esenciales de la sociedad enemiga (blancos económicos): refinerías, centrales de producción de energía eléctrica, polígonos industriales —sobre todo los vinculados con la industria militar o tecnológica— y concentraciones humanas de gran importancia demográfica. Obsérvese que al realizarse la batalla a nivel MAO-3 la dirigencia política quedaría inhabilitada, por lo que casi de manera automática saltaría a nivel MAO-4. Al mismo tiempo que el SIOP, se diseña el RISOP ("Red" integrated special operations plan - Plan especial de operaciones integradas "del bando rojo"). Mediante el mismo, se pretende analizar qué blancos propios serían atacados por el enemigo, para comprender cómo se desarrollaría la guerra y reducir daños en la medida de lo posible. El RISOP, por supuesto, no es sino una estimación bien fundada de los actos previstos del enemigo.

El final de la cuenta atrás: los diez minutos del día del juicio (O cómo funciona el sistema de control de las armas termonucleares) El proceso está explicado tomando como ejemplo el sistema de mando ruso ante un primer ataque; el norteamericano, inglés, francés o chino son muy similares. Esta información es, aproximadamente, del año 2000. • DATO ESENCIAL Nº 1: el tiempo de vuelo de un ICBM (misil balístico intercontinental) entre los campos misilísticos de Siberia y el corazón de los Estados Unidos es de unos 23 minutos, y viceversa. • DATO ESENCIAL Nº 2: el tiempo de vuelo de un SLBM (misil balístico intercontinental de lanzamiento submarino) entre sus puntos de despliegue oceánicos hasta el corazón de cualquier país es de entre 10 y 30 minutos, y puede llegar a ser tan bajo como 5-10 minutos. • DATO ESENCIAL Nº 3: debido a los datos nº 1 y 2, existe un momento en que el proceso se vuelve irreversible. Tiempo: 00:00 - los satélites OKO (Ojo) y los radares OTH Duga (capaces de ver "bajo la línea del horizonte" a grandes distancias) detectan los ICBM o SLBM enemigos conforme ascienden y transmiten los datos al Centro de Inteligencia Espacial del GRU (el servicio secreto militar), un búnker subterráneo secreto llamado Serpukhov-15, cerca de Vatutinki, a unos 60 km al sudoeste de Moscú. Los analistas de inteligencia del GRU comienzan a evaluar la amenaza. Tiempo: 00:30 - se transmite una señal de emergencia a los 15 centros subterráneos de control de las Fuerzas Nucleares Estratégicas repartidos por toda la Federación, y también al puesto de mando de la Junta de Jefes de Estado Mayor, en Chekov, y al Comando de las Fuerzas Espaciales situado en el Ministerio de Defensa, en Moscú. Tiempo: 01:00 - los especialistas del Comando de las Fuerzas Espaciales determinan la credibilidad de la amenaza con los datos que les van llegando desde Serpukhov-15. Si deciden que es real, transmiten una señal de alerta a los tres portadores de los "maletines nucleares" (el Presidente, el Ministro de Defensa y el Comandante en Jefe de la Junta de Jefes de Estado Mayor) y una prealerta a la red de puestos de control de las Fuerzas Nucleares Estratégicas, un cuerpo de élite que controla los ICBM y las comunicaciones con los bombarderos y los submarinos. Se activa el Estrategia de las armas nucleares 243

Sistema de Defensa Civil. Tiempo: 01:30 - los operadores de los puestos de control de las comunicaciones con los submarinos y los bombarderos transmiten una señal de prealerta. Las tripulaciones de los bombarderos corren a sus aviones y se disponen a despegar. En las profundidades oceánicas, los submarinos entran en alerta roja e inician los procedimientos de lanzamiento, igual que hacen los operadores de la red de puestos de control de los ICBM en los campos misilísticos. Tiempo: 02:00 - el sistema de mando conmuta de la red normal de comunicaciones a la red especial de comunicaciones, que les conecta directamente con los puestos de control de los ICBM, los bombarderos y los submarinos. En estos momentos, los misiles desplegados en camiones estarían poniendo sus motores en marcha. Tiempo: 03:00 - los portadores de los maletines nucleares conversan entre sí, si es posible, para determinar la reacción exacta, el plan de guerra a utilizar (el SIOP/RISOP) y tomar las decisiones políticas oportunas. El Presidente, o en su defecto el Ministro de Defensa, intentan ponerse en contacto con las autoridades políticas del país atacante para ver qué está ocurriendo, si es que hay algo que decirse. Tiempo: 04:00 - los misiles atacantes entran dentro del rango de los radares de descubierta de largo alcance LPAR y Daryal, donde se confirma su presencia, número y trayectoria. Los datos son retransmitidos al Presidente, al Ministro de Defensa, a la Junta de Jefes de Estado Mayor y al Comando de las Fuerzas Espaciales. Los analistas de inteligencia siguen tratando de desentrañar lo que está sucediendo con el máximo detalle posible. El Presidente, el Ministro de Defensa y otro personal esencial suben a helicópteros para ser transportados a un lugar secreto. Tiempo: 04:30 - se declara el Estado de Sitio y de Excepción. Se transmiten órdenes a todas las comandancias del Ejército, la Marina y la Fuerza Aérea (no nucleares) para que inicien un despliegue de emergencia, así como a los gobernadores civiles de los territorios para que declaren la Ley Marcial y pongan en marcha de inmediato los planes de Protección Civil. A partir de este momento, cualquier persona o vehículo que se acerque a un componente de las fuerzas armadas rusas de la clase que sea sin autorización será atacado sin previo aviso. Tiempo: 05:00 - el momento de la decisión. Para que el contraataque se ejecute sin problemas, hay que hacerlo ahora o nunca. Si se decide contraatacar, el Presidente o en su defecto el Ministro de Defensa o en su defecto el Comandante en Jefe de la Junta de Jefes de Estado Mayor utilizan su "maletín" para transmitir los códigos de desbloqueo a la Junta de Jefes de Estado Mayor, a los puestos de control de los bombarderos, los submarinos y los campos misilísticos. Los bombarderos despegan. Los camiones lanzamisiles echan a correr a toda velocidad desperdigándose por ahí. Los submarinos proceden a profundidad de lanzamiento. Los operadores de los campos misilísticos, los camiones y los submarinos proceden a desbloquear los misiles con los códigos suministrados e iniciar la secuencia de encendido. En estos momentos aún se puede detener el proceso. Tiempo: 05:30 - se transmite el plan de guerra (SIOP/RISOP) a los operadores de los misiles. En caso de que las comunicaciones se hubiesen cortado ya (por ataque EMP o porque disparos de trayectoria deprimida -5 mins. de preaviso- o de misiles de crucero hubiesen alcanzado los centros de mando), los operadores de los misiles en tierra, mar y aire se atendrían a los SIOP/RISOP predeterminados y el código de desbloqueo se entendería como código de autorización de lanzamiento. Tiempo: 06:30 - la Junta de Jefes de Estado Mayor, por orden de los portadores de los maletines, transmite a todas las estaciones los códigos para la autorización de lanzamiento (go-code). Tiempo: 07:00 - los operadores de los misiles en los silos, los camiones, los bombarderos y los submarinos comparan estos códigos con los que tienen en sus libros de claves, conservados en cajas fuertes selladas. Si coinciden, o si las comunicaciones se hubiesen cortado después de recibir los códigos de desbloqueo, las comunicaciones con el exterior se cortan, ya no se aceptan nuevas órdenes y se disponen a lanzar. Ahora el proceso es irreversible. Tiempo: 08:30 - los operadores han terminado de preparar los misiles para el lanzamiento. Los bombarderos supersónicos vuelan hacia el Polo Norte a toda velocidad. Los submarinos están a profundidad de lanzamiento. Se Estrategia de las armas nucleares 244

inician las secuencias de disparo. Tiempo: 09:00 - los planes de Defensa Civil empiezan a implementarse. Tiempo: 10:00 - los misiles están en el aire. La Represalia Nuclear ha comenzado. Este procedimiento se denomina LOW (launch-on-warning). Existen procedimientos abreviados para ataques por sorpresa (LOA - launch-on-attack) y paralelos para ataques con otro tipo de armas como puedan ser los misiles de crucero.

La hora de las bombas Se ha teorizado que es posible una guerra nuclear prolongada en el tiempo (protracted nuclear war), pero la opinión generalizada es que, ante la posibilidad inminente de perder las fuerzas nucleares propias, cualquier potencia optaría por lanzarlo todo. Esto es: que la escalada desde un ataque limitado a una guerra termonuclear total MAO-4 es inevitable y muy rápida. En este caso, la duración total del conflicto sería de escasamente 60 minutos, y por ello se le llama la hora de las bombas o la hora de Armagedón. Con toda probabilidad, el compás de apertura consistiría en un ataque de pulso electromagnético de gran altitud (HEMP) en el espacio exterior para dislocar completamente al enemigo, seguido de detonaciones de oscurecimiento en las regiones superiores de la atmósfera con objeto de cegar a los sistemas antimisil. Segundos después comenzarían a llegar las cabezas termonucleares, atravesando las zonas de oscurecimiento envueltas en nubes de señuelos, perturbadores y otros medios de guerra electrónica para confundir a cualquier sistema antimisil que pudiera seguir operativo. Los blancos "blandos" —ciudades, áreas industriales, refinerías, centrales eléctricas, etc— serían atacados con detonaciones aéreas (airburst), mientras que los "duros" (silos de misiles, instalaciones subterráneas, puertos, pistas) recibirían impactos directos a nivel de superficie (groundburst). A partir de aquí, la evolución del conflicto es imposible de predecir; se ha hablado de bombas sucias que esparcen polvo radiactivo, y bombas de radiación ultravioleta utilizadas para esterilizar los campos de cultivo, enfermar al ganado y contaminar aún más el agua potable, estrellas del caos (detonación simultánea de múltiples cabezas en una disposición radial para aniquilar grandes conurbaciones o áreas industriales) y otras tácticas a cual más esotérica. Los efectos de una guerra nuclear están descritos en efectos de las armas nucleares.

Bibliografía [1] El País, sección Internacional, Grupo Prisa, Madrid, 24 de febrero de 2007 [2] Carl Sagan, Un punto azul pálido, Editorial Planeta, Barcelona, 1996, ISBN 84-08-01645-8

Véase también • Armas nucleares • Efectos de las armas nucleares • Ataque de pulso electromagnético • Oscurecimiento • Tormenta ígnea • Radiactividad • Destrucción mutua asegurada • Efectos globales de una guerra nuclear Teoría de la decisión 245 Teoría de la decisión

La teoría de la decisión es una área interdisciplinaria de estudio, relacionada con casi todos los participantes en ramas de la ciencia, la ingeniería y, principalmente, la psicología del consumidor (basados en perspectivas cognitivo-conductuales). Concierne a la forma y al estudio del comportamiento y fenómenos psíquicos de aquellos que toman las decisiones (reales o ficticios), así como las condiciones por las que deben ser tomadas las decisiones óptimas.

Partes de la teoría La mayor parte de la teoría de la decisión es normativa o prescriptiva, es decir concierne a la identificación de la mejor decisión que pueda ser tomada, asumiendo que una persona que tenga que tomar decisiones (decision maker) sea capaz de estar en un entorno de completa información, capaz de calcular con precisión y completamente racional. La aplicación práctica de esta aproximación prescriptiva (de como la gente debería hacer y tomar decisiones) se denomina análisis de la decisión y proporciona una búsqueda de herramientas, metodologías y software para ayudar a las personas a tomar mejores decisiones. Las herramientas de software orientadas a este tipo de ayudas se desarrollan bajo la denominación global de Sistemas para la ayuda a la decisión (decision support systems, abreviado en inglés como DSS). Como parece obvio que las personas no se encuentran en estos entornos óptimos y con la intención de hacer la teoría más realista, se ha creado un área de estudio relacionado que se encarga de la parte de la disciplina más positiva o descriptiva, intentando describir qué es lo que la gente realmente hace durante el proceso de toma de decisiones. Se pensó en esta teoría debido a que la teoría normativa, trabaja sólo bajo condiciones óptimas de decisión y a menudo crea hipótesis, para ser probadas, algo alejadas de la realidad cotidiana. Los dos campos están íntimamente relacionados; no obstante, es posible relajar algunas presunciones de la información perfecta que llega al sujeto que toma decisiones, se puede rebajar su racionalidad y así sucesivamente, hasta llegar a una serie de prescripciones o predicciones sobre el comportamiento de la persona que toma decisiones, permitiendo comprobar qué ocurre en la práctica de la vida cotidiana.

Tipos de decisiones Existen tipos de decision que son interesantes desde el punto de vista del desarrollo de una teoría, estos son: • Decisión sin riesgo entre mercancías inconmensurables (mercancías que no pueden ser medidas bajo las mismas unidades) • Elección bajo impredecibilidad • Elección intertemporal - estudio del valor relativo que la gente asigna a dos o más bienes en diferentes momentos del tiempo • Decisiones sociales: decisiones tomadas en grupo o bajo una estructura organizativa

Elección entre mercancías inconmensurables Esta área es importante cuando se ha de tomar la decisión de elegir, por ejemplo, entre comprar una tonelada de cañones.

Elección bajo incertidumbre Esta área representa el principal esfuerzo de investigación en la teoría de la decisión. El procedimiento se basa en el valor esperado ya conocido en el siglo XVII. El filósofo francés Blaise Pascal ya lo enunciaba en sus famosas dudas, contenidas en su Pensamientos, publicado en 1670. La idea del valor esperado consiste en que cuando afrontamos con un número de acciones, cada una de ellas con un número de resultados asociados a una probabilidad diferente, el Teoría de la decisión 246

procedimiento racional es identificar todos los posibles resultados de las acciones, determinar sus valores (positivos o negativos) y sus probabilidades asociadas que resultan de cada acción y, al multiplicar los dos valores, se obtiene el valor esperado. La acción elegida deberá ser aquella que proporcione el mayor valor esperado. En 1738, Daniel Bernoulli publicó un documento influyente denominado Exposición de una nueva Teoría sobre la Medida del Riesgo, en la que emplea la paradoja de San Petersburgo para mostrar que el valor esperado debe ser normativamente erróneo. Proporciona un ejemplo con un mercante holandés que intenta decidir si asegurar la carga que quiere enviar desde Ámsterdam a San Petersburgo en invierno, cuando se sabe que hay un 5% de posibilidad de perder la carga durante el viaje. En su solución, define por primera vez la función de utilidad y calcula la utilidad esperada en vez del valor financiero. En el siglo XX el interés por este tema fue reiniciado por un artículo de Abraham Wald en 1939 señalando los dos temas centrales de la estadística ortodoxa de aquel tiempo: los test de hipótesis estadísticas y la teoría de la estimación estadística, que podrían ser aspectos especiales del problema general de la decisión. Este artículo introduce muchos de los ingredientes actuales de la moderna teoría de la decisión, incluyendo funciones de pérdida, función de riesgo, reglas de decisión admisibles, distribuciones a priori, teoría de Bayes de la decisión, y reglas minimax para la toma de decisión. La frase "teoría de la decisión" fue empleada por primera vez en el año 1950 por E. L. Lehmann. El crecimiento de la teoría de probabilidad subjetiva, procedente del trabajo de Frank Ramsey, Bruno de Finetti, Leonard Savage y otros, extendiendo el ámbito de la teoría de la utilidad a situaciones donde sólo la teoría de la probabilidad subjetiva puede ser empleada. En este tiempo se asume que en economía la gente se comporta como agentes racionales humanos que toman decisiones bajo riesgo. El trabajo de Maurice Allais y Daniel Ellsberg mostró que no es tan fácilmente formalizar estas situaciones. La teoría prospectiva de Daniel Kahneman y Amos Tversky dio lugar a la economía comportacional. En esta teoría se enfatiza en las capacidades humanas (opuestas a lo normativamente correcto) en la toma de decisiones basada en "perdidas y ganancias", la gente es más focalizada en los cambios en sus estados de utilidad y en la estimación subjetiva a menudo sesgada por anclaje. La Apuesta de Pascal es un ejemplo clásico de elección ante incertidumbre. La incertidumbre, de acuerdo con Pascal, está en saber si Dios existe. Las creencias o escepticismos personales sobre la elección de creer en su existencia.

Elección atemporal Esta área concierne a un tipo de tomas de decisión donde intervienen una serie de acciones en diferentes instantes de tiempo. Por ejemplo, si recibiera una gran cantidad de euros en un instante de tiempo, podría gastarlos en unas vacaciones de lujo, proporcionándome un placer inmediato, o por el contrario podría invertirlo en un plan de pensiones, que me proporcionaría un beneficio en el futuro. Surge la pregunta de cuál es la decisión óptima, la respuesta depende parcialmente de factores tales como el valor de esperanza de vida, la inflación, el interés, la confianza en el sistema de pensiones, etc. Sin embargo aunque todos estos factores fueran tomados en cuenta a la hora de tomar la decisión, el comportamiento humano se desvía de las predicciones de la teoría prescriptiva, dando lugar a modelos alternativos en los que, por ejemplo, el interés objetivo se reemplaza por un descuento subjetivo.

Decisiones complejas Otras áreas de la teoría de la decisión conciernen con la dificultad de tomar decisiones debido en parte a la "complejidad" de cálculo de las expectativas, o bien por la complejidad de la propia organización que tiene que tomar las decisiones. En tales casos la teoría no se fija tanto en obtener un cálculo basado en como se desvía una decisión real de una óptima, sino en la medida de la dificultad de determinar el comportamiento óptimo a la hora de tomar la decisión. Un ejemplo de esta teoría puede encontrarse en el Club de Roma, que ha desarrollado un modelo de crecimiento económico y de recursos basado en un modelo que puede ayudar a los políticos a tomar decisiones en situaciones complejas. Teoría de la decisión 247

Paradoja de la elección Se ha observado en muchos casos que existe la paradoja de que muchas capacidades de elegir puede dar lugar a una pobre decisión o incluso a una elección errónea. En algunas ocasiones se ha analizado el problema desde una parálisis del análisis, real o percibido, o incluso desde una ignorancia racional. Un gran número de investigadores incluido Sheena S. Iyengar y Mark R. Lepper ha publicado estudios basados en este fenómeno.[1] Una popularización de este análisis fue realizado por Barry Schwartz en su libro The Paradox of Choice[2]

Referencias [1] (Goode, 2001) [2] 2004 book, The Paradox of Choice

Otras referencias

• Sven Ove Hansson, "Decision Theory: A Brief Introduction", Una introducción (http:/ / www. infra. kth. se/ ~soh/

decisiontheory. pdf) (Formato PDF) Una excelente y sencilla introducción al tema ("punto de vista no técnico") • Paul Goodwin and George Wright, Decision Analysis for Management Judgment, 3rd edition. Chichester: Wiley, 2004 ISBN 0-470-86108-8 (cubre por igual la parte normativa y no normativa de la teoría) • Robert Clemen. Making Hard Decisions: An Introduction to Decision Analysis, 2nd edition. Belmont CA: Duxbury Press, 1996. (cubre sólo la parte normativa de la teoría de la decisión) • D.W. North. "A tutorial introduction to decision theory". IEEE Trans. Systems Science and Cybernetics, 4(3), 1968. Reprinted in Shafer & Pearl. (cubre sólo la parte normativa de la teoría de la decisión) • Glenn Shafer and Judea Pearl, editors. Readings in uncertain reasoning. Morgan Kaufmann, San Mateo, CA, 1990. • Howard Raiffa Decision Analysis: Introductory Readings on Choices Under Uncertainty. McGraw Hill. 1997. ISBN 0-07-052579-X • Morris De Groot Optimal Statistical Decisions. Wiley Classics Library. 2004. (Originally published 1970.) ISBN 0-471-68029-X. • Khemani , Karan, Ignorance is Bliss: A study on how and why humans depend on recognition heuristics in social relationships, the equity markets and the brand market-place, thereby making successful decisions, 2005. • J.Q. Smith Decision Analysis: A Bayesian Approach. Chapman and Hall. 1988. ISBN 0-412-27520-1 • Akerlof, George A. and Janet L. YELLEN, Rational Models of Irrational Behavior • Arthur, W. Brian, Designing Economic Agents that Act like Human Agents: A Behavioral Approach to Bounded Rationality • James O. Berger Statistical Decision Theory and Bayesian Analysis. Second Edition. 1980. Springer Series in Statistics. ISBN 0-387-96098-8.

• Goode, Erica. (2001) In Weird Math of Choices, 6 Choices Can Beat 600 (http:/ / www. columbia. edu/ ~ss957/

nytimes. html). The New York Times. Retrieved May 16, 2005.

• Anderson, Barry F. The Three Secrets of Wise Decision Making (http:/ / www. personaldecisions. net/

pdm_3_secrets. htm). Single Reef Press. 2002. ISBN 0-9722177-0-3. Teoría de la decisión 248

Véase también • Lineal información parcial • Sistemas de soporte a decisiones

Enlaces externos

• Comunidad virtual Toma de Decisiones en el Ámbito de la Dirección Empresarial en Yahoo! Grupos (http:/ /

www. gruposyahoo. com. ar/ group/ TomaDecisiones)

Sistemas de soporte a decisiones

El concepto de sistema de soporte a las decisiones (DSS por sus siglas en inglés Decision support system) es muy amplio, debido a que hay muchos enfoques para la toma de decisiones y debido a la extensa gama de ámbitos en los cuales se toman. Estos sistemas de apoyo son del tipo OLAP o de minería de datos, que proporcionan información y soporte para tomar una decisión. Un DSS puede adoptar muchas formas diferentes. En general, podemos decir que un DSS es un sistema informático utilizado para servir de apoyo, más que automatizar, el proceso de toma de decisiones. La decisión es una elección entre alternativas basadas en estimaciones de los valores de esas alternativas. El apoyo a una decisión significa ayudar a las personas que trabajan solas o en grupo a reunir inteligencia, generar alternativas y tomar decisiones. Apoyar el proceso de toma de decisión implica el apoyo a la estimación, la evaluación y/o la comparación de alternativas. En la práctica, las referencias a DSS suelen ser referencias a aplicaciones informáticas que realizan una función de apoyo.[1]

Definiciones El término sistema de apoyo a la decisión se ha utilizado de formas muy diversas y se ha definido de diferentes maneras dependiendo del punto de vista del autor.[2] Algunas de esas definiciones son: • Un DSS, en términos muy generales, es "un sistema basado en computador que ayuda en el proceso de toma de decisiones" (Finlay[3] y otros). • En términos bastante más específicos, un DSS es "un sistema de información basado en un computador interactivo, flexible y adaptable, especialmente desarrollado para apoyar la solución de un problema de gestión no estructurado para mejorar la toma de decisiones. Utiliza datos, proporciona una interfaz amigable y permite la toma de decisiones en el propio análisis de la situación" (Turban[4]). Otras definiciones intermedias entre las dos anteriores serían: • Un DSS es un "conjunto de procedimientos basados en modelos para procesar datos y juicios para asistir a un gerente en su toma de decisiones" (Little[5]). • Un DSS "combina recursos intelectuales individuales con las capacidades de un ordenador para mejorar la calidad de las decisiones (son un apoyo informático para los encargados de tomar decisiones sobre problemas semiestructurados)" (Keen[6]). • "Sistema extensible capaz de apoyar ad-hoc el análisis de datos y el modelado de decisiones, orientado a la planificación futura y utilizado a intervalos irregulares, no planificados" (Moore y Chang[7]). • Los DSS son "Sistemas informáticos interactivos que ayudan a los encargados de tomar decisiones utilizando datos y modelos para resolver problemas no estructurados" (Sprague y Carlson[8]). • Kenn afirma que es imposible dar una definición precisa incluyendo todas las facetas de la DSS ya que "no puede haber una definición de los sistemas de apoyo a la decisión, sino sólo del apoyo a la decisión" (Keen[9]). Sistemas de soporte a decisiones 249

• Para Power el termino DSS puede referirse a muchos tipos de sistemas de información que dan soporte a la toma de decisiones. Humorísticamente añade que siempre que un sistema informático no sea un 'sistema para procesamiento de transacciones en linea' (OLTP), alguien tendrá la tentación de llamarlo DSS (Power[10]). Como se puede ver no hay una definición universalmente aceptada de lo que es un DSS.[11]

Breve historia Según Keen,[6] el concepto de apoyo a las decisiones ha evolucionado desde dos áreas principales de investigación: los estudios teóricos de organización de la toma de decisiones, hechos en el Carnegie Institute of Technology a finales de 1950 y comienzos de 1960, y el trabajo técnico sobre sistemas informáticos interactivos, principalmente llevadas a cabo en el Instituto Tecnológico de Massachusetts en la década de 1960. Se considera que el concepto de DSS se convirtió en un espacio de investigación como tal a mediados de la década de 1970, antes de ganar en intensidad durante el decenio de 1980. A mediados y finales de 1980, los sistemas de información ejecutiva (EIS), los sistemas de apoyo a la decisión en grupo (GDSS) y los sistemas organizacionales de apoyo a la decisión (ODSS) evolucionaron desde el usuario individual y el DSS orientados a modelos. A partir de 1990 aproximadamente, los almacenes de datos y el procesamiento analítico en línea (OLAP) comenzó a ampliar el ámbito de los DSS. Con el cambio de milenio, se introdujeron nuevas aplicaciones analíticas basadas en la web. Es evidente que los DSS pertenecen a un entorno con fundamentos multidisciplinarios, incluyendo (pero no exclusivamente) la investigación en base de datos, inteligencia artificial, Interacción hombre-máquina, métodos de simulación, ingeniería de software y telecomunicaciones. Los DSS también tienen una débil conexión con el paradigma de la interfaz de usuario de hipertexto. Tanto el sistema PROMIS (para la toma de decisiones médicas) de la Universidad de Vermont, como el sistema ZOG/KMS (para la toma de decisiones militares y de negocios) de la Universidad Carnegie Mellon fueron dos sistemas de apoyo a las decisiones que constituyeron grandes avances en la investigación de interfaz de usuario. Por otra parte, aunque las investigaciones en hipertexto, por lo general, se haya centrado en la sobrecargo de información, algunos investigadores, en particular, Douglas Engelbart, se han centrado en la toma de decisiones en particular.

Función y características Los DSS son herramientas de mucha utilidad en Inteligencia empresarial (Business Intelligence), permiten realizar el análisis de las diferentes variables de negocio para apoyar el proceso de toma de decisiones de los directivos: • Permite extraer y manipular información de una manera flexible. • Ayuda en decisiones no estructuradas. • Permite al usuario definir interactivamente qué información necesita y cómo combinarla. • Suele incluir herramientas de simulación, modelización, etc. • Puede combinar información de los sistemas transaccionales internos de la empresa con los de otra empresa externa. Su principal característica es la capacidad de análisis multidimensional (OLAP) que permite profundizar en la información hasta llegar a un alto nivel de detalle, analizar datos desde diferentes perspectivas, realizar proyecciones de información para pronosticar lo que puede ocurrir en el futuro, análisis de tendencias, análisis prospectivo, etc. Un DSS da soporte a las personas que tienen que tomar decisiones en cualquier nivel de gestión, ya sean individuos o grupos, tanto en situaciones semiestructuradas como en no estructuradas, a través de la combinación del juicio humano e información objetiva: • Soporta varias decisiones interdependientes o secuenciales. • Ofrece ayuda en todas las fases del proceso de toma de decisiones -inteligencia, diseño, selección, e implementación- así como también en una variedad de procesos y estilos de toma de decisiones. • Es adaptable por el usuario en el tiempo para lidiar con condiciones cambiantes. Sistemas de soporte a decisiones 250

• Genera aprendizaje, dando como resultado nuevas demandas y refinamiento de la aplicación, que a su vez da como resultado un aprendizaje adicional. • Generalmente utiliza modelos cuantitativos (estándar o hechos a la medida). • Los DSS avanzados están equipados con un componente de administración del conocimiento que permite una solución eficaz y eficiente de problemas muy complejos. • Puede ser implantado para su uso en Web, en entornos de escritorio o en dispositivos móviles (PDA). • Permite la ejecución fácil de los análisis de sensibilidad.

Taxonomías Al igual que ocurre con la definición, no existe una taxonomía universalmente aceptada para los DSS. Diferentes autores proponen diferentes clasificaciones. Utilizando la relación con el usuario como criterio, Haettenschwiler[12] distingue entre: • DSS pasivo.- Es un sistema de ayudas para el proceso de toma de decisiones, pero que no puede llevar a cabo una decisión explícita sugerencias o soluciones. • DSS activo.- Puede llevar a cabo dicha decisión sugerencias o soluciones. • DSS cooperativo.- Permite al encargado de la toma de decisiones (o a sus asesores) modificar, completar o perfeccionar las sugerencias de decisión proporcionadas por el sistema, antes de enviar de vuelta al sistema para su validación. El nuevo sistema mejora, completa y precisa las sugerencias del tomador de la decisión y las envía de vuelta a su estado para su validación. Entonces, todo el proceso comienza de nuevo, hasta que se genera una solución consolidada. Utilizando el modo de asistencia como criterio, Power[13] distingue entre: • DSS dirigidos por modelos.- Se hace hincapié en el acceso y manipulación de un modelo estadístico, financiero, de optimización o de simulación. Utiliza datos y parámetros proporcionados por los usuarios para ayudar a los encargados de adoptar decisiones en el análisis de una situación, que no son necesariamente los datos intensivos. Dicodess es un ejemplo de un DSS de código abierto basado en modelos.[14] • DSS dirigidos por comunicación.- Disponen de soporte para varias personas que trabajan en una misma tarea compartida. Ejemplos incluyen herramientas integradas como Microsoft NetMeeting o Microsoft Groove.[15] • DSS dirigidos por datos.- También llamados orientados por datos, enfatizan el acceso y la manipulación de series temporales de datos internos de la empresa y, a veces, también de datos externos. • DSS dirigidos por documentos.- Gestionan, recuperan y manipulan información no estructurada en una variedad de formatos electrónicos. • DSS dirigidos por conocimiento.- Proporcionan experiencia acumulada en forma de hechos, normas, procedimientos, o en estructuras similares especializados para la resolución de problemas.[13] Utilizando el ámbito como criterio, Power[10] sugiere esta otra clasificación: • DSS para la gran empresa.- Este DSS estará enlazado con un almacén de datos de gran tamaño y dará servicio a muchos gerentes, directores y/o ejecutivos de la compañía. • DSS de escritorio.- Es un sistema pequeño que puede correr en el ordenador personal de un gerente al que da servicio (un solo usuario). Sistemas de soporte a decisiones 251

Arquitecturas Una vez más, diferentes autores identifican diferentes componentes para un DSS. Sprague y Carlson[8] identifican tres componentes básicos que son explicados con más detalles por Haag y otros:[16] • El sistema de gestión de base de datos.- Almacena información de diversos orígenes, puede proceder de los repositorios de datos de una organización tradicional, de fuentes externas (como Internet), o del personal (de ideas y experiencias de los usuarios individuales). • El sistema gestor de modelos.- Se ocupa de las representaciones de los acontecimientos, hechos o situaciones utilizando varios tipos de modelos (dos ejemplos serían modelos de optimización y modelos de búsqueda-objetivo). • El sistema gestor y generador de diálogos.- Se trata de la interfaz de usuario; es, por supuesto, el componente que permite a un usuario interactuar con el sistema. Según Power[13] un DSS tiene cuatro componentes fundamentales: • La interfaz de usuario. • La base de datos. • Las herramientas analíticas y de modelado. • La red y arquitectura del DSS. Hättenschwiler[17] identifica cinco componentes en un DSS: • Usuarios.- Con diferentes roles o funciones en el proceso de toma de decisiones (tomador de decisiones, asesores, expertos del dominio, expertos del sistema, recolectores de datos). • Contexto de decisión.- Debe ser específico y definible. • Sistema de destino.- Éste describe la mayoría de las preferencias. • Bases de conocimiento.- Compuestas de fuentes de datos externas, bases de datos de conocimiento, bases de datos de trabajo, almacenes de datos y meta-bases de datos, modelos matemáticos y métodos, procedimientos, inferencia y los motores de búsqueda, programas administrativos, y los sistemas de informes. • Entorno de trabajo.- Para la preparación, análisis y documentación de decisión alternativas. Arakas[18] propone una arquitectura generalizada compuesta de de cinco partes distintas: • El sistema gestor de datos. • El sistema gestor de modelos. • El motor de conocimiento. • La interfaz de usuario. • Los usuarios.

Entornos de desarrollo Los sistemas DSS no son totalmente diferente de otros sistemas y requieren un enfoque estructurado. Sprague y Watson (1993) proporcionaron un entorno de tres niveles principales: 1. Los niveles de tecnología.- Se propone una división en 3 niveles de hardware y software para los DSS: 1. DSS específico.- Aplicación real que será utilizada por el usuario. Ésta es la parte de la aplicación que permite la toma decisiones en un problema particular. El usuario podrá actuar sobre este problema en particular. 2. Generador de DSS.- Este nivel contiene hardware y software de entorno que permite a las personas desarrollar fácilmente aplicaciones específicas de DSS. Este nivel hace uso de herramientas case. También incluye lenguajes de programación especiales, bibliotecas de funciones y módulos enlazados. 3. Herramientas de DSS.- Contiene hardware y software de bajo nivel. 2. Las personas que participan.- Para el ciclo de desarrollo de un DSS, se sugieren 5 tipos de usuarios o participantes: 1. Usuario final Sistemas de soporte a decisiones 252

2. Intermediario 3. Desarrollador 4. Soporte técnico 5. Experto de sistemas 3. El enfoque de desarrollo.- El enfoque basado en el desarrollo de un DSS deberá ser muy iterativo. Esto permitirá que la aplicación sea cambiada y rediseñada en diversos intervalos. El problema inicial se utiliza para diseñar el sistema y a continuación, éste es probado y revisado para garantizar que se alcanza el resultado deseado.

Véase también • Smart process management • Inteligencia empresarial (Business Intelligence) • Cuadro de mando integral • Sistemas de información ejecutiva • Sistemas de información hospitalaria • Sistema de información • Almacén de datos (Datawarehouse) • Data mart • Control de gestión • Teoría de la decisión • Iconografía de las correlaciones

Referencias [1] Alter, S. L. (1980). Decision support systems: current practice and continuing challenges. Reading, Mass., Addison-Wesley Pub. [2] Druzdzel, M. J. and R. R. Flynn (1999). Decision Support Systems. Encyclopedia of Library and Information Science. A. Kent, Marcel Dekker, Inc. [3] Finlay, P. N. (1994). Introducing decision support systems. Oxford, UK Cambridge, Mass., NCC Blackwell; Blackwell Publishers. [4] Turban, E. (1995). Decision support and expert systems: management support systems. Englewood Cliffs, N.J., Prentice Hall. ISBN 0-02-421702-6 [5] Little, J.D.C.(1970, April). "Models and Managers:The Concept of a Decision Calculus." Management Science, Vol.16,NO.8 [6] Keen, P. G. W. (1978). Decision support systems: an organizational perspective. Reading, Mass., Addison-Wesley Pub. Co. ISBN 0-201-03667-3 [7] Moore, J.H.,and M.G.Chang.(1980,Fall)."Design of Decision Support Systems." Data Base,Vol.12, Nos.1 and 2. [8] Sprague, R. H. and E. D. Carlson (1982). Building effective decision support systems. Englewood Cliffs, N.J., Prentice-Hall. ISBN 0-13-086215-0 [9] Keen, P. G. W. (1980). Decision support systems: a research perspective. Decision support systems : issues and challenges. G. Fick and R. H. Sprague. Oxford ; New York, Pergamon Press. [10] Power, D. J. (1997). What is a DSS? The On-Line Executive Journal for Data-Intensive Decision Support 1(3).

[11] Power, D.J. A Brief History of Decision Support Systems (http:/ / DSSResources. COM/ history/ dsshistory. html) DSSResources.COM, World Wide Web, version 2.8, May 31, 2003. [12] Haettenschwiler, P. (1999). Neues anwenderfreundliches Konzept der Entscheidungsunterstützung. Gutes Entscheiden in Wirtschaft, Politik und Gesellschaft. Zurich, vdf Hochschulverlag AG: 189-208. [13] Power, D. J. (2002). Decision support systems: concepts and resources for managers. Westport, Conn., Quorum Books. [14] Gachet, A. (2004). Building Model-Driven Decision Support Systems with Dicodess. Zurich, VDF. [15] Stanhope, P. (2002). Get in the Groove: building tools and peer-to-peer solutions with the Groove platform. New York, Hungry Minds [16] Haag, Cummings, McCubbrey, Pinsonneault, Donovan (2000). Management Information Systems: For The Information Age. McGraw-Hill Ryerson Limited: 136-140. ISBN 0-07-281947-2 [17] Haettenschwiler, P. (1999). Neues anwenderfreundliches Konzept der Entscheidungsunterstützung. Gutes Entscheiden in Wirtschaft, Politik und Gesellschaft. Zurich, vdf Hochschulverlag AG: 189-208. [18] Marakas, G. M. (1999). Decision support systems in the twenty-first century. Upper Saddle River, N.J., Prentice Hall. Sistemas de soporte a decisiones 253

Bibliografía adicional • Alter, S. Transforming DSS jargon into principles for DSS success (1994), en: • P. Gray (Ed.), Decision Support and Executive Information System, Prentice-Hall, Englewood Cliffs, NJ, pp. 2-26. • Turban & Aronson. Decision Support Systems and Intelligent Systems (2001). Upper Saddle River, NJ: Prentice-Hall. • Turban, McLean & Wetherbe. Information Technology for Management (2002). Massachusetts: Wiley.

Enlaces externos

• Principios para el éxito de un Sistema de Soporte a la Decisión (http:/ / www. gestiopolis. com/ canales2/

gerencia/ 1/ ddsirwing. htm)

Apuesta de Pascal

La apuesta de Pascal es un argumento creado por Blaise Pascal en una discusión sobre la creencia en la existencia de Dios, basado en el supuesto de que la existencia de Dios es una cuestión de azar. El argumento plantea que, aunque no se conoce de modo seguro si Dios existe, lo racional es apostar que sí existe. "La razón es que, aún cuando la probabilidad de la existencia de Dios fuera extremadamente pequeña, tal pequeñez sería compensada por la gran ganancia que se obtendría, o sea, la gloria eterna."[1] Básicamente, el argumento plantea cuatro escenarios:

• Puedes creer en Dios; si existe, entonces irás al cielo. • Puedes creer en Dios; si no existe, entonces no ganarás nada. • Puedes no creer en Dios; si no existe, entonces tampoco ganarás nada. • Puedes no creer en Dios; si existe, entonces no irás al cielo.[2]

Blaise Pascal argumentaba que es mejor "apostar" por creer en Dios que no hacerlo. Apuesta de Pascal 254

Dios existe (Dios) Dios no existe (¬Dios)

Creer en Dios (Creer) + ∞ (CIELO) - N (NADA)

No creer en Dios (¬Creer) − N (NO-CIELO: LIMBO, PURGATORIO, NADA) − ∞ (NO-CIELO: INFIERNO) + N (NADA)

La apuesta de Pascal fue expresada por el propio filósofo de la siguiente manera: Vous avez deux choses à perdre : le vrai et le bien, et deux choses à engager : votre raison et votre volonté, votre connaissance et votre béatitude; et votre nature a deux choses à fuir : l'erreur et la misère. Votre raison n'est pas plus blessée, en choisissant l'un que l'autre, puisqu'il faut nécessairement choisir. Voilà un point vidé. Mais votre béatitude ? Pesons le gain et la perte, en prenant croix que Dieu est. Estimons ces deux cas : si vous gagnez, vous gagnez tout; si vous perdez, vous ne perdez rien. Gagez donc qu'il est, sans hésiter. », Pensées Blaise Pascal (1670) Traducido quiere decir lo siguiente: Usted tiene dos cosas que perder: la verdad y el bien, y dos cosas que comprometer: su razón y su voluntad, su conocimiento y su bienaventuranza; y su naturaleza posee dos cosas de las que debe huir: el error y la miseria. Su razón no está más dañada, eligiendo la una o la otra, puesto que es necesario elegir. He aquí un punto vacío. ¿Pero su bienaventuranza? Vamos a pesar la ganancia y la pérdida, eligiendo cruz (de cara o cruz) para el hecho de que Dios existe. Estimemos estos dos casos: si usted gana, usted gana todo; si usted pierde, usted no pierde nada. Apueste usted que Él existe, sin titubear. Pensamientos. Blaise Pascal (1670)

Análisis con la teoría de la decisión A diferencia de otro tipo de apuesta, el argumento pascaliano es esencialmente matemático. Las posibilidades definidas por la Apuesta de Pascal pueden ser pensadas como una elección bajo incertidumbre con los valores de la siguiente matriz de decisiones. (Pascal nunca mencionó al infierno, así como tampoco aclaró si dado "Dios existe + Vivir como si Dios no existe" la esperanza de ganancia infinita sería suficiente para aclarar su punto.)

Dios existe (G) Dios no existe (~G)

Vivir como si Dios existe (B) +∞ (cielo) -N (nada)

Vivir como si Dios no existe (~B) Sup. -N +N (nada) (limbo/purgatorio) o −∞ (infierno)

Dados estos valores, la opción de vivir como si Dios existiera (B) domina la opción de vivir como si Dios no existiera (~B). En otras palabras, el valor esperado ganado por elegir B es siempre más grande o igual a aquel derivado de elegir ~B, sin importar las probabilidades de que Dios exista. De hecho, acorde a la teoría de la decisión, el único valor que importa en la matriz es el +∞. Cualquier matriz del siguiente tipo (donde f , f , y f son todos números finitos positivos o finitos negativos) resulta en (B) como la única 1 2 3 decisión racional.[3] Apuesta de Pascal 255

Dios existe (G) Dios no existe (~G)

Vivir como si Dios existe (B) +∞ f 1 Vivir como si Dios no existe (~B) f f 2 3

El debate generado entre matemáticos, filósofos y teólogos subsiste hasta hoy día.[4] Acorde a la biografía de Norman Macrae,[5] el matemático John von Neumann -uno de los fundadores de la teoría de los juegos- se convirtió al catolicismo en las cercanías de la muerte, bajo los auspicios de un monje benedictino, gracias a haber analizado en profundidad la Apuesta de Pascal.

Controversias sobre la apuesta de Pascal

La réplica a la compensación de la creencia El ateo, etólogo, zoólogo y divulgador Richard Dawkins, creador de la teoría de sociobiología del gen egoísta, usa la hipótesis de que, en el caso de la real existencia de un ser superior, éste en vez de premiar la inteligencia de una persona que use la apuesta de Pascal, la castigue debido a la hipocresía de una persona al creer únicamente para ganar algo. Afirma a la vez que, de nuevo si realmente existe este Dios, este apreciaría más un personaje no creyente, ya que es honesto y valiente al mantener su posición de no creyente ante las diferentes amenazas del "Zeitgeist" (espíritu de la época en alemán original). Simplemente al encontrarse con este improbable ser diría "No tenía ninguna prueba de tu existencia". Esto dejaría a la matriz inicial como imprecisa, ya que no incluiría la posibilidad de un Dios que recompense al de honesto razonamiento o que castigue al de creencias deshonestas. Una matriz más precisa sería la siguiente:

Dios recompensa a los teístas Dios recompensa a los ateístas Dios no existe

Creencia +∞ (cielo) ?? no especificado tal vez -N (limbo/purgatorio) o −∞ -N (infierno)

No-Creencia o ?? no especificado tal vez -N (limbo/purgatorio) o −∞ +∞ (cielo) -N duda (infierno)

Los defensores de la Apuesta de Pascal replican que dicho Dios hipotético y no-histórico no está respaldado por las genuinas religiones históricas, y que por lo tanto deben dárseles una probabilidad cero, o más bien una probabilidad infinitesimal. La discusión se mueve entonces a qué método racional usan los defensores para asignar una probabilidad a algo que es inaccesible para el conocimiento humano.

La azarosidad de la existencia de Dios El filósofo argentino Mario Bunge señala que el supuesto en el que se basa el razonamiento de Pascal, que la existencia de Dios es una cuestión de azar, "es a la vez científicamente falso, filosóficamente confuso, moralmente dudoso y teológicamente blasfemo".[6] Sería científicamente falso porque ninguna ciencia puede medir o calcular la probabilidad de la existencia de Dios. Sería filosóficamente confuso porque el argumento incluye la confusión entre la plausibilidad de una proposición y la probabilidad de un hecho. Sería moralmente dudoso porque los creyentes religiosos honestos se muestran reticentes respecto a la sugerencia de creer en Dios porque resulta conveniente. Y, finalmente, sería teológicamente blasfemo porque los teólogos sostienen que Dios no es ni mucho menos una criatura casual, sino el único ser necesario. Contra este tipo de objeciones los apologistas pascalianos han recordado a sus críticos, nuevamente, que la "Apuesta de Pascal" no pretende ser una razón suficiente para la creencia en el cristianismo, sino precisamente una respuesta Apuesta de Pascal 256

utilitarista, bien sea a la utilización del utilitarismo para intentar negar la fe cristiana, bien por la aplicación a un particular contexto histórico de debate religioso. El argumento de Pascal sólo sería válido para los agnósticos que deben considerar los beneficios de practicar la fe por poco que confíen en ello. En cambio, un ateo descartaría el razonamiento de entrada puesto que para él la probabilidad de que exista Dios es nula. Los defensores de la apuesta argumentan que Pascal no pretendió probar científicamente la existencia de Dios, ni tampoco derivar filosóficamente las probabilidades de la existencia del dios cristiano de la plausibilidad de una toma de decisión frente a ciertas probabilidades, así como tampoco caer en un casualismo teológico ya que la apuesta va dirigida a aquellos que enfrentan "la posibilidad de la existencia de Dios" y no a "la existencia de un Dios probable". Pascal comienza con la premisa de que la existencia o no-existencia de Dios no es comprobable por la razón humana, desde el momento en que la esencia de Dios es "infinitamente incomprensible". En cuanto la razón no puede resolver la cuestión, uno debe "apostar", sea suponiendo o haciendo un "salto de fe". Finalmente Pascal jamás habría defendido, continúan sus defensores, una fe religiosa por conveniencia ya que no es la creencia en Dios en sí misma la que produce la salvación ni la no-creencia en Dios la condena,[7] sino las causas de este rechazo (la elección de la nada en un nulo horizonte de trascendencia implícito en la inexistencia del dios cristiano) y las posibles consecuencias de la misma (la privación de la vista de Dios), con lo cual su apuesta es sólo una etapa intermedia a un verdadero proceso de conversión. En tal caso la contracrítica se resume a que no se puede afirmar, sin caer en contradicción, que Pascal pretendiera probar la existencia de Dios con la conveniencia de apostar por Dios y que, a la vez, dicha existencia fuera para él sólo una probabilidad útil: Dices que eres de tal contextura que no aciertas a creer. Pues aprende al menos a tenerte por tal: pues aún cuando la razón te guía sin embargo no sabes decidirte. Trabaja pues por convencerte, no aumentando las pruebas de la existencia de Dios, sino disminuyendo tus pasiones.

La exclusión de los no-cristianos Para otros críticos, la apuesta de Pascal no toma en consideración la existencia de ningún Dios diferente al que postula el judeocristianismo, con lo que se cometería así la falacia del falso dilema. Esto ha sido muy criticado, ya que el hecho de creer en el Dios judeocristiano no salva de caer en algún otro infierno de otra religión. A pesar de esta crítica los apologistas de la apuesta replican que, entre las opciones rivales, sólo aquellas que premian con felicidad infinita afectan a la elección dominante en la matriz de posibilidades. Argumentan que ni la finita semi-dicha de la promesa de Odín ni la de de Kali, pueden ser contendientes con la infinita dicha ofrecida por Jesucristo, así que no la toman en consideración.[8] También, las felicidades infinitas que los dioses rivales pueden ofrecer serían mutuamente excluyentes. Si la promesa de la dicha de Cristo puede ser considerada concurrente con la de Yavé y Allah (los tres identificados como dioses de Abraham), no hay conflicto en la matriz de decisiones en el caso donde el costo de creer en el dios equivocado es neutral (limbo, purgatorio, muerte espiritual), ya que esto implicaría un costo infinito sólo en el caso en el que no creer en el dios correcto resultara en castigo (infierno). Interpretaciones ecuménicas de la apuesta de Pascal[9] incluso sugieren que es aceptable creer en un Dios anónimo, o en un Dios con el nombre equivocado, mientras que este comparta las mismas características esenciales (ser supremo, omnipotente, omnipresente y omnisciente) con el Dios cristiano (incluso si se reduce al mínimo común denominador de la visión monoteísta aristotélica de Dios, ser necesario y causa de todas las cosas) En pos de la igualdad entre todas las concepciones posibles de dios, incluso las no-históricas, se orientan críticas como la del filósofo randiano George Smith, creador en su libro Atheism: The Case Against God de una "contraapuesta de Pascal" conocida como la apuesta de Smith. A los efectos de la argumentación pro-pascaliana la posibilidad de un "Dios impersonal" es irrelevante debido a que, siendo el alma lo que se "apuesta", un dios impersonal no asegura la eternidad de la consciencia, y por ende se iguala esta probabilidad con todas las conclusiones que se pudieran derivar de la primera posibilidad (que el Dios cristiano no exista). En cuanto a la supuesta inmoralidad del Dios descrito por Pascal implicadas en la tercera y cuarta opción irían en contradicción, para los defensores del existencialismo pascaliano, con la aclaración del propio Pascal acerca de la perversión intrínseca de la elección de la inmanencia y el error de lectura ya que el infierno no es la condena de Pascal por una Apuesta de Pascal 257

mala apuesta. De todas las defensas a Pascal y de las objeciones a la tesis del libro de George Smith según las cuales no se infieren sus conclusiones de las premisas,[10] se pueden resumir diferentes respuestas a cada probabilidad de la contra-apuesta de Smith condensadas en las mismas y también de las citas más existencialistas del propio Pascal, esto es: si "Dios no existe", hay tres implicaciones: 1) Las vidas finitas ya estarían per se "perdidas" lo cual quita toda importancia a los esfuerzos por agradar a Dios. 2) Dichos esfuerzos no son tales ya que la felicidad es en cualquier caso mayor y sublime. ¿Qué mal te vendrá de tomar este partido? Serás fiel, honrado, humilde, agradecido, bienhechor, sincero y veraz. Sin duda que no andarás metido en los gustos apestados, en la gloria, en las delicias. ¿Pero piensas que no gozarás de otros mayores deleites? Te aseguro que aún en esta vida ganarás; y que a cada paso que dieres en este camino, verás tanta certidumbre de la ganancia, y tan gran vacío en lo que aventurabas, que al fin vendrás a conocer que habías apostado por una cosa cierta e infinita, y que nada has dado por conseguirla.[11] 3) La misma probabilidad de la inexistencia de Dios se invalida, dentro del argumento, por la sola probabilidad de la existencia de Dios. Se debe creer en Dios si hay una mínima posibilidad diferente de cero, de que exista; porque el hipotético infinito de la vida celestial minimiza cualquier sacrificio de una vida finita. Las objeciones de los ateístas que buscan refutar la apuesta de Pascal argumentan que la felicidad no es algo inherente a la creencia en Dios: reflexionan que el cristianismo (como otras religiones) puede reducir la felicidad por la supresión de la libertad que implicaría una moral revelada. También argumentan que el ateísmo puede brindar una mayor ganancia psíquica si se valora más la inmanencia que la trascendencia. Muchos filósofos argumentan que las vidas finitas no están perdidas y que tienen un propósito. Otros reflexionan que, si bien la vida no tiene un propósito, es un fin en sí misma,[12] por lo cual debe ser disfrutada al máximo, y el tiempo malgastado significa el sacrificio máximo que uno puede entregar en una vida finita. Los que abogan por la trascendencia, frente al mismo amor a la vida, reaccionan despreciando la existencia de una vida finita. Muchos autores ateos como Fernando Savater explican, en forma parcialmente similar a Pascal (en su consideración del cristianismo como la religión más razonable), que el origen del espíritu religioso es una necesidad ante la existencia de la muerte.

Véase también • Apuesta atea • Argumento ontológico • Christopher Hitchens • Inmanencia • Richard Dawkins • Teoría de juegos • Trascendencia Apuesta de Pascal 258

Referencias [1] Mario Bunge, Diccionario de filosofía, 3a. ed., México, Siglo XXI, 2001, p. 11.

[2] Jeff Jordan, Pascal's Wager: Pragmatic Arguments and Belief in God, Oxford University Press, 2006, p. 154 (http:/ / books. google. com. ar/

books?id=bzbNDZGcFQ0C& pg=PT166& dq="pascal+ does+ not+ include+ hell+ as+ part+ of+ the+ wager"#v=onepage)

[3] Alan Hájek, "Pascal's Wager", Stanford Encyclopedia of Philosophy, §4 (http:/ / plato. stanford. edu/ entries/ pascal-wager/ index. html#4)

[4] Alan Dawrst, "A Defense of Pascalian Reasoning" (http:/ / www. utilitarian-essays. com/ pascal. html) [5] Norman Macrae, John von Neumann: The Scientific Genius Who Pioneered the Modern Computer, Game Theory, Nuclear Deterrence, and Much More, Amer Mathematical Society, 2000, pp. 268 y ss [6] Mario Bunge, op cit. [7] Jeff Jordan, Pascal's Wager: Pragmatic Arguments and Belief in God, Oxford University Press, 2006, p. 29

[8] Alan Hájek, "Pascal's Wager", Stanford Encyclopedia of Philosophy, §2, Note 7 (http:/ / plato. stanford. edu/ entries/ pascal-wager/ notes. html#7) [9] Jeff Jordan, Gambling on God: Essays on Pascal's Wager, 1994, Rowman & Littlefield.

[10] Anthony Flood, "The Fatal Flaws of George Smith's Atheism: The Case against God" (http:/ / www. anthonyflood. com/ smithatheism. htm)

[11] Alan Hájek, "Pascal's Wager", Stanford Encyclopedia of Philosophy, §1 (http:/ / plato. stanford. edu/ entries/ pascal-wager/ index. html#1)

[12] Raymond Newman, "Entrevista con Ayn Rand" (http:/ / es. paperblog. com/

la-vida-no-tiene-proposito-la-vida-es-un-fin-en-si-mismo-98912/ )

Albert W. Tucker

Albert W. Tucker

Nacimiento 28 de noviembre de 1905 Ontario, Canadá

Fallecimiento 25 de enero, 1995 Highstown, N.J., Estados Unidos

Residencia Estados Unidos

Nacionalidad Estadounidense

Campo Matemático

Instituciones Universidad de Princeton

Alma máter Universidad de Princeton

Supervisor doctoral Solomon Lefschetz

Estudiantes David Gale destacados Marvin Minsky John Forbes Nash Torrence Parsons Lloyd Shapley

Conocido por Dilema del prisionero Condiciones de Karush-Kuhn-Tucker

Albert William Tucker (28 de noviembre de 1905 – 25 de enero de 1995) fue un matemático estadounidense nacido en Canada que realizó importanes contribuciones a la Topología, Teoría de juegos y a la Programación no lineal. Albert W. Tucker 259

Biografía Albert Tucker nació en Ontario, Canadá, y se graduó en la Universidad de Toronto en 1928. En 1932, completó su doctorado en la Universidad de Princeton bajo la supervisión de Solomon Lefschetz, con una tesis de nombre "Aproximación abstracta a las variedades" (en inglés "An Abstract Approach to Manifolds"). En 1932-33 fue becario nacional de investigación en Cambridge, Harvard, y en la Universidad de Chicago. En 1933 vuelve a Princeton para incorporarse a la Universidad donde permaneció hasta 1970. durante 20 años mantuvo la cátedra del departamento de matemáticas, algo excepcional en dicha universidad. Tucker conocía a todo el mundo y tenía una gran memoria lo que le convertía en una fuente magnífica de historias de la comunidad matemática. Sus estudiantes de doctorado incluyen Michel Balinski, David Gale, Alan Goldman, Stephen Maurer, Marvin Minsky, el premio nobel John Nash, y Torrence Parsons. En 1950, Tucker dio el nombre "Dilema del prisionero" al modelo de cooperación y conflicto de Merrill M. Flood y Melvin Dresher, la más conocida paradoja teórica de juegos. También es muy conocido por las Condiciones de Karush-Kuhn-Tucker, un resultado básico de programación no lineal, que fue publicado en las actas de una conferencia, en lugar de en una revista científica, como suele ser habitual. En los años sesenta, se involucro fuertemente en labores educativas matemáticas y fue presidente de varios comités y asociaciones matemáticas entre las cuales destaca la American Mathematical Society en 1961-62. Albert Tucker recibió un título honorífico por el Dartmouth College. Murió en Hightstown en 1995 a la edad de 89.

Enlaces externos • News from PRINCETON UNIVERSITY [1] • Mathematics Genealogy Project [2] • A Guide to Albert William Tucker Papers [3] • Extract from an obituary [4] • Kuhn Tucker conditions [5] • The Princeton Mathematics Community in the 1930s [6] Contiene una serie de entrevistas con Tucker (en inglés).

References

[1] http:/ / www. princeton. edu/ pr/ news/ 95/ q1/ 0126tucker. html

[2] http:/ / www. genealogy. math. ndsu. nodak. edu/ html/ id. phtml?id=8581

[3] http:/ / www. lib. utexas. edu/ taro/ utcah/ 00301/ cah-00301. html#a0

[4] http:/ / www. chass. utoronto. ca/ ~osborne/ MathTutorial/ TUCKER. HTM

[5] http:/ / www. chass. utoronto. ca/ ~osborne/ MathTutorial/ MOIF. HTM

[6] http:/ / infoshare1. princeton. edu/ libraries/ firestone/ rbsc/ finding_aids/ mathoral/ pm02. htm Programación no lineal 260 Programación no lineal

En matemáticas, Programación no lineal (PNL) es el proceso de resolución de un sistema de igualdades y desigualdades sujetas a un conjunto de restricciones sobre un conjunto de variables reales desconocidas, con un función objetivo a maximizar (o minimizar), cuando alguna de las restricciones o la función objetivo no son lineales.

Formulación matemática del problema El problema de programación no lineal puede enunciarse de una forma muy simple:

maximizar una función objetivo o

minimizar una función objetivo (de coste) donde

Métodos de resolución del problema Si la función objetivo f es lineal y el espacio restringido es un politopo, el problema es de Programación lineal y puede resolverse utilizando alguno de los bien conocidos algoritmos de programación lineal. Si la función objetivo es concava (problema de maximización), o convexa (problema de minimización) y el conjunto de restricciones es convexo, entonces se puede utilizar el método general de Optimización convexa Existe una variedad de métodos para resolver problemas no convexos. Uno de ellos consiste en utilizar formulaciones especiales de problemas de programación lineal. Otro método implica el uso de técnicas de Ramificación y poda, cuando el problema se divide en subdivisiones a resolver mediante aproximaciones que forman un límite inferior del coste total en cada subdivisión. Mediante subdivisiones sucesivas, se obtendrá una solución cuyo coste es igual o inferior que el mejor limite inferior obtenido por alguna de las soluciones aproximadas. Esta solución es óptima, aunque posiblemente no sea única. El algoritmo puede ser parado antes, con la garantía de que la mejor solución será mejor que la solución encontrada en un porcentaje acotado. Ello se utiliza en concreto en problemas importantes y especialmente difíciles y cuando el problema cuenta con costes inciertos o valores donde la incertidumbre puede ser estimada en un grado de fiabilidad apropiado. Las condiciones de Karush-Kuhn-Tucker proporcionan las condiciones necesarias para que una solución sea óptima. Programación no lineal 261

Ejemplos

Ejemplo bidimensional

Un problema sencillo puede definirse por las restricciones: x ≥ 0 1 x ≥ 0 2 x 2 + x 2 ≥ 1 1 2 x 2 + x 2 ≤ 2 1 2 con una función objetivo a ser maximizada f(x) = x + x 1 2 donde x = (x , x ) 1 2

La intersección de la línea con el espacio de restricciones representa la solución.

Ejemplo tridimensional

Otro problema simple se define por la restricciones:x 2 − x 2 + x 2 ≤ 2 1 2 3 x 2 + x 2 + x 2 ≤ 10 1 2 3 con una función objetivo a ser maximizada f(x) = x x + x x 1 2 2 3 donde x = (x , x , x ) 1 2 3

Véase también

• Optimización La intersección de la superficie superior con el espacio de restricciones en el centro representa la • Ajuste de curvas solución.

• Método de mínimos cuadrados

Referencias • Avriel, Mordecai (2003). Nonlinear Programming: Analysis and Methods. Dover Publishing. ISBN 0-486-43227-0. • Bazaraa, Mokhtar S. and Shetty, C. M. (1979). Nonlinear programming. Theory and algorithms. John Wiley & Sons. ISBN 0-471-78610-1. • Nocedal, Jorge and Wright, Stephen J. (1999). Numerical Optimization. Springer. ISBN 0-387-98793-2. • Bertsekas, Dimitri P. (1999). Nonlinear Programming: 2nd Edition. Athena Scientific. ISBN 1-886529-00-0. Programación no lineal 262

Enlaces externos • Preguntas frecuentes de programación no lineal (en inglés) [1] • Glosario de programación matemática (en inglés) [2] • Nonlinear Programming Survey OR/MS Today [3]

Software • AIMMS Optimization Modeling [4] AIMMS — Incluye programación no lineal en soluciones sectoriales (prueba gratis, licencia de prueba disponible); • AMPL solver software [5] - Gratis para estudiantes • GAMS [6] – Versión gratis disponible para estudiantes

References

[1] http:/ / www-unix. mcs. anl. gov/ otc/ Guide/ faq/ nonlinear-programming-faq. html

[2] http:/ / glossary. computing. society. informs. org/

[3] http:/ / www. lionhrtpub. com/ orms/ surveys/ nlp/ nlp. html

[4] http:/ / www. aimms. com/ operations-research/ mathematical-programming/ nonlinear-programming

[5] http:/ / www. ampl. com/

[6] http:/ / www. gams. com/

Programación neurolingüística

La programación neurolingüística (PNL) es un modelo de comunicación interpersonal que se ocupa fundamentalmente de la relación entre los comportamientos exitosos y las experiencias subjetivas —en especial, modelos de pensamiento— subyacentes. También constituye un sistema de terapia alternativa que pretende educar a las personas en la autoconciencia y la comunicación efectiva, así como cambiar sus modelos de conducta mental y emocional.[1]

Neurolingüistas destacados • • Steve Andreas • Richard Bandler • Nelly Cedeño • Robert Dilts • Milton H. Erickson • John Grinder • Cal Lightman • Paul McKenna Programación neurolingüística 263

Véase también • Ciencia cognitiva • Control mental • Técnica de liberación emocional • Terapia familiar • Terapia sistémica

Bibliografía • Carroll R. (2003) The Skeptic's Dictionary: A Collection of Strange Beliefs, Amusing Deceptions, and Dangerous Delusions pp. 253 • Della Sala (Editor) (2007) Tall Tales about the Mind and Brain: Separating Fact from Fiction Oxford University Press pp. xxii • Fala, N. C., Norcross, J. C., Koocher, G. P., & Wexler, H. K. (2008, August). What doesn’t work? Discredited treatments in the addictions. Poster presented at the 116th annual convention of the American Psychological Association, Boston, MA. as cited in Glasner-Edwards. S., and Rawson.R. (2010) Evidence-based practices in addiction treatment: Review and recommendations for public policy. Health Policy. Volume 97, Issues 2-3, October 2010, Pages 93–104 pp97 • Lum, C. (2001). Scientific Thinking in Speech and Language Therapy. Lawrence Erlbaum Associates. Mahwah, New Jersey London) pp. 16 • Singer, Margaret & Janja Lalich (1997). Crazy Therapies: What Are They? Do They Work?. Jossey Bass, p167–195. ISBN 0-7879-0278-0. pp. 169 • Stollznow.K. (2010) Not-so Linguistic Programming: Skeptic vol 15, Number 4 2010. Pp7 • William F. Williams, Ed. (2000) Encyclopedia of Pseudoscience publ. Fitzory Dearborn Publishers, ISBN 978-1-57958-207-4 pp. 235 • Witkowski "Thirty-Five Years of Research on Neuro-Linguistic Programming. NLP Research Data Base. State of the Art or Pseudoscientific Decoration?" Polish Psychological Bulletin 2010, vol 41 (2), 58–66 pp. 65 • Andreas, Steve & Charles Faulkner (Eds.) (1996). NLP: the new technology of achievement. New York, NY: HarperCollins. ISBN 0-688-14619-8. • Austin, A. (2007). The Rainbow Machine: Tales from a Neurolinguist's Journal. UK: Real People Press. ISBN 0911226443. • Bandler, R., Grinder, J. (1979) Frogs into Princes: Neuro Linguistic Programming. Real People Press. 149 pages. ISBN 0-911226-19-2 • Bandler, R., Grinder, J. (1975) The Structure of Magic I: A Book About Language and Therapy Science and Behavior Books. 198 pages. ISBN 0-8314-0044-7 • Bandler, R., Grinder, J. (1981) Reframing: Neuro-Linguistic Programming and the Transformation of Meaning Real People Press. ISBN 0-911226-25-7 • Bandler, R., Andreas, S. (ed) and Andreas, C. (ed) (1985) Using Your Brain-for a Change ISBN 0-911226-27-3 • Bostic St Clair, Carmen & John Grinder (2002). Whispering in the Wind. Scotts Valley, CA: J & C Enterprises. ISBN 0-9717223-0-7. • Bradbury, A., Neuro-Linguistic Programming: Time for an Informed Review. Skeptical Intelligencer 11, 2008. • Burn, Gillian (2005). NLP Pocketbook. Alresford, Hants SO24 9JH, United Kingdom: Management Pocketbooks Ltd. ISBN 978-1-903776-31-5. • Dilts, R., Hallbom, T., Smith, S. (1990) Beliefs: Pathways to Health & Well-being • Dilts, R. (1990) Changing belief systems with NLP Meta Publications. ISBN 0-916990-24-9 • Dilts, Robert B & Judith A DeLozier (2000). Encyclopaedia of Systemic Neuro-Linguistic Programming and NLP New Coding. NLP University Press. ISBN 0-9701540-0-3. Programación neurolingüística 264

• Druckman, Daniel & John A Swets, (Eds) (1988). Enhancing Human Performance: Issues, Theories, and [2] Techniques . Washington DC: National Academy Press. ISBN 0-309-03792-1. • Ellerton PhD, CMC, Roger (2005). Live Your Dreams Let Reality Catch Up: NLP and Common Sense for [3] Coaches, Managers and You . Ottawa, Canada: Trafford Publishing. ISBN 1-4120-4709-9. • Grinder, J., Bandler, R. (1976) Patterns of the Hypnotic Techniques of Milton H. Erickson Volume I ISBN 0-916990-01-X • Grinder, John & Judith DeLozier (1987). Turtles All the Way Down: Prerequisites to Personal Genius. Scoots Valley, CA: Grinder & Associates. ISBN 1-55552-022-7. • Grinder, M. Lori Stephens (Ed) (1991) Righting the Educational Conveyor Belt ISBN 1-55552-036-7 • Bostic St Clair, Carmen & John Grinder (2002). Whispering in the Wind. Scotts Valley, CA: J & C Enterprises. ISBN 0-9717223-0-7. • Grinder, John & Richard Bandler (1975). The Structure of Magic II: A Book About Communication and Change. Palo Alto, CA: Science & Behavior Books. ISBN 0-8314-0049-8. • Laborde, G. (1987) Influencing with Integrity: Management Skills for Communication and Negotiation • Satir, V., Grinder, J., Bandler, R. (1976) Changing with Families: A Book about Further Education for Being Human Science and Behavior Books. ISBN 0-8314-0051-X • Wake, L. (2008). Neurolinguistic Psychotherapy: A Postmodern Perspective. USA: Routledge. ISBN 0415425417. • Bradley, E J & Heinz J Biedermann (1985). «Bandler and Grinder's Communication Analysis: Its historical [4] context and contribution». Psychotherapy, Theory and Research 22 (1): pp. 59–62. doi: 10.1037/h0088527 . • Platt, Garry (2001). «NLP – Neuro Linguistic Programming or No Longer Plausible?». Training Journal. May 2001: pp. 10–15. See NLP – Neuro Linguistic Programming or No Longer Plausible? [5] • Morgan, Dylan A (1993). «Scientific Assessment of NLP [6]». Journal of the National Council for Psychotherapy & Hypnotherapy Register. Spring 1993. Archivado del original [7] el 16 December 2002. • Von Bergen, C W, Barlow Soper, Gary T Rosenthal, Lamar V Wilkinson (1997). «Selected alternative training [8] techniques in HRD». Human Resource Development Quarterly 8 (4): pp. 281–294. doi: 10.1002/hrdq.3920080403 .

Referencias • Este artículo fue creado a partir de la traducción del artículo Neuro-linguistic programming de la Wikipedia en inglés, bajo la licencia Creative Commons Atribución Compartir Igual 3.0 Unported y la licencia de documentación libre de GNU.

[1] Oxford English Dictionary, Draft revision September, 2009, "neurolinguistic programming n. a model of interpersonal communication chiefly concerned with the relationship between successful patterns of behaviour and the subjective experiences (esp. patterns of thought) underlying them; a system of alternative therapy based on this which seeks to educate people in self-awareness and effective communication, and to

change their patterns of mental and emotional behaviour." (http:/ / dictionary. oed. com/ cgi/ entry/ 00323586/ 00323586se1?single=1&

query_type=word& queryword=Neurolinguistic+ programming& first=1& max_to_show=10& hilite=00323586se1)

[2] http:/ / www. nap. edu/ books/ 0309037921/ html

[3] http:/ / www. live-your-dreams. biz/

[4] http:/ / dx. doi. org/ 10. 1037%2Fh0088527

[5] http:/ / www. sueknight. co. uk/ Archives/ Publications/ Articles/ NLP_Plausible. htm

[6] http:/ / web. archive. org/ web/ 20021216094638/ http:/ / easyweb. easynet. co. uk/ ~dylanwad/ morganic/ art_nlp. htm

[7] http:/ / easyweb. easynet. co. uk/ ~dylanwad/ morganic/ art_nlp. htm

[8] http:/ / dx. doi. org/ 10. 1002%2Fhrdq. 3920080403 John Grinder 265 John Grinder

John Thomas Grinder (10 de enero 1940), es un anglicista y lingüista estadounidense conocido principalmente por ser el cofundador, (junto a Richard Bandler), de la técnica denominada programación neurolingüística. Grinder realizó trabajos como estudiante en las gramáticas generativas transformacionales de más tarde y ya siendo docente el la Universidad de California en Santa Cruz conoció al entonces estudiante de psicología Richard Bandler e iniciaron el trabajo intelectual conjunto, primeramente a través de una intervisión (mutua supervisión, u observación) de las sesiones grupales de terapia gestáltica que dirigían. Ambos cambiaron de Universidad, trasladándose a San Francisco por la misma época. A principios de los 60 Grinder se gradúa en Psicología en la Universidad de San Francisco, poco después ingresa en las fuerzas armadas de los Estados Unidos. Durante la Guerra Fría sirve como capitán en Europa en las fuerzas especiales de donde pasa aparentemente a la agencia de inteligencia americana. A finales de los 60 vuelve a la universidad doctorándose en lingüística en la Universidad de California. En agosto de 2006 visitó España y realizó la I Certificación Internacional en Coaching con programación neurolingüística. En dicha promoción participaron prestigiosos coaches como Salva Gálvez o Santiago Aldekoa. John Grinder estuvo acompañado en dicha ocasión por su mujer, Carmen Bostic, y también por el mexicano Edmundo Velasco. Dicha certificación se hizo después de que en el Estado de Tamaulipas, México, un grupo de profesores de Educación Básica culminaban con éxito su Certificación Internacional, dando inicio a los trabajos de instrucción en coaching educativo, a los docentes de todo el estado de Tamaulipas.

Obras

Lingüística John Grinder (1969). "Conjunct splitting in Samoan". Linguistic Notes from La Jolla (La Jolla, CA) (University of California, San Diego, Dept. of Linguistics) 2: 46–79. OCLC 16334022. John Grinder (1970). "Super Equi-NP Deletion". Papers from the Sixth Regional Meeting, Chicago Linguistic Society. University of Chicago. pp. 297–317. John Grinder (1971). On Deletion Phenomena in English. Dissertation Abstracts: Section A. Humanities and Social Science (PhD. linguistics). 32: 2077A. University of California, San Diego. OCLC 17641707. John Grinder, Paul Postal (Winter, 1971). "A Global Constraint on Deletion". Linguistic Inquiry (MIT Press) 2 (1):

110–112. http:/ / www. jstor. org/ stable/ 4177614.

John Grinder (Autumn, 1971). "Double Indices". Linguistic Inquiry (MIT Press) 2 (4): 572. http:/ / www. jstor. org/

stable/ 4177667.

John Grinder (Spring, 1971). "Chains of Co-reference". Linguistic Inquiry (MIT Press) 2 (2): 183–202. http:/ / www.

jstor. org/ stable/ 4177624. John Grinder, Paul Postal (Summer, 1971). "Missing Antecedents". Linguistic Inquiry (MIT Press) 2 (3): 269–312.

http:/ / www. jstor. org/ stable/ 4177639. John Grinder (1971). "A Reply to Super Equi-NP Deletion as Dative Deletion". in Douglas, A.. Papers from the Seventh Regional meeting, Chicago Linguistic Society. Chicago, Illinois.. pp. 101–111. John Grinder (1972). "On the Cycle in Syntax". in John P. Kimball. Syntax and Semantics I. New York, Academic Press. pp. 81–112. John Grinder and Suzette Elgin (1975). "Bully for Us". Syntax and Semantics (Los Angeles, CA: Academic Press) 4: 239–47. John Grinder 266

John Grinder, Suzette Elgin (1973). A Guide to Transformational Grammar: History, Theory, Practice. Austin, TX: Holt, Rinehart and Winston. ISBN 0030801265. John Grinder (1976). On deletion phenomena in English. Janua linguarum. Series minor. The Hauge: Mouton. ISBN 9027930058 OCLC 2807166. Frank H. Nuessel, Jr. (1974). Citation retrieved from Blackwell "Review: Grinder, J., and Elgin, S., (1973) A Guide to Transformational Grammar: History, Theory, Practice"". The Modern Language Journal (Blackwell) 58 (5):

282–283. http:/ / www. blackwellpublishing. com/ mlj/ newsearchres. asp?contenttype=RR&

topic=Theory%20AND%20Practice& searchtype=adv Citation retrieved from Blackwell. Gary Prideaux (1974). "Review: A Guide to Transformational Grammar: History, Theory, Practice". The Canadian Journal of Linguistics 19 (2): 193–205. Xohrab, P. D. (1986). "Verbal-phrase anaphora: linguistics or cognitive science?". Studies in Language 10 (2): 425–447.

Programación neurolingüística Bandler, Richard., y John Grinder (1975a). The Structure of Magic I: A Book About Language and Therapy. Palo Alto, CA: Science and Behavior Books. ISBN 0831400447. Bandler, Richard., and John Grinder (1975b). The Structure of Magic II: A Book About Communication and Change. Palo Alto, CA: Science and Behavior Books. ISBN 0-8314-0049-8. Satir, Virginia., Grinder, John., and Bandler, Richard. (1976). Changing with Families: a book about further education for being human. Palo Alto, CA: Science and Behavior Books. ISBN 0-8314-0051-X. Grinder, John., and Richard Bandler (1976). Patterns of the Hypnotic Techniques of Milton H. Erickson, M.D. Volume I. Cupertino, CA: Meta Publications. ISBN 1555520529. Grinder, John., Richard Bandler, and Judith Delozier (1977). Patterns of the Hypnotic Techniques of Milton H. Erickson, M.D. Volume II. Cupertino, CA: Meta Publications. ISBN 1555520537. John Grinder, and Richard Bandler (1979). Frogs into Princes: Neuro Linguistic Programming. Moab, UT: Real People Press.. pp. 194pp. ISBN 0-911226-19-2. Dilts, Robert., John Grinder, Richard Bandler, Leslie Cameron-Bandler, and Judith Delozier (1980). Neuro-Linguistic Programming: Volume I: The Study of the Structure of Subjective Experience. Scotts Valley, CA: Meta Publications. ISBN 0916990079. Grinder, John.; Richard Bandler; Connirae Andreas (ed.) (1981). Trance-Formations: Neuro-Linguistic Programming and the Structure of Hypnosis. Moab, UT: Real People Press. ISBN 0-911226-23-0. Grinder, John., and Richard Bandler (1983). Reframing: Neuro-linguistic programming and the transformation of meaning. Moab, UT: Real People Press. ISBN 0-911226-25-7.

Nueva NLP Grinder, John. and Judith DeLozier (1987). Turtles All the Way Down: Prerequisites to Personal Genius. Scotts Valley, CA: Grinder & Associates. ISBN 1-55552-022-7. Grinder, John., and Michael McMaster (1993). Precision: A New Approach to Communication: How to Get the Information You Need to Get Results. Scotts Valley, CA: Grinder & Associates. ISBN 1-55552-049-9. Charlotte Bretto Milliner (ed.)., John Grinder (ed.) and Sylvia Topel (ed.) (1994). Leaves before the wind: leading edge applications of NLP. Scotts Valley, CA: Grinder & Associates. ISBN 1555520510. Grinder, John., and Carmen Bostic St Clair (2001). Whispering in the Wind. Scotts Valley, CA: J & C Enterprises. ISBN 0-9717223-0-7. John Grinder 267

Tom Malloy, Carmen Bostic St Clair, John Grinder (2005). "Steps to an ecology of emergence". Cybernetics &

Human Knowing (Exeter, UK: Imprint Academic ISSN 0907-0877) 11(3): 102–119. http:/ / www. psych. utah. edu/

stat/ dynamic_systems/ Content/ examples/ E42_Manual/ Steps-to-an-Ecology-of-Emergence_online-format. pdf. Grinder, John., Carmen Bostic St Clair, and Tom Malloy. RedTail Math: the epistemology of everyday life (Working title).

Véase también • Programación neurolingüística

Milton H. Erickson

Milton H. Erickson

Nacimiento 5 de diciembre de 1901 Nevada Estados Unidos

Fallecimiento 25 de marzo de 1980 Arizona Estados Unidos

Campo Psiquiatría

Instituciones Hospital estatal de Worcester (Massachusetts)

Alma máter Universidad de Wisconsin-Madison

Milton Hyland Erickson, (n. 5 de diciembre de 1901 en Aurum, Nevada, (EE. UU.); † Phoenix, Arizona, (Estados Unidos) 1980) fue un médico e hipnoterapeuta estadounidense, innovador y pionero en cambiar las técnicas de hipnotismo aplicadas a la psicoterapia.

Biografía Erickson nació en 1901 en Aurum, una pequeña ciudad -ya desaparecida- de Nevada. Su familia, conformada por sus padres, siete hermanas y un hermano, emigró a Wisconsin,[1] donde sus padres tenían una granja y toda la familia participaba en los trabajos. Aquejado de poliomielitis a los 17 años,[2] y desahuciado por los médicos, tuvo tiempo y temple para recuperar los movimientos trabajando la introspección y el control mental, por lo que adquirió un modo de abordar las dificultades psíquicas de manera original y autosugestiva, habilidad o característica que luego aplicó para curar a sus pacientes.[3] Su fuerza de voluntad le permitió sobreponerse a la enfermedad y graduarse en medicina y psicología; trabajó como psiquiatra en numerosas instituciones y, más tarde, como profesor de psiquiatría. Milton H. Erickson 268

Hipnosis Insiste mucho en el papel que juega el inconsciente, entendido no a la manera de Freud sino como reservorio de recursos personales para resolver por sí mismo la problemática de cada individuo.[4] Milton Erickson sentó las bases de importantes líneas dentro de la psicoterapia breve. Entre los que se incluyen los siguientes enfoques psicoterapéuticos: programación neurolingüística, la Terapia Sistémico Estratégica, la Terapia orientada a las Soluciones entre otras fueron influidas por el pensamiento de Erickson.[5] El origen su particular estilo de terapia puede encontrarse en sus vivencias personales tan particulares y la forma en que enfrentó su enfermedad, y aunque el hipnotismo fue una herramienta importante, lo fundamental de su modelo terapéutico era el cambio en la otra persona a través de la relación interpersonal.[4] Su modelo terapéutico no responde a escuela clínica alguna, excluyéndose de la influencia del psicoanálisis, del conductismo y de la terapia sistémica.

Referencias [1] Thierry Melchior, Créer le réel. Hypnose et thérapie, Seuil, Paris, 1998 , p. 37 [2] Milton H. Erickson y Ernest L. Rossi. The collected papers of Milton H. Erickson on hypnosis. New York: Irvington; 1980. pág ix [3] Milton H. Erickson & Ernest Rossi, «Les expériences d'autohypnose de Milton H. Erickson », The American journal of clinical hypnosis, julio 1977, 20, p. 36-54

[4] HERNANDEZ CORDOBA, Ángela. Trascender los dilemas del poder y del terapeuta como experto en la psicoterapia sistémica (http:/ /

pepsic. bvs-psi. org. br/ scielo. php?script=sci_arttext& pid=S1657-92672007000200008& lng=pt& nrm=iso) (en español). Univ. Psychol. [online]. ago. 2007, vol.6, no.2 [citado 20 de enero 2010], p.285-293. ISSN 1657-9267.

[5] Gregg E. Gorton, M.D. (2005) " Milton Hyland Erickson (http:/ / ajp. psychiatryonline. org/ cgi/ content/ full/ 162/ 7/ 1255), 1901–1980." American Journal of Psychiatry 162:1255

Richard Bandler

Richard Bandler (n. el 24 de febrero de 1950) es un psicólogo estadounidense, cofundador (junto a John Grinder) de la técnica conocida como programación neurolingüística (PNL). El autor es además creador del sistema denominado Design Human Engineering (DHE) y de la técnica del repatterning neurohipnótico, Neuro Hypnotic Repatterning (NHR). Aunque la PNL no es propiamente una psicoterapia, existe una línea psicoterapéutica (la psicoterapia neurolingüística) basada en las teorías de Grinder y Bandler.

Datos biográficos y aportes teóricos

Richard Bandler estudió psicología, matemáticas e informática en la Universidad de California en Santa Cruz, culminando sus estudios en esta universidad en 1973 con un grado académico de Bachiller. Dos años más tarde obtuvo su grado de Master en psicología teórica en San Francisco. Richard Bandler Al comienzo de su carrera Bandler participaba en grupos de terapia gestáltica y se interesó por la forma concreta en que trabajaba . En 1972 llevó a cabo la transcripción de esas sesiones y de este modo pudo más tarde analizarlas. Cuando comenzó a dirigir sus propios grupos de terapia gestáltica, conoció a John Grinder e inició una época de intenso trabajo conjunto. Inicialmente se turnaban en la mutua supervisión (intervisión) de las sesiones grupales que cada uno dirigía y comenzaron a desarrollar un trabajo Richard Bandler 269

intelectual conjunto que pronto cristalizó en publicaciones. Su primer aporte teórico de importancia se describe en el libro La estructura de la Magia[1] y consiste en la descripción de un modelo estructural del lenguaje a partir del cual Bandler y Grinder desarrollan un “meta-modelo” de comunicación. A partir de esta concepción, los autores desarrollan en el primer volumen del libro una idea que pronto alcanza reconocimiento en la comunidad académica: Se preguntan por la manera concreta en que comunican, actúan e interactúan una serie de destacados terapeutas que ellos escogen como «modelos»: , Fritz Perls, Gregory Bateson, Linus Pauling, Milton Erickson. ¿Qué es precisamente lo que ellos hacen? ¿En qué se basa exactamente su éxito como psicólogos y como terapeutas? Su análisis lo realizan utilizando elementos de la gramática transformacional de la escuela de Chomsky. Si originalmente propósito pudo ser presentar esto como «recetas» a seguir en la actuación del terapeuta, los autores se dieron cuenta a corto andar de que estaban ante una idea mucho más interesante que aquella: la idea de «modelar» en pasos concretos, operacionalizables, el actuar de una persona y su comportamiento en la comunicación y en el lenguaje. Así, Bandler estuvo un tiempo «modelando» a personalidades y personajes de otras áreas, ajenos a la terapia y la psicología, como por ejemplo al físico Moshé Feldenkrais y luego también a diversos chamanes mexicanos, yogis en la India. Sus teorías y técnicas del repatternig neurohipnótico y del controvertido design human engineering tienen su origen en los conocimientos y pruebas realizados en estas experiencias. En 1978, cuando las teorías de Bandler habían alcanzado suficiente difusión y también la programación neurolingüística había conquistado algún espacio a nivel internacional, Bandler fundó la "Society of NLP", consistente en un instituto de formación, sociedad profesional y editorial propio. La programación neurolingüística, desde entonces ha tenido diversos desarrollos, dividiéndose también en distintas orientaciones en dependencia de los énfasis y matices teóricos. Bandler tuvo particular influencia en el desarrollo de los conceptos de meta-modelo, el modelo Milton, los conceptos de anclaje, repatterning y reframing, así como varios otras técnicas de la PNL.

Discordia y compromiso con John Grinder Lo que en la década de los ’70 y ’80 había sido un productivo trabajo conjunto con John Grinder, acabó en 1996 en una serie de procesos judiciales para dirimir la disputa acerca del cuál de los dos autores era el legítimo creador de la PNL y quién tenía derecho a utilizarla con ese nombre. Bandler reclamaba contra Grinder (y luego también contra otros colaboradores cercanos) la utilización ilícita de la «marca» PNL, así como violaciones a la propiedad intelectual. Se agregaban además a su demanda, acusaciones sobre diversos problemas financieros e imputación de irregularidades en las cuentas correspondientes a la venta de publicaciones, etc. Aunque se trataba de sumas millonarias, el asunto acabó, tras años de litigio, con un acuerdo que permite a ambos autores hacerse llamar a sí mismos “fundadores de la PNL”. Richard Bandler 270

DHE® (Design Human Engineering®), NHR® ( Neuro-Hypnotic Repatterning®) y las nuevas técnicas de Bandler Technologies® La DHE® es una variante o ramificación ulterior de la programación neurolingüistica que Bandler considera muy diferente y mucho más más eficaz que la PNL tradicional, pero que básicamente consistiría en la aplicación de la PNL para la formulación de nuevos niveles de rendimiento, ahora sin modelos directos sino a través de modelos de contraste. De cualquier modo, los desarrollos ulteriores de la PNL (Neuro-Sonics, Neuro-Hypnotic Repatterning la ingeniería de la persuasion y diversas otras técnicas toman una orientación algo distinta que la desarrollada inicialmente con John Grinder y se describen en los libros más nuevos: Magic in Action, Using Your Brain for a Change, Time for a Change y Persuasion Engineering, este último escritos con John LaValle, con quien además desarrolla desde hace algunos años actividades de entrenamiento, formación y difusión.

Incidentes de su vida personal Richard Bandler estuvo casado, desde 1978 y hasta 1980, con Leslie Cameron. Su esposa declaró contra él en el proceso de divorcio, diciendo que había sido maltratada (que Bandler habría intentado asfixiarla) y amenazada[2] Tras este proceso del divorcio, Bandler habría pasado por un mal período en el que consumió alcohol y cocaína en grandes cantidades, contexto en el que trabó amistad con James Marino, un vendedor de drogas cuya amante, Corine Christensen, fue asesinada en 1986 con un arma de propiedad de Bandler. Marino y Bandler se inculparon mutuamente durante el proceso. Bandler fue declarado inocente por un jurado norteamericano. Sin embargo, el asesinato de la mujer con el arma de propiedad de Bandler no ha podido ser aclarado hasta la fecha.

Obras La gran mayoría de los trabajos publicados por Bandler son libros escritos en conjunto con otros autores, principalmente con John Grinder: • En conjunto con John Grinder: • The Structure of Magic I: A Book About Language and Therapy. 1975, ISBN 0-8314-0044-7 • La estructura de la Magia I. Traducción de Elena Olivos Ataliva Amengual y Francisco Huneeus. Prólogo de Gregory Bateson, Cuatro Vientos, 4a edición, 1989 ISBN: 956-242-022-1 • The Structure of Magic II: A Book About Communication and Change. 1976, ISBN 0-8314-0049-8 • La estructura de la Magia II Traducción de Elena Olivos Ataliva Amengual y Francisco Huneeus. Cuatro Vientos, 7a edición, 2002 ISBN: 9I56-242-018-3 • '’Patterns of the Hypnotic Techniques of Milton H. Erickson, M.D., Volume I. 1975 • Frogs into Princes. 1979, ISBN 0-911226-19-2 • De Sapos a Príncipes. Traducción de Francisco Huneeus, 12a edición, 1998, Cuatrovientos, ISBN: 84-89333-23-8 • Trance Formations. 1981, ISBN 0-911226-23-0 • Reframing. Neurolinguistic programming and the transformation of meaning. 1982, ISBN 0-911226-25-7 • Magic In Action. 1984, ISBN 0-916990-14-1 • Using Your Brain - For a Change. 1985, ISBN 0-911226-27-3 • Use su Cabeza para Variar. Sub-modalidades en Programación Neurolingüística, traducción de Marta Hermosilla, 9na edición, 1999, Cuatrovientos, ISBN 84-89333-24-6 • En conjunto con John Grinder y Virginia Satir: • Changing with Families. 1976 • En conjunto con John Grinder y Judith Delozier: Richard Bandler 271

• Patterns of the Hypnotic Techniques of Milton H. Erickson. Volume II. 1977 • En conjunto con Will MacDonald: • An Insider’s Guide to Sub-Modalities. 1988 • En conjunto con Paul Donner: • Paradigms of Persuasion. 1989 • Time for a Change. 1993, ISBN 0-916990-28-1 • The Adventures of Anybody. 1993 • En conjunto con John LaValle: • Persuasion Engineering. 1996, ISBN 0-916990-36-2 • En conjunto con Owen Fitzpatrick: • Conversations: Freedom Is Everything and Love Is All the Rest. Mysterious Publications., 2005 pp. -288pp., ISBN 0-9551353-0-3. • Richard Bandler como único autor: • Get The Life You Want, 21 de agosto de 2008: The Secrets to Quick and Lasting Life Change with Neuro-Linguistic Programming. HCI. pp. -229. ISBN 978-0-7573-0776-8. -. • Richard Bandler's Guide to Trance-formation, 2008: How to harness the power of hypnosis to ignite effortless and lasting change. HCI. pp. -331. ISBN 978-0-7573-0777-5. -.

Bibliografía • Wolfgang Walker: Abenteuer Kommunikation. Bateson, Perls, Satir, Erickson und die Anfänge des Neurolinguistischen Programmierens (NLP). Klett-Cotta, Stuttgart 1996, ISBN 3-608-91976-7

Enlaces externos • Sitio oficial deRichard Bandler [3] • The Bandler Method [4], Artículo de Frank Clancy & Heidi Yorkshire en al revista Mother Jones de febrero –marzo de 1989 • Don’t worry, get therapy [5], Artículo de Jon Ronson en Guardian, publicado el 20. Mai 2006 • Entrevista a Richard Bandler traducida al español [6]

Referencias [1] Bandler, Richard y Jonh Grinder, La estructura de la Magia, (título original, The Structure of Magic, 1975) Traducción de Elena Olivos Ataliva Amengual y Francisco Huneeus. Cuatro Vientos, 12na edición, 2002 ISBN 956-242-022-1

[2] Revista Mother Jones, febrero – marzo de 1989 The Bandler Method (http:/ / www. pinkmoan. com/ pdf/ TheBandlerMethod-MotherJones. pdf)

[3] http:/ / www. richardbandler. com

[4] http:/ / www. pinkmoan. com/ pdf/ TheBandlerMethod-MotherJones. pdf

[5] http:/ / www. guardian. co. uk/ lifeandstyle/ 2006/ may/ 20/ weekend. jonronson1

[6] http:/ / entrevistasdepnl. wordpress. com/ richard-bandler-interview-entrevista/ Terapia Gestalt 272 Terapia Gestalt

Este artículo se refiere a la terapia humanista. Para información sobre la corriente de la Psicología, véase Psicología de la Gestalt. La terapia Gestalt es una terapia que tiene como objetivo, además de ayudar al paciente a sobreponerse a síntomas, de permitirle llegar a ser más completa y creativamente vivo y liberarse de los bloqueos y asuntos inconclusos que disminuyen la satisfacción óptima, autorrealización y crecimiento. Pertenece así, a la psicología humanista (o Tercera Fuerza), la cual se caracteriza por no estar enfocada exclusivamente a tratar a enfermos y las psicopatologías, sino también para desarrollar el potencial humano.

Bases teóricos y filosóficas Entre sus inspiraciones teóricas y filosóficas, se encuentran los trabajos de Freud, ,[1] Otto Rank (el «aquí-y-ahora»)[1] y Husserl,[1] el fundador de la fenomenología,[2] el existencialismo y el pragmatismo, sobre todo influenciado por William James y John Dewey.[3] Los trabajos de Martin Buber sobre el Ich und Du (Yo y Tú)[4] y Jan Smuts, en su libro Holism and Evolution (1926),[5] además de acuñar el propio término «holismo», aportaron las bases sobre las cuales se construyó la Terapia Gestalt,[4] junto con las teorías de Kurt Lewin (la teoría del campo) y de su ayudante, Bluma Zeigarnik (por sus trabajos sobre los «asuntos inconclusos»).[4] Asimismo, el matrimonio Perls se conocieron mientras ambos trabajaban para Kurt Goldstein en el departamento de neurobiología del hospital para los veteranos de la guerra de Berlín.[6]

Historia Nació en la década de 1940 con la publicación del libro Ego, Hunger and Aggression: A Revision of Freud's Theory and Method (Durban, 1942) escrito por el matrimonio compuesto por Fritz Perls, un psiquiatra y psicoanalista, y Laura Perls, psicóloga que se había formada en la Psicología de la Gestalt. Aunque más conocido con el subtitulo The Beginning of Gestalt Therapy, éste sólo fue añadido para una nueva edición en 1966. Sin embargo, es con la publicación, en 1951, de Gestalt Therapy: Excitement and Growth in the Human Personality (conocido también como PHG, por las iniciales de sus autores), escrito por [7] y el catedrático de psicología de la Universidad de Chicago, Ralph Hefferline, a partir de un manuscrito de Fritz Perls, que se establecen las bases fundamentales de la terapia Gestalt. En 1952, al año de publicarse el PHG, los Perls abren el primer Gestalt Institute en Nueva York. Entre otros colaboradores, se destacan el "teórico" Isadore From, Paul Goodman, Elliot Shapiro, Paul Weiss y Richard Kitzler. Hacia finales de la década de 1950 y comienzos de la década de 1960, con la moda del crecimiento personal que se concentra en California, Fritz Perls se ve cada vez más atraído por el concepto de la terapia Gestalt como una forma de vida más que un modelo de terapia y comienza a dar cursos de formación en esa dirección en la Costa Oeste. Se abre así una brecha entre la Terapia Gestalt de la Costa Este, representada por el New York Institute, bajo la dirección de Laura Perls (con otra corriente afín en Cleveland), y la Terapia Gestalt de la Costa Oeste, liderada por Fritz Perls. Durante los setenta y ochenta, los centros de entrenamiento en psicoterapia Gestalt se esparcieron globalmente, aunque en su mayoría no estaban alineados con centros académicos formales. Mientras la revolución cognitiva eclipsó la terapia Gestalt en la psicología, muchos pensaron que ella era anacrónica. En manos de sus practicantes, esta terapia se convirtió en una disciplina aplicada en los campos de la psicoterapia, desarrollo organizacional, acción social y eventualmente coaching. Hasta el cambio de siglo, los terapeutas Gestalt desdeñaron el empirismo de corte positivista, subrayando lo que ellas/ellos percibieron como un asunto para la investigación más formal, así Terapia Gestalt 273

pues, en gran medida ignoraron la necesidad de utilizar la investigación para desarrollar la terapia Gestalt más allá y darle mayor soporte a la práctica, algo que ha comenzado a cambiar.

Fundamentos de la terapia Gestalt A diferencia de otros enfoques, la terapia Gestalt se enfoca más en los procesos que en los contenidos. Pone énfasis sobre lo que está sucediendo, se está pensado y sintiendo en el momento, por encima de lo que fue, pudo haber sido, podría ser o debería estar sucediendo. Utiliza el método del darse cuenta («awareness»[8]) predominando el percibir, sentir y actuar. El cliente aprende a hacerse más consciente de lo que siente y hace. De este modo, va desarrollando su habilidad para aceptarse y para experimentar el «aquí y ahora» sin tanta interferencia de las respuestas fijadas del pasado. Se prefiere usar el término «cliente» que «paciente», ya que un «paciente» es alguien enfermo que va a que otro le cure, mientras que «cliente» es un término más neutro, el cual sólo indica que es alguien que acude a la consulta del terapeuta. En esta terapia, el cliente es quien tiene que «autocurarse», el terapeuta sólo le acompaña y le ayuda para que lo consiga, haciendo más bien una función de observador externo y no tanto de «el que cura».

Enfoque gestáltico El enfoque gestáltico descansa sobre una serie de premisas:[9] • El ser humano no percibe las cosas como entidades aisladas sino que las organiza en entidades significativas. Es la organización de hechos, percepciones, conductas y fenómenos y no los elementos individuales de los cuales se componen, lo que los define y les da su significado específico y particular. • Toda la vida y el comportamiento humanos son gobernados por un proceso de homeostasis o adaptación mediante el cual todo organismo busca su equilibrio y satisface sus necesidades. Cuando el proceso de autorregulación homeostática falla, el organismo permanece en estado de desequilibrio. Entonces es incapaz de satisfacer sus necesidades y se enferma. • El ser humano es un organismo unificado (concepto holístico), por lo tanto debemos tratar al hombre en su totalidad. Actividad mental y actividad física son dos niveles que corresponden a órdenes diferentes de materia y no a una división mente-cuerpo. • La fantasía es la actividad interna utilizadora de símbolos. Cada generación hereda las fantasías de las generaciones anteriores acumulando mayor conocimiento y entendimiento. • El comportamiento se manifiesta tanto en el nivel aparente de la actividad física como en el nivel inaparente de la actividad mental. Pensamientos y acciones son hechos del mismo material y por eso podemos trasponerlos de un nivel a otro en un campo unificado. • Ni el cliente ni el terapeuta están limitados a lo que dice o piensa el cliente sino que deben también tomar en cuenta lo que hace. Lo que hace en un momento dado, es una clave de lo que piensa y lo que piensa es una clave de lo que le gusta hacer. • Por medio de la experiencia de sí mismo en los tres niveles del fantasear, el representar roles y el hacer, el cliente irá llegando a un entendimiento de sí mismo. • Ningún individuo es autosuficiente, es decir, puede existir únicamente en un campo compuesto por él y su entorno. La naturaleza de la relación entre el individuo y su entorno determinan su conducta. Si la relación es satisfactoria, el individuo se siente satisfecha, si la relación es conflictiva, el comportamiento es anormal. • El enfoque guestálstico considera al individuo como una función del campo organismo/entorno y su conducta como un reflejo de sus relaciones dentro de ese campo. La vida humana es una interacción entre ambos campos, el individuo y su entorno, en el marco de cambios contínuos. Para sobrevivir, el individuo tiene que cambiar constantemente. Cuando se hace incapaz de alterar sus técnicas de interacción se enferma. • El neurótico ha perdido la capacidad de organizar su comportamiento de acuerdo a una jerarquía indispensable de necesidades y no puede concentrarse. Tiene que aprender a indentificar sus necesidades y a quedarse en una Terapia Gestalt 274

situación el tiempo suficiente como para completar la guestalt, restaurar su equilibrio perturbado y seguir adelante. • Los seres humanos sienten una necesidad de realizar rituales, una necesidad de contacto con un grupo como expresión de su sentido de identificación social. El ritual hace más clara la gestalt, brinda orden, firma y objetivos. El ser humano necesita el contacto con los otros. Las perturbaciones neuróticas surgen de la incapacidad del individuo de encontrar un balance entre el sí mismo y el resto del mundo. • El darse cuenta siempre transcurre en el presente, el «aquí-y-ahora». El objetivo de la terapia es darle al cliente los medios para que pueda resolver sus problemas actuales y los que puedan surgir en el futuro. Si logra darse cuenta plenamente de sí mismo y de sus acciones en todos sus niveles - fantasía, verbal y físico - podrá ver como él mismo produce sus propias dificultades y, al reconocerlas, podrá ayudarse a resolverlas. El darse cuenta le da al cliente el sentido de sus propias capacidades y de sus habilidades.

Conceptos principales La Gestalt, en cuanto terapia tiene el objetivo de aumentar el autoapoyo, en base a aumentar la conciencia del individuo en la responsabilidad que tiene en su propio bienestar. Esta actividad terapéutica se articula en torno a dos formas esenciales de trabajo: • El cierre de situaciones inconclusas del pasado («gestalt abierta»), en las que la persona se quedó bloqueada, debido a la interrupción del proceso natural de contacto y retiro. • Aumentar la conciencia de sí mismo, en las distintas áreas de percepción del sí mismo: las sensaciones, los pensamientos y los sentimientos. De este modo se logra incrementar la responsabilidad o capacidad de respuesta del individuo ante sus necesidades y la realidad circundante actual. Se basa en: • El darse cuenta ("awareness", en inglés): consiste en que el paciente se da cuenta a través de un insight de lo que está sintiendo, pensando o haciendo. Para cambiar una conducta es imprescindible tomar plena consciencia de cuál es la función que cumple en la vida de la persona. • El aquí y ahora: vivir y sentir la realidad del presente de la persona, sin adjetivos. Para ello durante la terapia frecuentemente se recurre a la conciencia del propio cuerpo. • No interesa tanto investigar el por qués (pasado), sino el cómo (presente) (¿Cómo me siento? ¿Qué estoy haciendo? ¿Qué estoy evitando?) • Ayudar al paciente a descubrir la función orgánica de su acción (¿para qué estoy haciendo esto?, ¿para qué me castigo?, ¿qué estoy evitando?), y ayudarle a descubrir que acciones realmente cubren una necesidad y cuáles están orientadas a satisfacer al introyecto. • Poner en evidencia la interacción entre los mecanismos neuróticos de la introyección y la proyección.

Bases terapéuticas Es fundamental para la terapia el uso de la primera persona: el paciente necesita tomar conciencia de sí, sin ocultarse usando la segunda persona (el it, en el lenguaje de Perls), o incluso un sujeto colectivo. Por ejemplo, es habitual que las personas digan "cuando tienes un jefe maltratador, te dan ganas de dejar el trabajo", en lugar de decir "tengo un jefe maltratador y me dan ganas de dejar el trabajo". También al decir «los jóvenes bebemos mucho» en vez de «yo bebo mucho» se hace uso del plural, y por lo tanto se evita tomar conciencia de la responsabilidad personal (confluencia), confundiendo a la persona en medio del grupo. El trabajo en terapia Gestalt está fundamentado en el lenguaje no verbal, es decir, el lenguaje corporal y el tono de voz. Frecuentemente, el lenguaje verbal da una información que contradice su expresión corporal. En ocasiones, el paciente trata de justificarse con abundante cantidad de información que le descontacta con la realidad. Cuando hace aparición esta forma inconsciente de controlar la terapia, el terapeuta Gestalt vuelve a conectar al paciente con su cuerpo. Terapia Gestalt 275

La técnica de la «silla vacía» (empty chair en inglés[10]) ha sido comúnmente asociado con la práctica de la terapia Gestalt, consiste básicamente en crear mentalmente un personaje con el cual se quiere confrontar algún problema, entonces asumir su rol en su lugar y después contestar en el lugar del cliente con el rol que le pertenece a él mismo.) es el elemento básico para el trabajo terapéutico en este enfoque. Consiste básicamente en poner en evidencia el diálogo interno de la persona. En dicho diálogo se enfrentan, en términos de Perls, el «perro de arriba» y el «perro de abajo»; es decir, todo aquello por lo que nos sentimos oprimidos (a raíz de los introyectos) y el rol con el que nos hemos identificado como víctimas («perro de abajo»). En la práctica dicho perro de arriba puede estar representado por el padre, la madre, el jefe, los amigos, la pareja, etc. Durante la terapia con la silla caliente el paciente va pasando de una silla a otra, representando cada uno de los roles y expresando sus emociones, de tal suerte que, esté donde esté, todas las ideas y sentimientos son del propio paciente. De esa forma se logra el principal objetivo de la silla, que es la recogida de la proyección y el cierre de la situación.

Otras terapias afines • Masaje gestáltico creado en el Instituto Esalen. • IBP Integrative Body Psychotherapy creada por Jack Lee Rosenberg. • Terapia Gestalt Práctica [11]

Véase también • Psicología humanista • Psicología de la Gestalt • Psicoterapia

Referencias

[1] «Entrevista a Isadore From» publicada en The Gestalt Journal vol 1, nº 2, otoño 1978. (http:/ / gestaltnet. net/ fondo/ articulos/

entrevista-a-isadore-from/ ?searchterm=None) Consultado el 25 de diciembre de 2011

[2] Voz Husserl en Philosophica: Enciclopedia filosófica online (http:/ / www. philosophica. info/ voces/ husserl/ Husserl. html) Consultado el 25 de diciembre de 2011 [3] «El vacío de la terapia gestalt» Michael Vicent Miller sobre la situación de la terapia gestalt. Publicado en The Gestalt Journal, vol.XX, num.

2. (http:/ / gestaltnet. net/ fondo/ laboratorio-de-traduccion/ the-emptiness-of-gestalt-therapy/ el-vacio-de-la-terapia-gestalt/ ?searchterm=winnicott) Consultado el 25 de diciembre de 2011 [4] (en inglés) Wulf, Rosemarie «The Historical Roots of Gestalt Therapy Theory» publicado en Gestalt Dialogue: Newsletter for the Integrative

Gestalt Centre, noviembre de 1996 (http:/ / www. gestalt. org/ wulf. htm) Consultado el 25 de diciembre de 2011

[5] (en francés) Robine, Jean-Marie «Le Holism de J. C. Smuts» Conférence à l'Institut Français de Gestalt-thérapie, Paris, Octobre 1993 (http:/ /

www. gestalt. org/ robine. htm) Consultado el 25 de diciembre de 2011

[6] (en inglés) «An oral history of Gestalt Therapy - Part One: A conversation with Laura Perls» (http:/ / www. gestalt. org/ perlsint. htm) Consultado el 25 de diciembre de 2011

[7] Vázquez Bandín, Carmen «Paul Goodman (1911 - 1972): Co-fundador de la Terapia Gestalt» (http:/ / gestaltnet. net/ fondo/ articulos/

paul-goodman-1911-1972/ ?searchterm=goodman) Consultado el 25 de diciembre de 2011 [8] «El awareness es el conocimiento inmediato e implícito del campo.» Robine, Jean Marie. Contacto y relación en psicoterapia, cap. 5., Ed.

Cuatro Vientos, 2002 en Picó Vila, David «El awareness» (http:/ / gestaltnet. net/ fondo/ nuestros-textos/ algunos-terminos-de-terapia-gestalt/ el-awareness) Consultado el 5 de marzo de 2012 [9] Perls, Fritz (1976). El enfoque gestáltico. Santiago de Chile, Cuatro vientos.

[10] Nelson-Jones, Richard Six Key Approaches to Counselling and Therapy (http:/ / books. google. es/ books?hl=es& lr=& id=4nF5u3kR-IQC&

oi=fnd& pg=PA142& dq=gestalt) En Google Books, consultado el 24 de diciembre de 2011

[11] http:/ / www. gestaltpractica. com

Revista Latina de Terapia Gestalt (http:/ / rltg. zimentarri. org/ ) Revista Figura-Fondo (http:/ / www.

gestalthumanista. com/ index. php/ revista-figura--fondo) Revista Fritzgestalt.com (http:/ / www. fritzgestalt. com/

tapa1. htm) Terapia Gestalt 276

Bibliografía • F. Perls, R. Hefferline, R. F.: Goodman, P. Gestalt Therapy: Excitement and Growth in the Human Personality. • Sinay, Sergio; Blasberg, Pablo (1995). Gestalt para principiantes. Buenos Aires: Era Naciente SRL. 987-9065-14-X. • Perls, Fritz (2002). Sueños y existencia: Terapia gestáltica. Cuatro Vientos. 9788489333048. • Latner, Joel (1994). Fundamentos de la Gestalt. Cuatro Vientos. 956-242-013-2.

Enlaces externos

• Gestalt Review (http:/ / www. gisc. org/ gestaltreview/ v1. php)

• Departamento de Psicología de la Sonoma State University (http:/ / www. sonoma. edu/ users/ d/ daniels/ gestalt. html)

Hermenéutica

La hermenéutica (del griego ἑρμηνευτικὴ τέχνη, jermeneutiké tejne, ‘arte de explicar, traducir o interpretar’) es la interpretación de textos en la teología, la filología y la crítica literaria. En la filosofía es la doctrina idealista según la cual los hechos sociales (y quizás también los naturales) son símbolos o textos que deben interpretarse en lugar de describirse y explicarse objetivamente.

Origen y evolución de la hermenéutica El término hermenéutica proviene del verbo griego ἑρμηνεύειν (jermeneueien) que significa interpretar, declarar, anunciar, esclarecer y, por último, traducir. Significa que alguna cosa es vuelta comprensible o llevada a la comprensión. Se considera que el término deriva del nombre del dios griego Hermes, el mensajero, al que los griegos atribuían el origen del lenguaje y la escritura y al que consideraban patrono de la comunicación y el entendimiento humano; lo cierto es que este término originalmente expresaba la comprensión y explicación de una sentencia oscura y enigmática de los dioses u oráculo, que precisaba una interpretación correcta. El término hermenéutica deriva directamente del adjetivo griego ἑρμηνευτικἡ, que significa (saber) explicativo o interpretativo, especialmente de las Sagradas Escrituras, y del sentido de las palabras de los textos, así como el análisis de la propia teoría o ciencia volcada en la exégesis de los signos y de su valor simbólico.

Hermetismo Otro punto de vista afirma que lo hermético viene de la escuela instituida en Egipto y que debe su nombre a su fundador, Hermes Trismegisto. Quedando así para la historia el concepto de lo hermético –la enseñanza ocultista de una escuela, lo secreto- como aquello que sólo se revela a un grupo de miembros militantes de una doctrina, tal como se pretendía en esta escuela. Hermetismo es, por ende, lo secreto, lo no revelado, lo cerrado o encerrado, lo no accesible ni público, lo oculto e incluso, lo que está –por mágico o irrazonable- más allá de la comprensión simple. Así, la hermenéutica es el estudio del significado de cualquier símbolo oculto detrás de algo, principalmente de la palabra y un intento de minimizar la enajenación del lenguaje. La hermenéutica intenta descifrar el significado detrás de la palabra y, con ello, intenta la exégesis de la razón misma sobre el significado. Muchos escritos son atribuidos a Hermes Trismegisto por lo que parecen ser, para los egipcios, muy antiguos.[1] Durante el medievo y el renacimiento, los documentos que le fueron atribuidos a Hermes, se conocieron como “hermética” e influyeron en los alquimistas y magos de la época. Por otra parte, la frase o término: «sellado herméticamente», hacía referencia a los conjuros que protegían mágicamente cualquier objeto. La hermenéutica es una herramienta magnífica del intelecto, es -como se dijo antes- exégesis de la razón misma, sólo que, ligada inevitablemente a la razón y por ello a la palabra, conoce el límite en el símbolo. La idea, trasciende la razón. Hermenéutica 277

La necesidad de una disciplina hermenéutica está dada por las complejidades del lenguaje, que frecuentemente conducen a conclusiones diferentes e incluso contrapuestas en lo que respecta al significado de un texto. El camino a recorrer entre el lector y el pensamiento del autor suele ser largo e intrincado. Ello muestra la conveniencia de usar todos los medios a nuestro alcance para llegar a la meta propuesta. Evémero de Mesene (siglo IV a. C.) realizó el primer intento de interpretar racionalmente las leyendas y mitos griegos reduciendo su contenido a elementos históricos y sociales (evemerismo). En el siglo VI a. C. Teágenes de Regio intentó una empresa parecida para interpretarlos de forma alegórica y extraer su sentido profundo.

Hermenéutica y teología Pero el origen de los estudios hermenéuticos se encuentra realmente en la teología cristiana, donde la hermenéutica tiene por objeto fijar los principios y normas que han de aplicarse en la interpretación de los libros sagrados de la Biblia, que, como revelados por Dios pero compuestos por hombres, poseían dos significados distintos: el literal y el espiritual, este último dividido en tres: el anagógico, el alegórico y el moral:[2] • El sentido literal es el significado por las palabras de la Escritura y descubierto por la exégesis filológica que sigue las reglas de la justa interpretación. Según Tomás de Aquino, en Summa Theologiae I, q. 1, a. 10, ad 1 [3]: Et ita etiam nulla confusio sequitur in sacra Scriptura, cum omnes sensus fundentur super unum, scilicet litteralem. Y de este modo no existe confusión en las Escrituras, puesto que todos los sentidos se fundamentan en uno, el literal. • El sentido espiritual, infuso por Dios en el hombre según la creencia cristiana, da un sentido religioso suplementario a los signos, dividido en tres tipos diferentes: • El sentido alegórico, por el que es posible a los cristianos adquirir una comprensión más profunda de los acontecimientos reconociendo su significación en Cristo; de esa manera el paso del mar Rojo simboliza la victoria de Cristo y el bautismo. (véase 1 Co 10:2). • El sentido moral, por el cual los acontecimientos narrados en la Escritura pueden conducir a un obrar justo; su fin es la instrucción (1 Co 10, 11; véase Epístola a los hebreos 3-4,11). • El sentido anagógico (o sentido místico) por el cual los santos pueden ver realidades y acontecimientos de una significación eterna, que conduce (en griego anagogue) a los cristianos hacia la patria celestial. Así, la Iglesia en la tierra es signo de la Jerusalén celeste. (véase Apocalipsis 21,1-22,5)

Romanticismo y Friedrich Schleiermacher Después de permanecer recluida durante varios siglos en el ámbito de la Teología, la hermenéutica se abrió en la época del Romanticismo a todo tipo de textos escritos. En este contexto se sitúa Friedrich Schleiermacher (1768-1834), que ve en la tarea hermenéutica un proceso de reconstrucción del espíritu de nuestros antepasados. Así, Schleiermacher plantea un círculo hermenéutico para poder interpretar los textos, postula que la correcta interpretación debe tener una dimensión objetiva, relacionada con la construcción del contexto del autor, y otra subjetiva y adivinatoria, que consiste en trasladarse al lugar del autor. Para Schleiermacher la hermenéutica no es un saber teórico sino práctico, esto es, la praxis o la técnica de la buena interpretación de un texto hablado o escrito. Trátase ahí de la comprensión, que se volvió desde antaño un concepto fundamental y finalidad de toda cuestión hermenéutica. Schleiermacher define la hermenéutica como «reconstrucción histórica y adivinatoria, objetiva y subjetiva, de un discurso dado». Hermenéutica 278

Historicismo diltheiano Esta perspectiva influirá en la aparición del historicismo diltheiano. Wilhelm Dilthey (1833-1911) cree que toda manifestación espiritual humana, y no sólo los textos escritos, tiene que ser comprendida dentro del contexto histórico de su época. Si los acontecimientos de la naturaleza deben ser explicados, los acontecimientos históricos, los valores y la cultura deben ser comprendidos. Según Wilhelm Dilthey, estos dos métodos serían opuestos entre sí: explicación (propia de las ciencias naturales) y comprensión (propia de las ciencias del espíritu o ciencias humanas): Esclarecemos por medio de procesos intelectuales, pero comprendemos por la cooperación de todas las fuerzas sentimentales en la aprehensión, por la inmersión de las fuerzas sentimentales en el objeto. Wilhelm Dilthey fue el primero en formular la dualidad entre las «ciencias de la naturaleza» y las «ciencias del espíritu», que se distinguen respectivamente por el uso de un método analítico esclarecedor, una, y el uso de un procedimiento de compresión descriptiva, la otra. Comprensión y aprehensión de un significado y sentido es lo que se presenta a la comprensión como contenido. Sólo podemos determinar la compresión por el sentido y el sentido apenas por la comprensión. Toda comprensión es aprehensión de un sentido. Para Dilthey todo conocimiento de las ciencias del espíritu es una comprensión y un conocimiento histórico. Este conocimiento es posible porque la vida (el objeto de estudio de las ciencias del espíritu) genera estructuras, ya sean desde una obra pictórica a una literaria; entonces concede a la hermenéutica el papel de disciplina encargada de interpretar dichas estructuras, permitiendo el conocimiento en las ciencias del espíritu.

Martin Heidegger Ya en el siglo XX, Martin Heidegger, en su análisis de la comprensión, afirma que, cualquiera que sea, presenta una «estructura circular»: Toda interpretación, para producir comprensión, debe ya tener comprendido lo que va a interpretar. Heidegger introduce nuevos derroteros en la hermenéutica al dejar de considerarla únicamente como un modo de comprensión del espíritu de otras épocas y pensarla como el modo fundamental de situarse el ser humano en el mundo: existir es comprender. Desde entonces su hermenéutica de la facticidad se convierte en una filosofía que identifica la verdad con una interpretación históricamente situada (Hans-Georg Gadamer). La hermenéutica es considerada la escuela de pensamiento opuesta al positivismo.

Paul Ricoeur Paul Ricoeur (Essais d’herméneutique, París: Seuil, 1969) supera en su aporte a las dos corrientes anteriores, y propone una «hermenéutica de la distancia», lo que hace que surja una interpretación es el hecho de que haya una distancia entre el emisor y el receptor. De esta hermenéutica surge una teoría cuyo paradigma es el texto, es decir, todo discurso fijado por la escritura. Al mismo tiempo este discurso sufre, una vez emitido, un desarraigamiento de la intención del autor y cobra independencia con respecto a él. El texto ahora se encuentra desligado del emisor, y es una realidad metamorfoseada en la cual el lector, al tomar la obra, se introduce. Pero esta misma realidad metamorfoseada propone un «yo», un «Dasein», que debe ser extraído por el lector en la tarea hermenéutica. Para Ricoeur interpretar es extraer el ser-en-el-mundo que se halla en el texto. De esta manera se propone estudiar el problema de la «apropiación del texto», es decir, de la aplicación del significado del texto a la vida del lector. La reelaboración del texto por parte del lector es uno de los ejes de la teoría de Paul Ricoeur. Hermenéutica 279

Mauricio Beuchot La propuesta de Hermenéutica Analógica hecha por Mauricio Beuchot surge a partir del Congreso Nacional de Filosofía, llevado a cabo en la ciudad de Cuernavaca, en Morelos, México, en 1993, sintetizada en su obra Tratado de hermenéutica analógica (1997). Influenciado por otro gran filósofo argentino, Enrique Dussel, y el llamado método analéctico, para posteriormente retomar ideas de la analogía en Peirce, Mauricio Beuchot propone un proyecto hermenéutico novedoso y original denominado Hermenéutica Analógica, o también, Hermenéutica Analógico-Icónica. La Hermenéutica Analógica, basada en el concepto de analogía, se estructura como intermedia entre la univocidad y la equivocidad. La univocidad tiende a la identidad entre el significado y su aplicación, es una idea positivista y fuerte que pretende objetividad. Por ejemplo la hermenéutica de Emilio Betti. Mientras que la equivocidad es la diferencia del significado y de aplicación, tiende al relativismo y subjetivismo. Por ejemplo la filosofía de Richard Rorty. La hermenéutica analógica trata de evitar posturas extremas, abriendo el margen de las interpretaciones, jerarquizándolas de una manera ordenada de modo que exista una interpretación que sea el analogado principal y otras interpretaciones que sean analogados secundarios. Así se plantea como una postura moderada, que recupera la noción aristotélica de la Frónesis, y puede plantearse como la interpretación de textos que permite una postura ni equivocista (lo que no es) ni univocista (lo que es), sino prudente en un punto medio.

Estructuras básicas de la comprensión • Estructura de horizonte: el contenido singular y aprendido en la totalidad de un contexto de sentido, que es preaprendido y coaprendido. • Estructura circular:[4] la comprensión se mueve en una dialéctica entre la precomprensión y la comprensión de la cosa, es un acontecimiento que progresa en forma de espiral, en la medida que un elemento presupone otro y al mismo tiempo hace como que va adelante. • Estructura de diálogo: en el diálogo mantenemos nuestra comprensión abierta, para enriquecerla y corregirla. • Estructura de mediación: la mediación se presenta y se manifiesta en todos los contenidos, pero se interpreta como comprensión en nuestro mundo y en nuestra historia.

Crítica cientificista de la hermenéutica Para Mario Bunge, la hermenéutica filosófica se opone al estudio científico de la sociedad. En particular, desprecia la estadística social y los modelos matemáticos. Dado que considera lo social como si fuera espiritual, la hermenéutica desprecia los factores ambientales, los biológicos y los económicos, al mismo tiempo que rechaza abordar los hechos macrosociales, como la pobreza y la guerra. De este modo, la hermenéutica constituye un obstáculo a la investigación de las verdades acerca de la sociedad y, por tanto, de los fundamentos de las políticas sociales.[5]

Véase también • Verstehen • Idealismo • Hans-Georg Gadamer • Paul Ricoeur • Gianni Vattimo • Mauricio Beuchot • Andrés Ortiz-Osés • Felipe Martínez Marzoa • Exégesis • Hermetismo Hermenéutica 280

• Giro lingüístico

Referencias [1] Platón expone en Timeo, a través de Critias, la declaración de los sacerdotes egipcios que en Sais, Egipto, le trasmiten a Solón que en sus escritos sagrados, la antigüedad de Sais se contaba en unos 8000 años, de acuerdo a sus arreglos o cálculos calendráricos (Tim. 23) • Duvall, J. Scott, and J. Daniel Hays. Grasping God's Word: A Hands on Approach to Reading, Interpreting, and Applying the Bible. Grand Rapids, Mich.: Zondervan, 2001. • Kaiser, Walter C., and Moises Silva. An Introduction to Biblical Hermeneutics: The Search for Meaning.Rev. ed. Grand Rapids, Mich.: Zondervan, 2007. • Klein, William W., Craig L. Blomberg, and Robert L. Hubbard. Introduction to Biblical Interpretation. Dallas, Tex.: Word Publishing, 1993. • Osborne, Grant R. The Hermeneutical Spiral: A Comprehensive Introduction to Biblical Interpretation. Second edition. Downers Grove, Ill.: InterVarsity Press, 2006. • Ramm, Bernard. Protestant Biblical Interpretation: A Textbook of Hermeneutics. 3rd edition. Grand Rapids, Mich.: Baker Book House, 1970. • Tate, W. Randolph. Biblical Interpretation: An Integrated Approach. Rev. ed. Peabody, Mass.: Hendrickson Pub., 1997. • Thistleton, Anthony. New Horizons in Hermeneutics. Grand Rapids, Mich.: Zondervan, 1992. • De La Torre, Miguel A., Reading the Bible from the Margins, Orbis Books, 2002. • Webb, William J., Women and Homosexuals: Exploring the Hermeneutics of Cultural Analysis, Authentic Media, 2002, ISBN 1842271865. Fuentes citadas en en:Biblical hermeneutics

[3] http:/ / www. corpusthomisticum. org/ sth1001. html#28295

[4] El abismo y el círculo hermenéuticos (http:/ / www. ub. edu/ histofilosofia/ gmayos/ PDF/ Los_sentidos_de_la_hermeneutica. pdf) de G.

Mayos (http:/ / www. ub. edu/ histofilosofia/ gmayos/ 0esser. htm) (UB).

[5] Bunge, Mario (2007). Diccionario de Filosofía (http:/ / books. google. com/ books?hl=es& id=JJRzEm5a8PgC&

q=hermeneutica#v=onepage& q=hermenéutica& f=false). Madrid: Siglo XXI Editores. p. 96. ISBN 968-23-2276-6.

Bibliografía • Ortiz-Osés, Andrés & Lanceros, Patxi (2005). Claves de hermenéutica: para la filosofía, la cultura y la sociedad. Bilbao: Universidad de Deusto. Departamento de Publicaciones. ISBN 978-84-7485-479-4. • — (1997-2004/2006). Diccionario de hermeneútica: una obra interdisciplinar para las ciencias humanas. H.G. Gadamer, G. Durand, P. Ricoeur, G. Vattimo, R. Panikkar, J.L. Aranguren, E. Dussel, E. Trías y otros. Quinta edición. Bilbao: Universidad de Deusto. Departamento de Publicaciones. ISBN 978-84-7485-917-1. • Larisa Cercel (ed.) (2009). Übersetzung und Hermeneutik / Traduction et herméneutique. Bucharest, Zeta Books. ISBN 978-973-1997-06-3 (paperback), ISBN 978-973-1997-07-0 (ebook). • Mario Bunge (2007). Diccionario de Filosofía. Madrid: Siglo XXI Editores. ISBN 968-23-2276-6.

Enlaces externos

• Wikcionario tiene definiciones para hermenéutica.Wikcionario Wikilibros • Wikilibros alberga un libro o manual sobre La Hermenéutica Bíblica. Wikilibros • Wikilibros alberga un libro o manual sobre Hermenéutica jurídica.

• Gadamer, Derrida y la política del sentido (http:/ / www. nietzscheana. com. ar/ gadamer_derrida. pdf)

• On Hermeneutical Ethics and Education (http:/ / www. uned. es/ dpto_fil/ revista/ polemos/ articulos/

MA_Quintana_On Hermeneutical Ethics & Education (Internet)2. doc), un artículo de Miguel Ángel Quintana Paz sobre la importancia de la hermenéutica de Gadamer para nuestra comprensión de la música, la ética y la educación en ambas (en inglés) Hermenéutica 281

• Artículo de Kerly Rosmery Tovar Aguila sobre Hermenéutica y traducción (http:/ / www. miguelangelquintana.

com/ observaciones. pdf)

• Larisa Cercel, Auf den Spuren einer verschütteten Evidenz: Übersetzung und Hermeneutik (http:/ / www.

zetabooks. com/ download2/ Ubersetzung-und-Heremenutik-Einleitung. pdf), in: Larisa Cercel (ed.), Übersetzung

und Hermeneutik / Traduction et herméneutique (http:/ / www. zetabooks. com/ zeta-series-in-translation-studies. html), Bucharest, Zeta Books, 2009, ISBN 978-973-1997-06-3 (paperback), 978-973-1997-07-0 (ebook).

• Artículos de Gerardo S. Reyna Caamaño sobre la interpretación Hermenéutica de Fotografías (http:/ / www.

geocities. com/ Paris/ Chateau/ 9164/ introduccion. html)

Friedrich Schleiermacher

Friedrich Schleiermacher

Friedrich Schleiermacher

Nacimiento 21 de noviembre de 1768 Breslau, Silesia, (hoy Polonia) Fallecimiento 12 de febrero de 1834

Nacionalidad nació en la región de Silesia, que ahora es Polonia Ocupación Teólogo y filósofo

Friedrich Daniel Ernst Schleiermacher (Breslau, 21 de noviembre de 1768 – 12 de febrero de 1834) fue un teólogo y filósofo alemán.

Biografía Friedrich Schleiermacher nació en Breslau, Silesia (hoy Polonia). Hijo de un clérigo calvinista. Es posiblemente uno de los teólogos alemanes del siglo XIX de mayor importancia. Proviene de la tradición reformada. Se educó en escuelas moravas y luteranas. Apreciaba la piedad y el estudio del latín, griego y hebreo de los moravos. Pero se separó de estos ante su resistencia a entrar en diálogo con la filosofía de su tiempo. Estudió la filosofía kantiana y fue discípulo de Friedrich von Schlegel, un líder del romanticismo en los círculos literarios de Berlín. Fue ordenado al ministerio en 1794. Fue clérigo en Berlín donde comenzó su asociación con los círculos de la filosofía romántica. Primer calvinista invitado a enseñar en la Universidad luterana de Halle en 1804. En 1810 fue el primer teólogo invitado a enseñar en la Universidad de Berlín. Era un ecumenista consumado. Abogó por la unión de las iglesias calvinistas y luteranas en Prusia. Friedrich Schleiermacher 282

Teología Presentó una alternativa teológica al racionalismo kantiano. Frente al dogmatismo de la iglesia intentó relacionar el romanticismo con la teología. En diálogo con Kant, negó que fuera posible conocer a Dios por medio de la razón. El lugar para conocer a Dios era la ética y la moral. Cuestionó la ética como el lugar para el conocimiento de la deidad. Para Schleiermacher, el camino al conocimiento de la deidad era el sentimiento de total dependencia en la deidad y la intuición. En sus obras Über die Religion. Reden an die Gebildeten unter ihren Verächtern (1799) y Glaubenslehre (1822), definió la religión como “el sentimiento e intuición del universo”. Entendía el cristianismo como “el sentimiento y la dependencia de Dios”. La religión no podía ser estudiada correctamente ni por la filosofía racionalista de la Ilustración, ni por los dogmas eclesiásticos. El sentimiento y la intuición eran los mejores caminos para relacionarse con la deidad. En su obra Soliloquios planteaba que “tantas veces como vuelvo mi mirada hacia adentro de mi ser más íntimo estoy en el campo de la eternidad”. Por lo tanto, la experiencia piadosa y mística de los creyentes es lugar de reflexión teológica. La teología por lo tanto tenía un nuevo lugar teológico, el sentimiento y la intuición humana. El sentimiento y la intuición eran la labor de la teología. El concepto sentimiento era una dependencia absoluta en la deidad. Y este era “la esencia de la piedad, idéntica consigo misma”. Es decir, era el estar en relación con Dios. No identificaba la experiencia con la subjetividad. Entendía que el sentimiento era ese lugar donde el yo aprende del Yo divino. Entendía la religión como una dependencia absoluta de la deidad. Tuvo implicaciones sobre la teología y la dogmática en el pensamiento. Planteaba que el dogma era una aserción de nuestro sentimiento. Y no sobre la deidad en sí misma. La doctrina sólo afirma nuestra concepción de Dios. Cuestionaba las definiciones Dios como una proyección humana sobre la deidad. Para Schleiermacher Dios era una realidad suprapersonal y trascendente. Cuestionaba el dogma de la trinidad. Negaba la interpretación de la muerte de Jesús como un sustituto por el ser humano. Entendía el pecado como un debilitamiento individual y colectivo de los seres humanos. Él negaba que el pecado sea un accidente o mera falta superficial y afirma que el pecado es un desorden profundo de la "naturaleza humana", una incapacidad total para hacer el bien que sólo puede ser curada mediante la religión, una anormalidad y deformación de la que surge todo mal. Así también afirma que el pecado no solo es individual, sino que tiene un carácter social o colectivo "en cada uno la obra de todos, y en todos la obra de cada uno". Veía a Cristo como el salvador porque en él brillaba dependencia absoluta en Dios. La obra de Cristo consistía en transferir al ser humano esa conciencia de dependencia absoluta en la divinidad. Los creyentes se benefician de esta conciencia a través de una unión mística con Cristo.

Acercamiento al Nuevo Testamento Desde 1819 a 1832 enfocó su reflexión del dogma cristológico a la investigación sobre Jesús. Planteó la total irreconciabilidad entre el Evangelio de Juan y los sinópticos (Mateo, Marcos y Lucas). La tendencia de su época era que los sinópticos eran cada vez más reconocidos como los textos primarios y de mayor cercanía a Jesús de Nazaret. Argumentó a favor de la preeminencia del Jesús juanino. El evangelio de Juan procedía de un testigo visual, mientras que los sinópticos eran obra de los discípulos de los apóstoles y por lo tanto obras secundarias. Era de la opinión que Juan nos mostraba a Jesús como el ser humano en total dependencia con la divinidad y que nos enseñaba a fortalecer esta dependencia en la divinidad. La salvación humana consistía en reconocer esta dependencia con la divinidad. Esta conciencia en la divinidad del ser humano era un tipo de misticismo religioso. Fue criticado por hacer de la teología una empresa esencialmente subjetiva a expensas de la revelación de la deidad. Era de la opinión que el evangelio de Mateo mencionado por Papías en la Historia Eclesiástica de Eusebio no se refería al Mateo canónico. El Mateo canónico había utilizado al Mateo mencionado por Papías como una fuente para Friedrich Schleiermacher 283

construir su narración. Era de la misma opinión sobre la relación del Evangelio de Marcos con la información sobre Marcos como un discípulo de Pedro presentada por Papías en la Historia Eclesiástica de Eusebio. Fue uno de los precursores de la discusión sobre las relaciones entre los evangelios sinópticos desde una perspectiva no confesional. Planteaba que los evangelios sinópticos dependían de dos fuentes primarias en su composición. Esto dio paso eventualmente a la teoría de las dos fuentes para explicar las relaciones literarias entre Mateo, Marcos y Lucas. Abordó otros asuntos relacionados al Nuevo Testamento tales como el corpus paulino y la pregunta hermenéutica. Sobre el corpus paulino, cuestionó que Pablo fuera el autor de las Epístolas Pastorales. Era un erudito en el manejo del griego de la antigüedad. Entre sus haberes se encuentra haber traducido a Platón al alemán. Por eso percibió las diferencias lingüísticas entre las cartas paulinas auténticas y las Cartas Pastorales. En su obra póstuma (1864) hace una distinción entre el Jesús histórico que presentan los evangelios sinópticos y el Jesús de la fe que se muestra en el evangelio de Juan. Fiel al racionalismo tardío alemán, niega la existencia de los milagros que no puedan explicarse racionalmente. Su aportación se enmarca dentro del periodo de la Antigua búsqueda del Jesús histórico (old quest). Para Schleiermacher, el evangelio según san Marcos era una síntesis de Mateo y Lucas, a los que consideraba más antiguos. Esta idea cambió en 1838 con las aportaciones de Christian Hermann Weisse y Christian Gottlob Wilke

La iglesia Fue uno de los primeros eruditos en cuestionar la interpretación sobre los autores de los Evangelios presentados por la tradición de la Iglesia. La iglesia es un lugar de verdadera comunidad humana. Una comunidad que se basa en este sentido de dependencia absoluta en la deidad compartida comunitariamente.Esto es base para una plena humanización.La religión es un componente básico de la naturaleza humana.

Hermenéutica Otra gran aportación fue su articulación de una teoría hermenéutica. Para Scheleiermacher, la tarea de la hermenéutica era “entender el discurso tan bien como el autor, y después mejor que él”. Intentó presentar una teoría coherente sobre el proceso de interpretación de los textos. Es considerado el padre de la hermenéutica moderna. Presentó la teoría de la comunicación entre un emisor y un receptor basado en un contexto social y lingüístico común. Ese contexto común era el que hacía posible la comunicación entre dos personas. El receptor podía comprender el discurso del emisor. Ambos poseían una gramática y lingüística común. Además, un contexto social común favorecía la empatía. Añadió a la teoría tradicional de la interpretación una dimensión psicológica. Previamente estaba basada en la pura decodificación gramatical del discurso. El individuo articula un discurso sobre el eje del lenguaje. En la actividad discursiva hay una doble dimensión. La individual de la persona que habla. Y la social del contexto social de la lengua. Así, el discurso tendrá un carácter común con la cultura en la que se articula y con el carácter del escritor. Existen dos niveles de comprensión del discurso. Son la llamada comprensión comparativa y comprensión adivinatoria. Por lo tanto, cada intérprete debe confrontar la dimensión social e individual del texto. Esto hace que la tarea interpretativa sea infinita. Cada intérprete pueda re-crear la actividad creativa y mental del autor a través del proceso interpretativo. Schleiermacher propone un sistema circular que conocemos como el círculo hermenéutico. Cada intérprete necesita introducirse en la dimensión social y la dimensión individual del autor para comprenderlo. Friedrich Schleiermacher 284

Cuando el intérprete se identifica con las intenciones, formas de pensamiento, situación histórica y el contexto histórico del autor para poder comprenderle. En la medida en que el lector se identifique con el autor y se ponga en su lugar, tanto mejor será la interpretación. La intelección del lector es lo que llama comprensión comparativa. Un segundo nivel de comprensión, el adivinatorio es intuitivo y subjetivo. Es la comprensión de la individualidad del autor de un texto. Así, en el Esbozo del 1805, Schleiermacher plantea que la hermenéutica es “comprender en la lengua y comprender en la persona que habla”. Proponía una metodología interpretativa. El lector localizaba el contexto histórico-social y lingüístico y entraba en diálogo con la singularidad del autor. Trataba de que hubiera una dimensión objetiva y otra subjetiva en el proceso de interpretar. Esta parte subjetiva era una dimensión psicológica en la tarea interpretativa.

Bibliografía • Schleiermacher, Friedrich. Sobre los diferentes métodos de traducir. Traduc. Valentín García Yebra. Editorial Gredos: Madrid, 2000. ISBN 84-249-2272-7 • Berman, Antoine (1984) (en francés). L'épreuve de l'étranger. Culture et traduction dans l'Allemagne romantique: Herder, Goethe, Schlegel, Novalis, Humboldt, Schleiermacher, Hölderlin.. París: Gallimard. ISBN 978-2070700769.

Enlaces externos

• Wikimedia Commons alberga contenido multimedia sobre Friedrich SchleiermacherCommons. • El contenido de este artículo incorpora material de una entrada de la Enciclopedia Libre Universal [1], publicada en español bajo la licencia Creative Commons Compartir-Igual 3.0 [2].

References

[1] http:/ / enciclopedia. us. es/ index. php/ Friedrich_Schleiermacher

[2] http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/ deed. es Francisco Pi y Margall 285 Francisco Pi y Margall

Francisco Pi y Margall

Pi y Margall, por José Sánchez Pescador.

Presidente del Poder Ejecutivo de la República Española 11 de junio de 1873 – 18 de julio de 1873 Predecesor Sucesor Nicolás Salmerón

Ministro de Gobernación de España 12 de febrero de 1873 – 18 de julio de 1873 Presidente Estanislao Figueras Predecesor Sucesor Eleuterio Maisonnave

Diputado en Cortes Generales por Barcelona, Valencia, Madrid, Tarragona y Gerona[1] 17 de junio de 1886 – 29 de noviembre de 1901

Diputado en Cortes Generales por Barcelona 19 de febrero de 1869 – 8 de enero de 1874

Datos personales

Nacimiento 20 de abril de 1824 Barcelona, España Francisco Pi y Margall 286

Fallecimiento 29 de noviembre de 1901 (77 años) Madrid, España Partido Partido Democrático Partido Federal Cónyuge Petra Arsuaga Hijos Francisco, Joaquín y Dolores Profesión Periodista, historiador, jurista, escritor y filósofo Ocupación Político Alma máter Universidad de Barcelona Tratamiento Excelentísimo Señor

Residencia Madrid, España Firma

Francisco Pi y Margall (20 de abril de 1824, Barcelona — 29 de noviembre de 1901, Madrid) fue un político, filósofo, jurista y escritor español, que asumió la presidencia del Poder Ejecutivo de la Primera República Española entre el 11 de junio y el 18 de julio de 1873. Como político, fue partidario de un modelo federalista para la Primera República Española, sabiendo conjugar las influencias de Proudhon para llevar a cabo la política del Estado con tendencias del socialismo democrático. Contrario a la monarquía española en cualquiera de sus variantes y formas, participó activamente en la oposición a la misma, por lo que sufrió censura, cárcel y exilio. Después de la Revolución Gloriosa fue diputado en Cortes Generales, donde dirigió el Partido Federal, y Ministro de la Gobernación con Estanislao Figueras. Tras la dimisión de este, las Cortes le eligieron Presidente, cargo desde el cual se enfrentó a la Tercera Guerra Carlista y la Revolución Cantonal, defendiendo el Proyecto de Constitución Federal de 1873. Se vio obligado a dimitir ante la imposibilidad de desarrollar su labor de gobierno tras el Cantón de Cartagena. Como intelectual se dedicó esencialmente a la Historia, la Filosofía y el Arte. Se le considera como uno de los intelectuales representativos del pensamiento más avanzado de la segunda mitad del siglo XIX. Escribió multitud de obras y fue redactor y director de varios periódicos. Tuvo contacto con las grandes figuras de la intelectualidad europea de la época, lo que le granjeó una enorme reputación en España y fuera de ella. Con una biografía intachable debida a su honradez, acompañada por una dedicación intensa a sus principios políticos, se ha convertido en un referente de la tradición democrática española.[2]

Primeros años

Infancia y formación Hijo de un tejedor de velos asalariado, su inteligencia y ansias por saber comenzaron a desarrollarse con precocidad y con siete años ingresó en el seminario. Por aquel entonces, una de las únicas maneras que tenían las gentes humildes de que sus hijos tuvieran estudios era logrando que los admitiesen en los seminarios, donde eran instruidos en latín y teología. Tras su paso por el seminario, y a la edad de diecisiete años, Francisco Pi y Margall accedió a la Universidad de Barcelona, donde completó sus estudios de Filosofía y posteriormente comenzó la carrera de Leyes, sufragándose sus estudios dando clases particulares. Desde muy pequeño sintió atracción por la literatura; pasión que desarrolló colaborando con el grupo de escritores románticos catalanes, sobre todo con Manuel Milá y Fontanals y Pablo Piferrer. Francisco Pi y Margall 287

En 1842 publicó Cataluña, primer y único volumen de La España pintoresca, una ambiciosa obra ilustrada que pretendía recoger todas las regiones de España. Una época en la que se desarrollaba la regencia de Espartero y en la que la ciudad se sublevó contra la política del regente provocando la cañoneada a la ciudad desde la fortaleza de Montjuich.

En Madrid, un hombre de letras Más tarde, en 1847 se trasladó a Madrid, donde se doctoró en Derecho a la edad de veinticuatro años. Se costeó los estudios dando clases y publicando diversos artículos y haciendo crítica teatral en el diario El Correo, e incluso trabajando en la banca catalana como publicista. Pronto dejó de trabajar en el diario, el cual cerró por la publicación de unos polémicos artículos sobre el catolicismo, la historia y la economía política de Pi y Margall durante el gobierno de Narváez. En 1849, ya adelantó algunas de sus futuras posiciones políticas criticando severamente el sistema de partidos vigente en la España isabelina. Consideraba que todos las formaciones (Unión Liberal, Partido Moderado y Progresista) mantenían la imposibilidad de la llegada de la verdadera democracia a España. Al morir su amigo Piferrer se encargó de los Recuerdos y bellezas de España, una obra compuesta por litografías sobre paisajes españoles; terminando el volumen de Cataluña y empezando el de Andalucía, para lo cual se desplazó hasta allí en varias ocasiones. En 1851 comenzó la Historia de la pintura, que fue prohibida acusada de contener ataques al cristianismo. Los obispos y arzobispos presionaron de tal manera sobre el gobierno que Bravo Murillo, que este tuvo que ordenar la recogida de la obra. Tanto Pi y Margall como el editor se libraron de los tribunales porque la denuncia interpuesta no fue admitida por estar fuera de plazo. Por supuesto, Pi y Margall tuvo que abandonar la redacción de Recuerdos y Bellezas de España y renunciar a la publicación de todo el material que había preparado. Sus artículos en los periódicos tuvieron que aparecer con seudónimo y todos los rayos de la reacción cayeron otra vez sobre su cabeza cuando ese mismo año presentó sus Estudios sobre la Edad Media, obra que también fue prohibida por la iglesia católica española y que no fue publicada hasta 1873.[3]

Familia En 1854, tras la Vicalvarada, intentó evitar una detención por parte de la policía refugiándose en Vergara (Guipúzcoa), que aún conservaba parte de sus antiguos fueros. Allí se dedicó al estudio del País Vasco, reflexiones que finalmente fueron publicadas en el El Museo Universal de Barcelona bajo el título Historias y costumbres del pueblo vasco. En Vergara conoció a Petra Arsuega Goicoechea, vecina de la localidad y con quien mantuvo un breve noviazgo. Se casaron el 22 de junio de 1854 y fruto de ese enlace nacieron varios hijos, de los cuales solo vivieron tres: Francisco que fue varias veces diputado en Cortes tras la muerte de su padre; Joaquín, que trabajó en la edición y conclusión de las obras de su padre; y su hija Dolores.[4]

El hombre político En 1848 ingresó en el Partido Democrático y en 1854 dejó de ser un hombre de letras para dedicarse a la política. En pocos años se hizo notar en el partido comenzando a ganar popularidad entre sus compañeros y demás políticos del ala izquierda y socialista. Participó directamente en la Revolución de 1854, siendo autor de una proclama radical, que no fue aceptada por la Junta revolucionaria, y del folleto El eco de la revolución, donde se pide el armamento general del pueblo y la convocatoria de Cortes Constituyentes por sufragio universal que estableciesen la libertad de imprenta, la de conciencia, la de enseñanza, la de reunión y la de asociación, entre otras más. Considerados como planteamientos demasiado avanzados para la época, tuvo que pasar un tiempo en prisión. Francisco Pi y Margall 288

En el mismo año expuso su doctrina política en La reacción y la revolución, donde ataca la monarquía, la propiedad omnímoda y el cristianismo,[5] y esboza como solución la revolución democrática de base popular. En ella aparecen nítidamente las definiciones democráticas radicales, superadoras del propio liberalismo y uno de los puntos de partida de futuras definiciones socialistas no burguesas. Aunque la obra ya contenga las doctrinas federalistas que defenderá durante su presidencia, la idea principal que desarrolla es la libertad y la soberanía individual, que puso por encima de la soberanía popular y por lo que ha sido reivindicado por los ácratas en algunas ocasiones.

Durante el Bienio Progresista, el pueblo de Barcelona propuso a Pi y Margall como candidato a diputado en las Cortes de ese año (1854), mas no saldrá elegido. En la segunda vuelta, por pocos votos de diferencia, fue derrotado por el general Prim, miembro del Partido Progresista. Sus diferencias con los progresistas y con un amplio sector de su partido se fueron acentuando. Conforme iba aumentando su actividad política y su prestigio, fue recibiendo ataques de «inflexible» o «doctrinario», lo que minó su capacidad de influencia política. El exotismo de su pensamiento se hacía cada día mas evidente, ya que por aquel entonces su discurso Ésta es la portada de 1839 del ambicioso proyecto era muy crítico con el centralismo y la situación social. artístico-literario de once volúmenes titulado Recuerdos y Bellezas de España. En 1856 fundó la revista La Razón, pero la reacción moderada propició la caída de la publicación, tras lo cual se retiró a vivir a Vergara, de donde regresó para trabajar en La discusión (1857), periódico del que acabó siendo director en 1864. En él redactó artículos pioneros sobre la cuestión social española, como «Las clases jornaleras», «El socialismo» o «La democracia y el trabajo». Pi y Margall había establecido contactos con organizaciones obreras, daba conferencias y redactaba documentos, comenzado a dar lecciones de política y economía en una habitación de la calle Desengaño donde había establecido un bufete de abogado en 1859. La afluencia de jóvenes de todas clases, de obreros y de intelectuales se fue haciendo en poco tiempo tan numerosa que llenaban pasillos y escalera. En estas lecciones y en estas conferencias, hasta que el gobierno las prohibió, comenzaron a exponerse las bases republicanas.[6]

De esa época data su polémica con Castelar sobre la concepción individualista o socialista de la democracia —manteniendo él la segunda— provocando que la mayoría del partido encabezado por José María Orense negara públicamente que los socialistas fueran demócratas. Pi y Margall replicó con la denominada Declaración de los Treinta, cuyos treinta firmantes del partido calificaban de demócratas a ambas tendencias, y finalmente renunció a su puesto de director a los seis meses. Francisco Pi y Margall 289

El exilio

Huida a Francia Desde 1864 Pi y Margall conspiró en contra de la monarquía. Los sucesivos fracasos de las insurrecciones promovidas por Prim para obligar a Isabel II a llamar al gobierno a los progresistas, culminaron en la sublevación del cuartel de San Gil y el fusilamiento de decenas de sargentos de ese cuartel. Narváez, desde el gobierno, desató la consiguiente represión generalizada. La mayoría de los demócratas y de los progresistas tuvieron que escapar a Francia para sentirse a salvo. En la noche del día 2 de agosto la policía asaltaba la vivienda de Pi y Margall. Afortunadamente, alguien le había avisado poco antes y tuvo tiempo para escapar y evitar su detención. Permaneció escondido unos días hasta que pudo iniciar la huida a Francia y llegar a París, lo que le impidió participar en la Revolución de 1868.

Un tiempo de reflexión La estancia en París le permitió profundizar en el conocimiento de Proudhon, de quien ya conocía su Filosofía de la miseria, lo que ejerció una notable influencia en su pensamiento llegando a traducir al español El principio federativo y La filosofía del progreso, afirmándole en sus convicciones federalistas y fomentando de este modo indirectamente el naciente anarquismo hispano. Mientras se dedicaba a la abogacía, Pi y Margall aprovechó este periodo para ponerse en contacto con los núcleos positivistas liderados por Auguste Comte, lo que le ayudó a matizar su hegelianismo inicial y madurar su ideología revolucionaria, basada en la destrucción de la autoridad para sustituirla por el libre pacto constitutivo de la federación.

Situación en España En septiembre de 1868, el almirante Topete sublevó a la escuadra en Cádiz; Prim se incorporó desde Gibraltar y llegaron para adherirse los generales confinados en Canarias. Las guarniciones se fueron sumando a la sublevación y Prim, a bordo de la fragata Zaragoza, iba ganando para la revolución, una tras otra, todas las capitales costeras del litoral mediterráneo. Dimitió el dictador González Bravo y la reina Isabel II nombró presidente del gobierno al general José Gutiérrez de la Concha. El ejército realista que mandaba el general Pavía fue derrotado en la batalla del puente de Alcolea por las fuerzas a las órdenes del general Serrano. El 30 de septiembre Isabel II y su corte salieron de San Sebastián y cruzaron la frontera francesa. Sin embargo, Pi y Margall no regresó a España y prolongó voluntariamente su exilio en París. Desconfiaba de los generales y pensaba que el nuevo régimen tampoco iba a acometer las reformas fundamentales que el país necesitaba. Francisco Pi y Margall 290

La revolución democrática

Diputado

Con la revolución de La Gloriosa, Pi y Margall se decidió a regresar de su exilio en París. El Gobierno provisional estableció las libertades fundamentales y el 18 de diciembre de 1868, por primera vez en España, se celebraron unas elecciones municipales por sufragio universal. Luego, en enero, se celebrarían las elecciones a Cortes.

El Partido Democrático se dividió en dos: los partidarios de la monarquía democrática y los partidarios del régimen republicano y federal. Pi y Margall, sin haber participado en la campaña electoral, fue uno de los 85 republicanos que obtuvo el acta de diputado. Con la división del partido apareció el Partido Republicano Democrático Federal en el que Pi y Margall iría destacando entre la minoría republicana.

Pi y Margall nunca quiso servir de apoyo a los monárquicos ni ayudarles, de ahí su oposición a la Constitución de 1869, pero con 214 votos a favor y 55 en contra, la constitución de carácter monárquico-democrático se aprobó en las Cortes y Pi y Margall en 1869. se estipuló la búsqueda de un nuevo rey para España. Los republicanos, detractores de la monarquía viajaron por toda España predicando en su contra y deleitando al pueblo con los nuevos planteamientos de una república federal para España. Pi y Margall se convirtió poco a poco en el referente político e intelectual del republicanismo español.

Los republicanos empezaban a molestar al general Prim —encargado de encontrar nuevo rey— por ello ofreció a Castelar y a Pi y Margall los cargos de ministros de Hacienda y Fomento, pero fue un vano intento de controlar al movimiento republicano, el cual ya no tenía marcha atrás. Mientras tanto, Pi y Margall había conseguido grandiosa popularidad en su partido, lo que le llevó a dirigirlo a partir de 1870, lo cual no era una posición fácil, ya que había una gran fragmentación dentro del republicanismo, así como sectores más intransigentes y otros mas benévolos, partidarios de colaborar con la nueva situación. Sin embargo, el programa de Pi y Margall estaba claro y se podía resumir en los siguientes puntos:[7] • La república federal como forma de gobierno, frente a cualquier forma de monarquía o república unitaria. • Programa de reformas sociales basados en un socialismo reformista y democrático. • Defensa de la vía legal y rechazo de la insurreción, lo que le enfrentó al cantonalismo. • Organización del partido republicano única para toda España, con un programa único y una disciplina en el trabajo político. Tras el rechazo de Pi y Margall al nombramiento de Amadeo de Saboya, comenzó para su partido una época inestable ya que sus partidarios debían situarse políticamente en una posición centralista que el Partido Republicano Democrático Federal no pudo ocupar por definición. Francisco Pi y Margall 291

Ministro de la Gobernación El 11 de febrero de 1873, tras hacerse pública la abdicación de Amadeo de Saboya del trono de España mediante el Discurso de renuncia al Trono español de Amadeo, la Asamblea Nacional proclamó la Primera República. Durante el primer gobierno de la República lo dirigió Estanislao Figueras, y este le encomendó a Pi y Margall que se ocupara del ministerio de Gobernación en el gabinete, desde donde frustró un intento de golpe de Estado contra el presidente. Durante su mandato también tuvo que organizar las elecciones que convocó el presidente Figueras por el enfrentamiento político y la parálisis parlamentaria en que vivía la nación. Pi y Margall organizó desde su ministerio unas elecciones excepcionalmente limpias.[8] Además, en medio de los mil y un conflictos que aquejaban a España, Pi y Margall no abandonó sus procupaciones sociales. En un discurso a las Cortes el 13 de junio de 1873, el ministro presentó un programa de reformas que incluían: restricción del trabajo de niños y mujeres, jurados mixtos y venta de bienes estatales en favor de las clases trabajadoras. Estas medidas fueron muy criticadas por los bakuninistas de la I Internacional, pero alabadas por Friederich Engels.[9] El primer gobierno republicano, muy débil, duró muy poco tiempo (12 de febrero a 11 de junio). El presidente Figueras, al no poder hacer frente a los problemas de España, se exilió a Francia y renunció al cargo.[10]

Presidente de la República

Con la dimisión de Figueras, las Cortes Constituyentes eligieron al nuevo gobierno, en el que Francisco Pi y Margall fue nombrado Presidente del Poder Ejecutivo.[11] Durante su presidencia impulsó el proyecto de Constitución de 1873, que nunca llegó a entrar en vigor. No obstante, el nuevo Presidente recogió un programa amplio de reformas entre las que destacaron: reparto de tierras entre colonos y arrendatarios, restablecimiento del uso del ejército como medida de disciplina, separación entre la Iglesia y el Estado, abolición de la esclavitud, enseñanza obligatoria y gratuita, limitación del trabajo infantil, ampliación de los derechos de asociación, favorable a las nuevas asociaciones obreras y reducción de la jornada de trabajo.[12]

Pi y Margall defendió la Constitución federal de 1873 y su programa de reformas contra viento y marea, sin embargo, el proyecto federalista que quería impulsar prefirió hacerlo de arriba-abajo en vez de abajo-arriba, como había defendido siempre: «La Federación de abajo arriba era entonces imposible: no cabía sino que la determinasen, en caso de Pi y Margall. adoptarla, las futuras Cortes (...) El procedimiento, no hay que ocultarlo, era abiertamente contrario al anterior: el resultado podía ser el mismo.»[13] Frente a la federación de cantones, Pi y Margall defendía una república federal proclamada por ambas cámaras de las Cortes Constituyentes. Francisco Pi y Margall 292

Dimisión

A pesar de todas las reformas promulgadas y la propuesta de Constitución, los acontecimientos sobrepasaron a Pi y Margall. En algunas comunidades, viendo que el trámite legal de las medidas propuestas a favor del federalismo era muy lento, se declararon independientes adoptando su propia política, su propia policía, su propia emisión de moneda, levantando nuevas fronteras, leyes particulares, etc. Así surge el cantonalismo que se dio principalmente en la zona del Levante y Andalucía y causó un gran problema a la República. Su política desde el Gobierno le acarreará, no solo las críticas de la derecha por ser el padre intelectual del cantonalismo, sino también de los republicanos unitarios y Pi y Margall se ve desbordado por el federalismo, representado de parte de la izquierda, que le consideró un legalista pacato en figuras infantiles ataviadas con los distintos trajes regionales. que no supo proclamar la república federal por decreto sin esperar a las Cortes Constituyentes.

Ante este panorama, sumado a la guerra de independencia cubana, la guerra carlista y los intentos de sus opositores por vincular a Pi y Margall como líder del movimiento cantonal, este dimitió de su cargo el 18 de julio de 1873, tras largas e inútiles negociaciones, para no tener que utilizar la represión gubernamental contra los insurrectos cantonalistas. Tiempo después, en su escrito La República de 1873, realizó un balance autocrítico retrospectivo de su gestión pública, reconociendo haber sido presa de un purismo legalista contrario a sus convicciones que le hizo titubear en el ejercicio del poder al servicio de la consolidación de la República. Azorín dijo de él: «En 1873 siendo ministro de Gobernación, pudo haber instaurado la república federal, con ocasión de las insurreciones de Sevilla, Barcelona y Cartagena. Y este hombre que desde 1854 venía predicando la federación y consagrando a ella todas sus energías, ¡permaneció inerte!».[14] Acorralado por la oposición unitaria y por los federalistas intransigentes que habían promovido la insurreción cantonal, Pi y Margall presentó su Situación española en 1873-1874. En rojo, la Tercera Guerra dimisión con motivo del cantón de Cartagena. Carlista. En amarillo, la Revolución cantonal.

Fin de la República

Tras su dimisión, las Cortes Constituyentes nombraron presidente a Nicolás Salmerón, teniendo como ministros de confianza a los mismos que tuvo Pi y Margall durante el anterior gobierno. Se pudo comprobar durante este gobierno el gran trabajo que Pi y Margall había realizado anteriormente como ministro de Gobernación. Al haber llevado una política austera sin realizar muchos gastos, la República contaba con grandes recursos. Sin embargo, el proyecto republicano y federalista fue aparcado tanto por Salmerón como por su sucesor Castelar. Ante la negativa del presidente, alegando problemas de conciencia, a firmar ocho sentencias de muerte, este dimitió el 5 de septiembre. En las nuevas elecciones resultó ganador, por encima de Pi y Margall, candidato a presidente de nuevo. Con el fin de solucionar los problemas del país, Emilio Castelar consiguió atribuciones especiales temporales —hasta el 2 de enero de 1874— que le permitieron suspender las garantías constitucionales y Francisco Pi y Margall 293

la disolución de las Cortes hasta enero. Sin embargo, estas medidas excepcionales acabarían facilitando el final de la Primera República. A grandes rasgos los gobiernos de la República se caracterizaron por tres problemas: el carlismo, la guerra de independencia cubana y el cantonalismo, además de la cantidad de conflictos internos entre los partidos.

Restauración de la Monarquía

Golpe de Estado Después de su dimisión como presidente, Pi y Margall intentó rehacer la alianza centro-izquierda, pero el golpe del Estado a manos del general Pavía frustró la iniciativa. En la madrugada del día 3 de enero de 1874 estaban las Cortes reunidas votando un nuevo presidente que sustituyera a Castelar. Dio entonces el golpe de estado del general Pavía, que en un primer momento ofreció la presidencia del gobierno al dimitido Castelar, que la rechazó sin contemplaciones. Formó gobierno el general Serrano provisionalmente hasta que la monarquía fue restaurada nombrando como rey a Alfonso XII de la dinastía Borbón.

Acontecidos los hechos, Pi y Margall tuvo que abandonar

forzosamente la política activa y volvió a su trabajo de Entrada de las tropas del general Pavía en el Congreso de los abogado. También dedicó su tiempo a la redacción de un Diputados el 3 de enero de 1874. Grabado aparecido en La libro en el que quedase recogida la ideología republicana y Ilustración Española y Americana. las ideas principales de su breve pero intensa gestión en la República, titulado La República de 1873, que sería prohibido por las autoridades. En mayo de 1874, fue víctima de un atentado en su propia casa, del que afortunadamente salió sano y salvo. Poco se sabe de la represión que siguió al golpe de Pavía y de la que tuvo lugar en los primeros años de la restauración. El propio Pi y Margall fue detenido y conducido a una prisión andaluza, donde permaneció un tiempo.

Restauración borbónica Reinstaurada la monarquía, Pi y Margall continuó su labor periodística reanudando el cultivo de las letras pero permaneciendo fiel a sus convicciones democráticas, republicanas y federales. En 1876 terminó de escribir Joyas literarias y el primer tomo de una Historia general de América. En 1877 publicó Las nacionalidades, obra de síntesis de su pensamiento político donde desarrolló empíricamente la idea de pacto entre los pueblos como principio federativo. Al reorganizarse el Partido Federal en 1880, ocupó su jefatura indiscutible hasta su muerte; fue el autor del proyecto constitucional federal en 1883 y del Programa del Partido Federal de 1894, escritos ambos de propaganda política. A pesar de que Pi y Margall continuó gozando de un gran respeto y reconocimiento, su partido no logró recuperar muchos adeptos. Francisco Pi y Margall 294

En 1881, se separó del republicano catalán Valentín Almirall y del catalanismo; y en 1890 funda el periódico semanario El nuevo régimen desde donde continuó su actividad política, periodística y literaria. Pi y Margall consideraba su propia tendencia política como federalismo heterodoxo y la defendió en Madrid desde las Cortes, siendo elegido diputado por Figueras en 1881, 1886, 1891 (año del establecimiento del sufragio universal masculino), 1893 y 1901, año de su muerte. Ese mismo año también presidió los Juegos Florales de Barcelona.

En esta última etapa de su vida destaca la campaña que, tanto desde las Cortes como desde El nuevo régimen, emprendió a favor de la independencia cubana y en oposición a la guerra contra los Estados Unidos, que consideraba modelo de democracia republicana y federal. Después de una vida política muy activa e importante en el siglo XIX, Francisco Pi y Margall, de setenta y siete años de El anciano Pi y Margall en 1900. edad, murió en su casa de Madrid, a las seis de la tarde del 29 de noviembre de 1901.

Repercusión histórica Avanzada la segunda mitad del siglo XIX, el viejo tronco del liberalismo, en sus ramas moderada y progresista, había ya fracasado en su intento de construir un Estado moderno. Las burguesías hispanas eran débiles frente a las poderosas fuerzas del Antiguo Régimen; por otra parte, el movimiento obrero era una realidad amenazante para el despegue capitalista. En plena época jalonada de guerras, pronunciamientos y levantamientos populares surgió una generación de intelectuales cuya obra consistió en la demolición ideológica de los viejos conceptos que sustentaban a un Estado caduco y en crisis. Reaccionan así contra el Estado absolutista y confesionalmente católico, centralista y manejado a su antojo por oligarquías. No obstante, este tema dista de ser en sus obras objeto de frías consideraciones jurídicas para convertirse en algo vivo y polémico, llegando los ecos de su discurso y su actividad hasta los comienzos de la Segunda República. Francisco Pi y Margall es el pensador político de aquella generación que ha ejercido una influencia más profunda y duradera. Destacó como historiador, periodista, crítico de arte, filósofo, jurista y economista. En su obra está presente la tradición hispana de Francisco Suárez y los ilustrados de finales del siglo XVIII, los enciclopedistas franceses, el romanticismo en su vertiente política y el socialismo utópico de Proudhon. Profundo conocedor de la historia y la literatura de los pueblos peninsulares, en todos sus escritos late un profundo conocimiento de su psicología colectiva y de su realidad política y social. Pi y Margall defendió siempre su ideología republicana federalista contra todos los problemas que se derivaran de ello; y cuando sobrevino el desastre de 1898, en medio de un patrioterismo desaforado, su voz resonó clara: libre autodeterminación de los pueblos, no a las aventuras coloniales y regeneración ciudadana mediante la educación, la cultura y el trabajo. Su doctrina denota la influencia de Hegel, Rousseau y Proudhon; aunque la influencia proudhoniana no intervino en la elaboración del federalismo pactista de Pi y Margall, ya que la obra de éste es anterior en este punto a la de Proudhon. El pensamiento de Pi y Margall fue uno de los más revolucionarios del siglo XIX español y, desde el punto de vista del anarquismo, únicamente fue superado por los bakuninistas. Se sitúa en el cruce de demócratas y socialistas de la época, cuya doble vertiente anticapitalista y popularista atraería a los principales dirigentes del movimiento obrero anteriores a la difusión de la Primera Internacional. El propio Pi y Francisco Pi y Margall 295

Margall tendría una vinculación directa con el movimiento obrero durante el bienio progresista. La influencia de Pi y Margall, que alcanzó en vida a las pequeñas burguesías republicanas y sectores del movimiento obrero, se extendió a las filas republicanas de izquierda en el primer tercio de siglo XX. Como político y como intelectual fue de una honradez a toda prueba, incluso elogiada por su enemigos. De su honestidad y progresismo políticos dan fe testimonios de autores tan distantes ideológicamente como Friedrich Engels,[15] Sabino Arana[16] y .[17] La complejidad y cohesión del pensamiento de Pi y Margall ha ocasionado que diferentes corrientes políticas —federalistas, anarquistas[18] y catalanistas de izquierda— lo utilizaran como bandera propia, dando a conocer aquellos puntos de la doctrina de Pi y Margall que se avenían a sus propios principios.

Obras de Pi y Margall • La España Pintoresca, 1841. • Historia de la Pintura, 1851. • Estudios de la Edad Media, 1851. Publicado por primera vez en 1873. • El eco de la revolución, 1854. • La reacción y la revolución, 1855. • Declaración de los treinta, 1864. • La República de 1873, 1874. • Joyas literarias, 1876. • Las nacionalidades, 1877. • Historia General de América, 1878. • La Federación, 1880. • Constitución federal, 1883. • Observaciones sobre el carácter de Don Juan Tenorio, 1884. • Las luchas de nuestros días, 1884. • Primeros diálogos, sin datar. • Amadeo de Saboya, sin datar. • Programa del Partido Federal, 1894.

Bibliografía • Conangla, J. Cuba y Pi y Margall. La Habana, 1947. • Ferrando Badía, Juan. Historia político-parlamentaria de la República de 1873. Madrid: Cuadernos para el Diálogo, 1973. • Grande Esteban, M. Unitarismo y federalismo (prefacio). Madrid: Emiliano Escolar Editor, 1981. ISBN 84-7393-137-8 • Hennessy, C. A. M. La República Federal en España. Pi y Margall y el movimiento republicano federal, 1868-1874. Madrid: Aguilar, 1966. • Jutglar, Antoni. Federalismo y Revolución. Las ideas sociales de Pi y Margall. Barcelona, 1966. • Jutglar, Antoni. La República de 1873, de Pi y Margall. Barcelona, 1970. • Jutglar, Antoni. Pi y Margall y el Federalismo español. 2 vols. Madrid: Taurus, 1974. • Martí, Casimir. L'orientació de Pi i Margall cap al socialisme i la democràcia. Artículo en Recerques nº38. Barcelona, 1974. • Molas, I. Ideari de Francesc Pi i Margall. Barcelona, 1965. • Pi y Arsuaga, F. Pi y Margall. Lecciones de federalismo. Barcelona, 1931. • Rovira i Virgili, A. Pròleg i notes a La qüestió de Catalunya davant el Federalisme. Escrits i discursos. (con especial dedicación a F. Pi i Margall). Barcelona, 1913. Francisco Pi y Margall 296

Referencias

[1] Mandatos de Pi y Margall como Diputado . Web del Congreso de los Diputados (http:/ / www. congreso. es/ portal/ page/ portal/ Congreso/

Congreso/ SDocum/ ArchCon/ SDHistoDipu/ SDBuscHisDip?_piref73_1340033_73_1340032_1340032. next_page=/ wc/ enviarCgiBuscadorHistorico) [2] Santamaría, Antonio; Francisco Pi y Margall: Federalismo y República, El Viejo Topo, 2006.

[3] « Francisco Pi y Margall (http:/ / www. geocities. com/ CapitolHill/ Lobby/ 8579/ pi. html)» (en español). Consultado el 29/05/2007 de 2007. [4] Santamaría (2006). [5] Maíz, Ramón; Estudio Introductorio a "Las Nacionalidades", Akal, Madrid, 2009, p. 7. [6] Trías, Juan; Pi y Margall: El pensamiento social, Ciencia Nueva, Madrid, 1968. [7] Maíz (2009), p. 10. [8] Maíz (2009), p. 10. [9] Maíz (2009), p. 10. [10] Francisco Pi y Margall, 1873, Ministro de Gobernación: Circular del Ministerio de la Gobernación a todos los Gobernadores de provincias: Vacante el trono por renuncia de Amadeo I de Saboya, el Congreso y el Senado, constituidos en las Cortes Soberanas, han reasumido todos los poderes y proclamado la República. A consolidarla y darle prestigio han de dirigirse ahora los esfuerzos de todas las autoridades que de este Ministerio dependen. Se ha establecido sin sangre, sin convulsiones, sin la más pequeña alteración del orden: y sin disturbios conviene que se la sostenga, para que acaben de desengañarse los que la consideraban como inseparable de la anarquía.Orden, Libertad y Justicia: éste es el lema de la República. Se contrariarían sus fines si no se respetara y se hiciera respetar el derecho de todos los ciudadanos (...). Se le contrariarían también, si no se dejara amplia y absoluta libertad a las manifestaciones de pensamiento y de la conciencia; si se violara el más pequeño de los derechos consignados en el Título I de la Constitución de 1869.

[11] Gaceta de Madrid (http:/ / www. boe. es/ datos/ imagenes/ BOE/ 1873/ 163/ A00703. tif), 12 de junio de 1873, tomo II, p. 703. [12] Francisco Pi y Margall, 1873, Presidente de la República: Comunicado sobre la reducción de las horas de trabajo: Piden, hoy los jornaleros que se les reduzca las horas de trabajo. Quieren que se les fijen en ocho al día. No nos parecen exageradas sus pretensiones. No se trabaja más en buen número de industrias. Tampoco en las oficinas del Estado. Sobre que, según laboriosos estudios, no permite más el desgaste de fuerzas que el trabajo ocasiona. Mas ¿es el Estado el que ha de satisfacer estas pretensiones? En la individualista Inglaterra empezó por limitar el trabajo de los niños y las mujeres y acabó por limitar el de los adultos. Dio primero la ley de las diez horas, más tarde la de las nueve. No a tontas ni a locas, sino después de largos y borrascosos debates en la prensa y el Parlamento. Siguió en Francia el ejemplo apenas estalló la revolución de 1848. El trabajo es la vida de las naciones. No vemos por qué no ha de poder librarlo de los vicios interiores que lo debiliten o lo perturben el que lo escudó por sus aranceles contra la concurrencia de los extranjeros. ¿No es acaso de interés general que excesivos trabajos no agoten prematuramente las fuerzas del obrero? ¿No lo es evitar esas cada día más frecuentes y numerosas huelgas que paralizan la producción, cuando no dan margen a sangrientos conflictos? Ni acertamos a explicarnos por qué se ha de tener reparo en fijar las horas de trabajo para los adultos y no fijarlas para las mujeres y los niños. Se las fija para los niños y mujeres pasando por encima de la potestad del padre y la autoridad del marido; y ¿no se las ha de poder fijar para los adultos pasando por encima del bien o mal entendido interés del propietario? Dadas las condiciones industriales bajo las que vivimos, el adulto no necesita de menos protección que la mujer y el niño. Es en la lucha con el capital lo que la caña al ciclón, la arista al viento. El Estado, aun considerándose incompetente para la determinación de las horas de trabajo, podría hacer mucho en pro de los obreros con sólo establecer el máximun de las ocho horas en cuantos servicios y obras de él dependen. Tarde o temprano habrían de aceptar la reforma los dueños de minas, de campos, de talleres, de fábricas. Falta ahora decir que esta reforma exige otras no menos importantes. Si de las diez y seis horas de ocio no invirtiese algunas el jornalero en su educación y cultura, se degradaría y envilecería en vez de dignificarse y elevarse. Se entregaría fácilmente a vicios que desgastarían sus fuerzas con mayor intensidad y rapidez que el trabajo. Para impedirlo es necesario crear en todas partes escuelas de adultos, sobre todo, escuelas donde oral y experimentalmente se explique las ciencias de inmediata aplicación a las artes y los fenómenos de la Naturaleza que más contribuyen a mantener la superstición y el fanatismo; escuelas que podrían ya existir hoy si empleásemos en lo útil lo que gastamos en lo superfluo. La educación y la enseñanza de las clases trabajadoras deberían haber sido hace tiempo la Francisco Pi y Margall 297

preferente atención, no sólo del Estado, sino también de las Diputaciones de provincia y los Ayuntamientos. De esa educación y de esa enseñanza depende que sea regular o anómalo el curso de la revolución que ahora se inicia por la modesta solicitud de que se reduzca las horas de trabajo. Podrán venir días tristes para la Nación, como no nos apresuremos a llevar luz a la inteligencia de esos hombres y no les abramos los fáciles senderos por donde puedan llegar sin dolorosas catástrofes al logro de sus más lejanas aspiraciones y sus más recónditos deseos. ¿Nos creéis, entonces, se nos dirá, próximos a una revolución social de la que no es sino un proemio la pretensión de que se límite las horas de trabajo? Ciego ha de ser el que no lo vea. En todos los monumentos de la vecina Francia, inclusas las iglesias está esculpida en grandes caracteres la trinidad moderna, algo más inteligible que la de Platón y los teólogos: libertad, igualdad, fraternidad. Conseguida la libertad, empieza la revolución por la igualdad y hace sentir ya del uno al otro confín de Europa la alterada voz de sus muchedumbres y el rumor de sus armas. ¿Hará esta revolución pasar a los pueblos por las mismas convulsiones que la política? [13] Maíz (2009), p. 11. [14] Maíz (2009), p. 12. [15] K. Marx y F. Engels. Revolución en España. Barcelona, 1960. [16] Sabino Arana. De acá y de allá. El Correo Vasco, núm. 68. Bilbao, 1899. [17] Federica Montseny. : El hombre y la obra. Barcelona, 1938.

[18] (1947), en Anarcosindicalismo (teoría y práctica) (http:/ / www. nodo50. org/ fau/ teoria_anarquista/ rocker/ 1. htm): Este primer movimiento de los obreros españoles estaba grandemente influido por las ideas de Pi y Margall, jefe de los federales y discípulo de Proudhon. Pi y Margall era uno de los pensadores de su tiempo y ejerció poderosa influencia en el desarrollo de las ideas libertarias en España. Sus ideas políticas ofrecen semejanza con las de Ricardo Price, José Priestley, , Jefferson y otros representantes de la primera época del liberalismo angloamericano. Deseaba limitar al mínimo el Poder del Estado y sustituir esa institución gradualmente por un orden de economía socialista.

Enlaces externos • Wikisource contiene obras originales de o sobre Francisco Pi y Margall.Wikisource

• Wikimedia Commons alberga contenido multimedia sobre Francisco Pi y Margall. Commons

• La Idea Federal de España (http:/ / saavedrafajardo. um. es/ WEB/ archivos/ respublica/ hispana/ DOC0004-JVB. pdf)

• Asturias Republicana: Historia del Movimiento Republicano y su ideario (http:/ / www. asturiasrepublicana. com/

1rep. asp), con artículos de Pi y Margall.

Predecesor: Sucesor: Estanislao Figueras y Nicolás Salmerón Alonso Moragas

Presidente del Poder Ejecutivo de la República Española11 de junio de 1873 - 18 de julio de 1873

Predecesor: Sucesor: Manuel Ruiz Zorrilla Eleuterio Maisonnave y Cutayar

Ministro de Gobernación de España12 de febrero de 1873 - 18 de julio de 1873 Article Sources and Contributors 298 Article Sources and Contributors

Axioma de elección Source: http://es.wikipedia.org/w/index.php?oldid=54972977 Contributors: Camiloalcubo2, Cgb, Farisori, Fibonacci, Gonzalcg, Juliho.castillo, Kismalac, Lucien leGrey, Luis Felipe Schenone, Nuncasetermina, Vivero, 28 anonymous edits

Axiomas de Zermelo-Fraenkel Source: http://es.wikipedia.org/w/index.php?oldid=54398249 Contributors: .José, Alephcero, Antur, Argentinator, Axxgreazz, Cinabrium, Davius, Echani, Egaida, Elwikipedista, Erufailon, Ezarate, Farisori, Folkvanger, HUB, Halfdrag, Haminb, Herufra, Ignacio Icke, Isha, Juan Mayordomo, Kadellar, Kismalac, Kn, Lourdes Cardenal, MarcoAurelio, Neodop, Netito777, Numbo3, Otto ter Haar, Paradoja, Peregring-lk, Qwertyytrewqqwerty, Raulshc, Raystorm, Samu92, Sobolev, Tano4595, Tesla91, Toad32767, Tortillovsky, Vitamine, Vivero, Wewe, 179 anonymous edits

Serie de Fourier Source: http://es.wikipedia.org/w/index.php?oldid=56799704 Contributors: Acratta, Agualin, Albireo3000, Anasquerastepas, Antón Francho, Barraza.ae, DFTDER, Davius, Diegusjaimes, Divalino, Dodo, Gainsbarre, Galandil, HUB, JOe-LoFish, Javierito92, Jkbw, Jmcalderon, Josgba2002, Jtico, Juan Mayordomo, Lucianobello, Manwë, Mar del Sur, Matdrodes, Matiasasb, Metalfan, Neodop, O428824sc, Paintman, Paulienator, Phisicist, Raulshc, Reyesoft, Ricardogpn, Ricardos, Roberpl, Sanbec, Slacks, Tano4595, Tico, Tonchizerodos, UA31, Vic Fede, Vitamine, Wiyarmir, 156 anonymous edits

Ecuación del calor Source: http://es.wikipedia.org/w/index.php?oldid=55998314 Contributors: Antón Francho, Azcarlos2, Francisco Quiumento, Galaxy4, Lauranrg, Nicoguaro, Rjgalindo, Shooke, Uruk, 8 anonymous edits

Ecuación de Fokker-Planck Source: http://es.wikipedia.org/w/index.php?oldid=54504356 Contributors: Davius, GermanX, Hlnodovic, Jorge c2010, Juan Mayordomo, Leonpolanco, Shooke, Tano4595, 4 anonymous edits

Andréi Kolmogórov Source: http://es.wikipedia.org/w/index.php?oldid=52817016 Contributors: Aloneibar, Boja, Ceancata, Cotoql, Fjsalguero, Hlnodovic, Ignacio Icke, Joseaperez, Juan Mayordomo, Luis Cortés Barbado, Mar del Sur, Marsal20, Mcapdevila, Pieter, RGLago, Rafa3040, Raickov, Roferbia, Sabbut, Taichi, Th3j0ker, 18 anonymous edits

Complejidad de Kolmogórov Source: http://es.wikipedia.org/w/index.php?oldid=49266432 Contributors: Davius, Juliabis, Leonpolanco, Mcapdevila, Ramongilmoreno, Riveravaldez, Zeroth

Teoría de la computación Source: http://es.wikipedia.org/w/index.php?oldid=55277229 Contributors: Ascánder, Balderai, Cinabrium, DIKSON, Dark, Diegusjaimes, Domaniom, El Pitufo, Elsenyor, Farisori, Fer31416, Ferbrunnen, Gafotas, Ingenioso Hidalgo, Ivan.Romero, Jorgechp, Jstitch, Julian Mendez, Kn, Mansoncc, Manwë, Mcapdevila, Melocoton, Niceforo, Pabos95, Pólux, Racso, Rauldragon, Sir Magician, SpeedyGonzalez, SuperBraulio13, Tano4595, Valentin estevanez navarro, 56 anonymous edits

Teoría de autómatas Source: http://es.wikipedia.org/w/index.php?oldid=56815555 Contributors: AchedDamiman, Cinabrium, Cusell, Danielba894, Dnu72, Dortegaparrilla, Emijrp, Engoal, Erebedhel, Farisori, Fer31416, Fsd141, Gabriel Acquistapace, Gacq, Ldjarami, Matdrodes, PatitoEs, Pedrovicenterosero, Rai201208, Susumebashi, The scarecrow, Urko1982, Yearofthedragon, 35 anonymous edits

Autómata finito Source: http://es.wikipedia.org/w/index.php?oldid=56760885 Contributors: ALE!, Acratta, Agbden, Ascánder, Caravena, Digigalos, Dnu72, Dodo, Drake 81, Emijrp, Enrique.benimeli, Escaldon, Farisori, Fer31416, Fsd141, Humberto, Ivan.Romero, Jabernal, JorgeGG, Jvlivs, LAP, Lanjoe9, Loveless, Lucien leGrey, Macarse, Mlforcada, Mojopikon, Montgomery, Murven, Nolosejoder, Pieter, Pinar, Racso, Rai201208, Rbonvall, Rbrena, Rdaneel, Robgomez, Ruthven, Seiryu89, Sms, Tano4595, Taty2007, Tomatejc, Toto, Vitamine, 105 anonymous edits

Función de transición Source: http://es.wikipedia.org/w/index.php?oldid=53951515 Contributors: Acratta, Alfredo ougaowen, Farisori

Tabla de transición de estados Source: http://es.wikipedia.org/w/index.php?oldid=54396639 Contributors: Acratta, Farisori, Jvlivs, Kved, 4 anonymous edits

Autómata finito no determinista Source: http://es.wikipedia.org/w/index.php?oldid=51878882 Contributors: Biasoli, Escaldon, Farisori, Matiashenning, 1 anonymous edits

Autómata finito determinista Source: http://es.wikipedia.org/w/index.php?oldid=51878962 Contributors: Brau, Dortegaparrilla, Elsenyor, Enrique.benimeli, Ezarate, Farisori, Jarke, Marioxcc, Ricardogpn, 16 anonymous edits

Trie Source: http://es.wikipedia.org/w/index.php?oldid=55557191 Contributors: 333, Farisori, Fercufer, Loveless, Mlforcada, Nolosejoder, Xavivars, 6 anonymous edits

Estructura de datos Source: http://es.wikipedia.org/w/index.php?oldid=56409980 Contributors: Alexan, Alexandravargas, Alexav8, Asfarer, Biasoli, Comae, Crg 85, Danthux, David0811, Developer, Diegusjaimes, Dodo, Edulix, Emijrp, Fercufer, Fortran, Fsd141, Götz, Hidoy kukyo, Icvav, Jesuja, Jetjanoli, Jsanchezes, Juan renombrado, Julie, LPR, Laura Fiorucci, Maldoror, Matdrodes, Miguelo on the road, Moriel, Murphy era un optimista, Platonides, Porao, Rasilga, Rrupo, Rsg, Sauron, Seasz, Soniautn, Tomatejc, Triku, Txo, Xerox 5B, 94 anonymous edits

Tabla hash Source: http://es.wikipedia.org/w/index.php?oldid=56390989 Contributors: Arlekean, Bernard, Camilo, Caos, Cesarsorm, Comae, Dem, Diegusjaimes, Dodo, Fortran, Gonsalet, Humbefa, Jfgarcia, Julie, LeonardoGregianin, Loboferoz8, LyingB, Maldoror, Roberto Parrillas, Sms, The Yils, Vicucha, Wastingmytime, 57 anonymous edits

Función Hash Source: http://es.wikipedia.org/w/index.php?oldid=56574954 Contributors: Aalvarez12, Airunp, Alexav8, Antonorsi, Antur, Barri, Bernard, Centroamericano, ColdWind, Cybercrank, Diogeneselcinico42, Dodo, EgrojSoft, Elwikipedista, Fercufer, Fmariluis, Hardcoded, Isha, Itz37, Jane Doe, Jarisleif, Jfgarcia, Jkbw, Jviares, KnightRider, LyingB, Magister Mathematicae, Maose, Miguelo on the road, Moleculax, Netito777, Pólux, Qwertyytrewqqwerty, Rayearth, Shooke, Swatnio, Taichi, Technopat, Telemonica, Vitamine, Yodigo, Zam, 116 anonymous edits

Árbol (informática) Source: http://es.wikipedia.org/w/index.php?oldid=56332665 Contributors: 4lex, Aeb, Alex485232008, Alexav8, AlfonsoERomero, Antur, AquiLesBailoYo, Ascánder, Biasoli, BlackBeast, CA., Clementito, Damifb, Diegusjaimes, Dodo, Ejrrjs, Farisori, GRHugo, GermanX, Goingvisit, Googolplanck, Humberto, Jkbw, Laura Fiorucci, Maleiva, Manuelt15, Matdrodes, Nubecosmica, Periku, Pinar, Poco a poco, Porao, Ramzysamman, Rmmv, Rosarinagazo, Sabbut, Sanbec, Schwallex, Sms, Technopat, Ty25, Vcarceler, Wikiléptico, Will vm, Yrithinnd, 99 anonymous edits

Árbol multicamino Source: http://es.wikipedia.org/w/index.php?oldid=54795756 Contributors: Ascánder, Belb, Eveevans, Limbowiki, MALLUS, Porao, 8 anonymous edits

Árbol-B Source: http://es.wikipedia.org/w/index.php?oldid=56897431 Contributors: Aeb, Arthur 'Two Sheds' Jackson, Ascánder, Avm, Cesarsorm, Crates, Dianai, Dibujon, Eduardo Lima, Elwikipedista, Grupoarbolb, Hichamaliouat, Humbefa, Jac, Jecanre, Jgaray, Juandiegocano, Karras, Leonpolanco, Mencey, Mr freeze360, Muro de Aguas, Nubecosmica, Paradoja, Pino, Pixeltoo, Platonides, Porao, Ricardo cm, Rv53705, Superzerocool, Vcarceler, Xoneca, 72 anonymous edits

Árbol-B+ Source: http://es.wikipedia.org/w/index.php?oldid=56448885 Contributors: Apol, Biasoli, Ejosvp, Emijrp, Folkvanger, Gramito, Jgaray, Levivm, Nubecosmica, Porao, Raulshc, Tisoft, 28 anonymous edits

Árbol-B* Source: http://es.wikipedia.org/w/index.php?oldid=50325790 Contributors: Aracne, Mono Sapiens, 2 anonymous edits

Reiser4 Source: http://es.wikipedia.org/w/index.php?oldid=48576982 Contributors: Abece, Ascánder, Götz, Jdelrio, Josell2, KnightRider, Kromsoft, Lunanh, Ncc1701zzz, Shosta, Tturk, Yrithinnd, 8 anonymous edits

Hans Reiser Source: http://es.wikipedia.org/w/index.php?oldid=53217620 Contributors: Airunp, Alexav8, DaveFX, Dgies, Emijrp, FedericoMP, GermanX, Grimgroth, Jdelrio, Jespa, Jorge c2010, Josell2, Morza, Pólux, Yanqui perdido, 20 anonymous edits

ReiserFS Source: http://es.wikipedia.org/w/index.php?oldid=51776905 Contributors: Ascánder, ColdWind, Death Master, Dodo, Enric Naval, Gonmator, Götz, Jdelrio, Jgaray, Josell2, Kromsoft, Locos epraix, Magister Mathematicae, Manuel González Olaechea y Franco, Matdrodes, Netito777, Nikai, Pilaf, Ricardonato, 43 anonymous edits

Teoría del Big Bang Source: http://es.wikipedia.org/w/index.php?oldid=56252328 Contributors: -antonio-, .José, 3coma14, ANGELMAP, Abece, Abgenis, Adri128, Agguizar, Airunp, Albireo3000, Ale flashero, Alejandro Miranda, Alejandrocaro35, Alexav8, Alhen, Allforrous, Alvarittox, Alvaro qc, Andreasmperu, Andreoliva, Angel GN, Antur, Aparejador, Arruinadorwiki, Ascánder, Asiderisas, Axxgreazz, B1mbo, Baiji, Banfield, Barteik, Benigno A1, BetoCG, Biasoli, Billyrobshaw, BuenaGente, Burgosmelachupa, C'est moi, CASF, Cadignacio, Caiser, Camilo, Camima, Carlos Alberto Carcagno, Carmin, Chaosandres, Cinabrium, Cobalttempest, Comae, Concolor, Cookie, Correogsk, DaDez, Daniel posadas, Darniok, David0811, Davidmh, Davius, DayL6, Diegusjaimes, Dodo, Dorieo, Dpeinador, Durero, Eamezaga, Eamm18, Edmenb, Edu re3, Eduardosalg, Edub, Ejmeza, Elliniká, Eloy, Emijrp, Equi, Er Komandante, Er lego, FAR, FeRmO, Felipealvarez, Fernando Martinez H, Fidelmoquegua, Flakinho, Floppy2 33, FrancoGG, Furado, Gaius iulius caesar, Gerwoman, Ggenellina, Gibon, Gothmog, Grenzbegriffe, Gsrdzl, Article Sources and Contributors 299

Góngora, Hprmedina, Humberto, Igna, Ignacio Icke, Ikepuertorico, Interwiki, IrwinSantos, Isha, Itou-kurosaki, Iturri, JAGT, JCCO, JMCC1, Jarisleif, Jarke, Javier López Bernardo, Javierito92, Javierme, Jdiazch, Jekter, JerryFriedman, Jjafjjaf, Jjvaca, Jmcalderon, Jorge Egúsquiza Loayza, JorgeGG, Joseaperez, Josell2, Juan Ruiz Martin, Juankyz, Jugones55, Kabri, Kalleyi, Karshan, Kismalac, KnightRider, Kokoo, Komputisto, Krysthyan, Kved, LP, Laura Fiorucci, Leonpolanco, Leugim1972, Lier, Liljozee, Lopezmts, Loqu, Lucien leGrey, Magister Mathematicae, Makete, Maldoror, Manuguay, Manwë, Marcoscaceres, Matdrodes, Mecoboy10, Mel 23, MiguelAngel fotografo, Millars, Mister, Montehermoso-, Montgomery, Moriel, Moritoastalamuerte, Mortadelo2005, Mredon6, Murven, Mutari, Mxn, Netblack, Netito, Netito777, Niceforo, Nicop, Nixón, Nottinghan, Nuen, Nycron, OboeCrack, Oddworld, Omega, Osado, Oscar sanchez soler, P.o.l.o., Pan con queso, Pati, PaulinoAlfeon, Pedro Nonualco, Prietoquilmes, Pérez, Pólux, Qubit, Queninosta, Quesada, Quijav, Qwertyytrewqqwerty, Ramjar, Ranf, Renacimiento, Rizome, Rosarino, RoyFocker, SAKURA CHAN, Saloca, Sasquatch21, Savh, Shelbyviper, Siabef, Snakeyes, Sponkey85, Stormnight, SuperBraulio13, Taichi, Tano4595, Technopat, Teeth, The titox2, Tipar, Tirithel, Titomire, Titoxd, Tomatejc, Tostadora, Triuri, Udufruduhu, Vic Fede, Votinus, Wiki Wikardo, Wikiléptico, Wissons, Wricardoh, XalD, Xavigivax, Xenoforme, Xsm34, Yakoo, Yosidunkki, ZEN ic, Zorosandro, 833 anonymous edits

Singularidad espaciotemporal Source: http://es.wikipedia.org/w/index.php?oldid=56474917 Contributors: .José, Afnosol Bsaatenmtu, Airunp, Baiji, Bsea, Comae, D.F.A.R.R., Dark Trace, Davius, Diegusjaimes, Drake 81, Fmercury1980, Gato ocioso, GermanX, H0m3r, Jkbw, Jmvkrecords, Jorge C.Al, Joseaperez, Maleiva, Marcelo-Silva, Narayan82, Randyc, Salseroquim, Siabef, Srbanana, Tano4595, Technopat, Tomatejc, UA31, Wiki Wikardo, Xenoforme, conversion script, 40 anonymous edits

Ecuaciones del campo de Einstein Source: http://es.wikipedia.org/w/index.php?oldid=56907298 Contributors: Alonso de Celada, Chuck es dios, Davius, DefLog, Diegusjaimes, Drake 81, Dreitmen, Emijrp, Euty, Fmercury1980, Garmen778, Gaussyful, Gökhan, Juan Marquez, Maldoror, Omega, Petruss, Qwertyytrewqqwerty, Richy, Sanbec, Savh, Superandoni, Tano4595, Wricardoh, 37 anonymous edits

Relatividad general Source: http://es.wikipedia.org/w/index.php?oldid=56718633 Contributors: .Sergio, Agak, Agremon, Airunp, Alefisico, Alejandrocaro35, Alhen, Andreasmperu, Antón Francho, Arnji, Arístides Herrera Cuntti, Ascánder, AstroNomo, Astroalicante, Athatriel, Augusto yakoby, Bedorlan, Brostoni, BuenaGente, Cinabrium, Comae, CommonsDelinker, Danielba894, Danielpineros, Dark, DasAuge, Davius, DefLog, Dianai, Diegusjaimes, Dodo, Dominican, Doreano, Dorieo, Drake 81, Durero, Elsenyor, Emijrp, Enriqueglez, Filipo, Fmercury1980, FrancoGG, Fsd141, Furti, Garmen778, GermanX, Ggenellina, Ginés90, Gustronico, Götz, Hafernandez, Hapussai, Harveybc, Ingenioso Hidalgo, Isha, Ivan.gz, JMCC1, Jahnfi, Jkbw, Jorge c2010, Joseaperez, Juan Marquez, Juansempere, Karl.lark, Kismalac, LeonardoRob0t, Leotero, Loqu, MaeseLeon, Magister Mathematicae, Mahadeva, Maldoror, Marcosroza, Mariano mario06, Marsal20, Matdrodes, Matiasleoni, Mel 23, Millars, Moraleh, Moriel, Netito777, Numbo3, Omega, Orbixal, Oscar ., Pabloallo, Pan con queso, Pati, Pedro Nonualco, Petronas, Pff, Phirosiberia, Poco a poco, Porao, Predalien Runner, Proximo.xv, Quesada, Razorblade, Rsg, Rémih, Sanbec, Simão Aiex, Smoken Flames, Srbanana, Tano4595, Technopat, Terencio, Theoretical physicist, Thor8, Tostadora, Tuliopa, Vic Fede, Vilartatim, Vitamine, Will vm, Wing-ezp, Wricardoh, Xavigarz, Xenoforme, Yameharte, Youandme, Zuirdj, Álvaro Morales, 379 anonymous edits

Principio de equivalencia Source: http://es.wikipedia.org/w/index.php?oldid=54996089 Contributors: Adolfoaz, Angel GN, Banfield, Davius, Dodo, EduNavarro, Emijrp, Gaussyful, Grizzly Sigma, Jahnfi, Juansempere, Lourdes Cardenal, Pérez, Roberpl, Roberto Fiadone, Tano4595, Wricardoh, 21 anonymous edits

Principio de covariancia Source: http://es.wikipedia.org/w/index.php?oldid=56688508 Contributors: Alefisico, Ansalto, Barcex, Davius, Fmercury1980, Jorge c2010, Mcetina, 8 anonymous edits

Transformación de Lorentz Source: http://es.wikipedia.org/w/index.php?oldid=55968538 Contributors: Andres Rojas, Banfield, Davius, DefLog, Fsd141, Hafernandez, Johnbojaen, Joseaperez, Kismalac, Lu Tup, Manwë, Moriel, Pleira, Rosarino, Tano4595, Wricardoh, 30 anonymous edits

Tensor de Ricci Source: http://es.wikipedia.org/w/index.php?oldid=55576475 Contributors: Davius, DefLog, Gato ocioso, Juan Marquez, Pérez, Wricardoh, 6 anonymous edits

Tensor de curvatura Source: http://es.wikipedia.org/w/index.php?oldid=56308675 Contributors: Davius, DefLog, Emc2fred83, Gato ocioso, Hippokrateszholdacskai, Ingenioso Hidalgo, Juan Marquez, Lourdes Cardenal, Porao, Ronaldo16, Tano4595, 30 anonymous edits

Geometría diferencial de superficies Source: http://es.wikipedia.org/w/index.php?oldid=55825783 Contributors: Adrruiz, Atilael2, Davius, Digigalos, Flug, Humbefa, Isha, JMCC1, Juan Marquez, Marcosaedro, Mariana de El Mondongo, Nicoguaro, Raiso, Tano4595, Udufruduhu, Yorusti, 26 anonymous edits

Variedad de Riemann Source: http://es.wikipedia.org/w/index.php?oldid=55790114 Contributors: Davius, DefLog, Jerowiki, Manufl, Nanovapor9, Pabloab, ReiVaX, Snakefang, Tzihue, Wewe, 6 anonymous edits

Geometría de Riemann Source: http://es.wikipedia.org/w/index.php?oldid=52560149 Contributors: Alexav8, Altair Lemos, DefLog, Derki, Dodo, Götz, JMCC1, Jerowiki, Pabloab, Sarge Baldy, Shooke, Wewe, 8 anonymous edits

Conexión de Levi-Civita Source: http://es.wikipedia.org/w/index.php?oldid=52295941 Contributors: Davius, DefLog, Gato ocioso, Juan Marquez, Lobillo, Template namespace initialisation script, 5 anonymous edits

Conexión (matemática) Source: http://es.wikipedia.org/w/index.php?oldid=51726503 Contributors: Davius, DefLog, Dodo, Fmercury1980, Ingenioso Hidalgo, Juan Marquez, Julian Mendez, LMLM, Rsg, Tano4595, 1 anonymous edits

Fibrado tangente Source: http://es.wikipedia.org/w/index.php?oldid=56610631 Contributors: Aramiannerses, Davius, DefLog, Dianai, Gato ocioso, Gullo, Ingenioso Hidalgo, 5 anonymous edits

Fibrado Source: http://es.wikipedia.org/w/index.php?oldid=54804427 Contributors: Akhram, Daniloquispe, DefLog, Drake 81, JMCC1, Jarisleif, Jerowiki, Jtico, Juan Marquez, LeCire, Mcapdevila, Pólux, RuHouse'ls, Tano4595, Wewe, 12 anonymous edits

Campo de Yang-Mills Source: http://es.wikipedia.org/w/index.php?oldid=50653022 Contributors: Davius, Dmoyacr, Raulshc, 8 anonymous edits

Grado de libertad (física) Source: http://es.wikipedia.org/w/index.php?oldid=56169486 Contributors: Algarabia, Davius, GermanX, Grimlock, Netito777, Sabbut, Tano4595, UAwiki, 8 anonymous edits

Grado de libertad (estadística) Source: http://es.wikipedia.org/w/index.php?oldid=56773740 Contributors: Adrianbmv, Airunp, Andreateletrabajo, Beto29, Digigalos, Elmulo, Elpolaco08, Hernancasp, Ingolll, JorgeGG, Joseaperez, Juan Manuel, Juan Mayordomo, Netito777, Ralphloren171, Sabbut, Tamorlan, Tano4595, UA31, 18 anonymous edits

Dimensión Source: http://es.wikipedia.org/w/index.php?oldid=56962344 Contributors: .José, Acratta, Aeoris, Airunp, Allforrous, Andreasmperu, Andreateletrabajo, Açipni-Lovrij, BludgerPan, Bucephala, Caesius, Davius, Deivi1753, Diegusjaimes, Domaniom, Ejrrjs, Eloy, Ezarate, FAL56, FAR, Farisori, Foundling, Fran89, Gato ocioso, Gazpachurro, GermanX, Godelart, Hameryko, Hlnodovic, House, Ingenioso Hidalgo, J.M.Domingo, JMCC1, Jkbw, Jorge c2010, Josell2, Laura Fiorucci, Lucifer2000, Magister Mathematicae, Manuribadeo, Manwë, Matdrodes, Moraleh, Moriel, Nanovapor9, Nuen, OI1A-salbidea, Opinador, Oscar ., Pedro1267, Petruss, Pólux, Rdaneel, Reformada, Robertec, Romero Schmidtke, RoyFocker, Rsg, Superzerocool, Taichi, Tirithel, Tomatejc, Tornado278, Wewe, Wmaster32, Zantetsuken, 98 anonymous edits

Regla de las fases de Gibbs Source: http://es.wikipedia.org/w/index.php?oldid=53122120 Contributors: Cousteau, Davius, Mafores, Ralgis, Tano4595, Vitamine, 22 anonymous edits

Termodinámica Source: http://es.wikipedia.org/w/index.php?oldid=56956989 Contributors: .José, .Sergio, 207.42.183.xxx, 3coma14, 4lex, Acratta, Adriansm, Af3, Alberto Salguero, Alefisico, Alexav8, Alhen, Allforrous, Alvaro qc, Amadís, Amanuense, Andreasmperu, Andres.ordonez, Andrés Jaimes Carvajal, Angel GN, Angiolo, Antonorsi, Antón Francho, Arona, AshlyFuller, AstroNomo, Atila rey, Augusto yakoby, Açipni-Lovrij, BF14, Bachtold, Banfield, Belb, Bernardogu ar, Beto29, BlackBeast, Burny, C'est moi, Caiser, Camilo, Campeador 690, CarlosVillamar, Carlosgarcia956, Ceancata, Chayinator, Clementito, CleverChemist, Cobalttempest, Comae, Correogsk, Corroc, Cyberdelic, Dangelin5, Dannyd1351, Dark Bane, Dasmandr, Davius, Deleatur, Diegusjaimes, Dontworry, Drake 81, Draxtreme, Dunraz, Eclypse-gt, Edc.Edc, Edgardavid, Eduardosalg, Edumape, El insasiable negro, El oso negro, Elliniká, Elsebapizarro, Emiduronte, Equi, Espince, Estelamargentina12, FAL56, FAR, Fernando Estel, Fformica61, Fibonacci, Foundling, FrancoGG, Frutoseco, Gaeddal, Ganiserb, GermanX, Grillitus, Gusgus, Götz, HUB, Halfdrag, Hispa, Ialad, Igna, Ingolll, Integral triple, Interwiki, Isha, Ivanics, JMCC1, Jaimegc1227, Javierito92, Jcaraballo, Jkbw, Jmcastano, Joelcuervo, Jorge C.Al, JorgeGG, Jsportillo, Jx3m, Ketakopter, Kismalac, Kurasak, Kved, LP, Leiro & Law, Leonpolanco, Ljruizor, Lluvia, Locucho, Loqu, Lungo, MI GENERAL ZAPATA, Magister Mathematicae, Mahadeva, Maldoror, Maleiva, Manuelt15, Manwë, Mar del Sur, Marcos.moya, Marhaiden, Matdrodes, Maveric149, Mel 23, Mgsanchezs, Miaow Miaow, Miss Manzana, Mon VaMpL, Moriel, Muro de Aguas, Murphy era un optimista, Mushii, MythicalDragon, , Netito777, Nicadapa, Nicop, No sé qué nick poner, Noilegrus, OboeCrack, Octubre1987, Ortisa, Oscar ., Oscarp, Pablo Boj, Paintman, Patrickpedia, Petruss, Poco a poco, Ppfk, Pólux, Quezadav, Rafa606, Ralphloren171, Raulshc, Retama, Richy, Rjgalindo, Roberrpm, Rrmsjp, Rtewter25, RubiksMaster110, Rubpe19, Ruy Pugliesi, Rαge, Sabbut, Sargentgarcia89, Savh, Seanmup, Seanver, Siquisai, Snakeyes, Srbanana, Stoker, SuperBraulio13, Superzerocool, THergenhahn, Tano4595, Techgenius, Technopat, Tlaoakaiser, Tomatejc, Tortillovsky, Vivero, Wikiléptico, Wilfredor, conversion script, 747 anonymous edits

Física estadística Source: http://es.wikipedia.org/w/index.php?oldid=52891718 Contributors: Af3, Agremon, Alefisico, BaronHarkonnen, Carlos.Gracia-Lázaro, Comae, Correogsk, Daniel De Leon Martinez, Davius, Donnacho, Dsuarez, Elwikipedista, Gabriel Vidal Álvarez, Gato ocioso, Héctor Guido Calvo, Ivn, Jorge c2010, Lauranrg, Lopezpablo 87, Maldoror, Marb, Moriel, Muro de Aguas, Nga, Ontureño, Pacachava, Petronas, Saloca, Sergioller, Tano4595, Tasamd, Yrithinnd, 34 anonymous edits Article Sources and Contributors 300

Qualia Source: http://es.wikipedia.org/w/index.php?oldid=55588397 Contributors: .José, Airunp, Davidlud, Desatonao, Ecelan, El Loco De La Gabardina, Fuchsia, Isha, JulioOthe, Lopezpablo 87, Luis Felipe Schenone, Manuelt15, Offray, Surscrd, 24 anonymous edits

Thomas Nagel Source: http://es.wikipedia.org/w/index.php?oldid=53984625 Contributors: Banderas, Ceancata, Edgar p miller, Fadesga, Folkvanger, Gustronico, Luis Felipe Schenone, MoisesMB, Petronas, Rafa sanz, Sabbut, SegFault, 15 anonymous edits

Experiencia Source: http://es.wikipedia.org/w/index.php?oldid=56265954 Contributors: Acratta, Angel GN, BlackBeast, Chien, Cinabrium, Diegusjaimes, Digigalos, Dtarazona, Folkvanger, Gaeddal, GermanX, Jaimolasmogollon, Kintaro, Loco085, Luis Felipe Schenone, Mortadelo, Musicum007, NaBUru38, OMenda, Patricio.lorente, Piztu, Sokoljan, Superzuman14, Tirithel, Vubo, William The Doctor, 38 anonymous edits

Sistema de juego (juegos de rol) Source: http://es.wikipedia.org/w/index.php?oldid=55244077 Contributors: Diegusjaimes, Dragstor, Escarlati, Gsrdzl, Kintaro, Roberto Fiadone, Rrmsjp, Torquemada007, 15 anonymous edits

Dilema del prisionero Source: http://es.wikipedia.org/w/index.php?oldid=56195797 Contributors: Akhram, Alfanje, Alvaro Ledesma, Aracne, Atalatlae, Avm, Beatriz.sevilla, Carlos.Gracia-Lázaro, Diotime, Dnu72, Dodo, Farisori, Feministo, Fidelmoquegua, Fravia, Frei sein, Generalpoteito, Gizmo II, Guillermo-, Hrgwea, Huhsunqu, Iran Z. Echavarry, JMCC1, Jafol, Jarisleif, Javierito92, Jccarden, Jsevilla, Kizar, Kriztoval, Landoman, Lantius, Lauranrg, Luisan007, Luisp1987, Maañón, ManuP, Petronas, Pérez Poch, Pólux, Resped, Roberto Fiadone, Rodriguillo, Rsg, Rutrus, Santiago Pérez, Sasquatch21, Svillalba, Tamorlan, Technopat, Tsumaru, Wadzar, Xatufan, Yakoo, Zalacain, 88 anonymous edits

Equilibrio de Nash Source: http://es.wikipedia.org/w/index.php?oldid=53881169 Contributors: .Sergio, Aracne, Arcdare, Armando.Mejia, Byerus, Chalsito, Danielba894, Dnu72, Dodo, Drake 81, Farisori, Grillitus, Guillermo-, Hortelano, Jafol, Jmonzo, Krysthyan, Lnegro, Manuel Valadez Sánchez, MaxiS123, Natrix, Netito777, Quintanar, Xatufan, 76 anonymous edits

Teoría de juegos Source: http://es.wikipedia.org/w/index.php?oldid=56939988 Contributors: .José, AlfonsoERomero, Amnesico29, Anual, Aracne, ArielPalazzesi, Arivera, Armando-Martin, Ascánder, Açipni-Lovrij, Barcex, Belgrano, Daniel Feipeler, Diegusjaimes, Digigalos, Dodo, Edu.dg, Eljavobuenaonda, Elwikipedista, Emiduronte, Emijrp, Faguiar, Farisori, Gelo71, Gifo182, Guish!, Haylli, Humberto, Ignacio Icke, Ingenioso Hidalgo, JMPerez, JackPier, Javadane, Jkbw, Juan Marquez, Juan de leon, Juanjo.it.ab, Julian Colina, Karshan, Kazem, Kintaro, KnightRider, Kordas, Libertad y Saber, Luis Felipe Schenone, Luisderanchos, Macarrones, Mafores, Maldoror, Maltusnet, ManuelGR, Matdrodes, Mcetina, MetalMind, Miunicornio, Monzerrat, Nihilo, Nixón, Oblongo, Osado, Oscarif, Oten, Paintman, Platonides, Prometheus, Pérez Poch, Raulbajob, Retama, Roberto Fiadone, Rodriguillo, Rondador, Rosarino, Rtamayo, Rufasto, Sa, Santiago Pérez, Sasquatch21, Sincro, Skeepa, Smoken Flames, Taichi, Tano4595, Taragui, Technopat, Tute, Venerock, Wikiwert, Xatufan, Zanaqo, 158 anonymous edits

Estrategia de las armas nucleares Source: http://es.wikipedia.org/w/index.php?oldid=55562443 Contributors: Aadrover, Ageloso, Alejandrosanchez, AnselmiJuan, Antur, Bedwyr, BorjaGF, Cratón, Delp, Der Kreole, Dorieo, Elduende, Elryacko, Euratom, FAR, Iskatel, Kokoo, Leonpolanco, MaeseLeon, NACLE, Qwertyytrewqqwerty, Raymond Cruise, Rodgarcia, Rosarinagazo, SanchoPanzaXXI, Spazer, Taichi, Tano4595, Typhoon, Xenoforme, 43 anonymous edits

Teoría de la decisión Source: http://es.wikipedia.org/w/index.php?oldid=56320367 Contributors: Antur, Correogsk, Cufiler, Daniel Feipeler, Dhidalgo, Diegusjaimes, Dossier2, Elwikipedista, Farisori, Fdelrio89, Feministo, GermanX, Grudolph, Jcunich, Jesuja, Jkbw, Juan Manuel, KanTagoff, Krzysiulek, Matdrodes, Millars, Nastasyuk v, Nihilo, Paintman, Pólux, Robespierre, Satanás va de retro, Tamorlan, Yabama, ZrzlKing, 32 anonymous edits

Sistemas de soporte a decisiones Source: http://es.wikipedia.org/w/index.php?oldid=56922644 Contributors: 1309daniel, Alberto.roca, Chusete, Contestame, El Quinche, Ensada, Francisco Mochis, Gerkijel, GermanX, Halfdrag, Ivan.caderno, Jarisleif, Jesuja, Juan Manuel, KErosEnE, Kavor, Luisxx24, Miss Manzana, Mizar, Nanrraka, Paintman, Savh, Siabef, Taichi, Tamorlan, Tano4595, Technopat, Upheld, Veruscae, 46 anonymous edits

Apuesta de Pascal Source: http://es.wikipedia.org/w/index.php?oldid=55075972 Contributors: .PhoenixWright, Amadís, Angelateo, Axxgreazz, Black paladin, Comu nacho, Copydays, Daniel unam, Dhidalgo, Ealmagro, Egaida, Fernando Estel, Gfalcone, Gusgus, Halcón, Hprmedina, JRGL, Joseaperez, Lautaro.mss, Luis Felipe Schenone, MARC912374, Migp, Miguelal84, Nasil, Oscar ., Ralphloren171, Sabbut, Sergiomex, Tinchox, Unf, VanKleinen, Vic Fede, Yrithinnd, 68 anonymous edits

Albert W. Tucker Source: http://es.wikipedia.org/w/index.php?oldid=55787069 Contributors: Ceancata, Gaudio, JMCC1, Jcaraballo, Rhernan, XalD, 5 anonymous edits

Programación no lineal Source: http://es.wikipedia.org/w/index.php?oldid=51987277 Contributors: Chtimax, Fadesga, Fransderooij, Jean-Charles.Gilbert, Kavanagh, Matdrodes, PimBeers, Rhernan, 13 anonymous edits

Programación neurolingüística Source: http://es.wikipedia.org/w/index.php?oldid=56359433 Contributors: Acratta, Antonorsi, Christian Bravo, Fadesga, Jkbw, Mansoncc, PePeEfe, Sirvoltor, Technopat, Zifra, 40 anonymous edits

John Grinder Source: http://es.wikipedia.org/w/index.php?oldid=56963122 Contributors: 333, Alf wkp, Arkimedes, Cookie, Davin, Diego Godoy, Fadesga, Joarsolo, Mar del Sur, Poc-oban, Salvagalvez, Zanaqo, 8 anonymous edits

Milton H. Erickson Source: http://es.wikipedia.org/w/index.php?oldid=55583094 Contributors: .Sergio, BetoCG, Bostan Serai, Cnv, Davin, Dianai, Dtarazona, Ebr, Folkvanger, Gaudio, Gemini1980, Hyperboreo88, Matdrodes, Netito777, PACO, Rjgalindo, Rosarinagazo, Rsg, Sabbut, Santoposmoderno, Sylfred1977, Tixel, Varano, Vrysxy, Wilfredor, 17 anonymous edits

Richard Bandler Source: http://es.wikipedia.org/w/index.php?oldid=55845882 Contributors: Ceancata, Grillitus, Jkbw, Manxuc, Mar del Sur, Technopat, 14 anonymous edits

Terapia Gestalt Source: http://es.wikipedia.org/w/index.php?oldid=56627007 Contributors: Acratta, Alhen, Amadís, Ana Cristina Abraham, Antonichile, Beatriz.sevilla, Carlvincent, Charocardenal, Der philosoph, Diegosal, Diegusjaimes, Eduardosalg, Elhaim, Enquepensas, Geoflavio, I Am Weasel, Izkalisecretaria, Jgarcialopez, Jomero, Josemagl, José Antonio Prieto, Kved, LFO, Lobo, Manzanares1831, Mar Eloy, Marcosmudra, Nihilo, Nnacho, Petronas, Ravave, Sir Magician, Tano4595, Taragui, Technopat, Tortillovsky, Tostadora, Varano, WikiCoder, 112 anonymous edits

Hermenéutica Source: http://es.wikipedia.org/w/index.php?oldid=56502089 Contributors: Abajo estaba el pez, Acratta, Afrasiab, Airunp, Alberto3166, Andreasmperu, Angel GN, Archiduque pablo, Aromera, Ascánder, Açipni-Lovrij, Baciyelmo, Barteik, Billyrobshaw, Chiaki, DJ Nietzsche, Dalinbrea, Dangelin5, Danielitacosmica, Diego 5397, Diegusjaimes, Dodo, Dorieo, Dreitmen, Dussel, Elhombresinatributos, Emanueldavid, Emiduronte, Endriago, Equi, FAR, Fito hg, Frmerced, Gabriel.cercel, Gerardo.reyna, Greek, Heredia96, Humberto, Javierito92, Jkbw, Joarsolo, Jorge Acevedo Guerra, Juan Manuel, Jvillacriz, KillVic, Laura Fiorucci, Leonpolanco, Luis Felipe Schenone, Macarrones, Manuelt15, MarcoAurelio, Mariantoniagv, Matdrodes, Miguel Strogoff, Netito777, Nunisa, Oblongo, Odiseo Blabla, Ousia, Pablogpena, Pati, Pera6, Pólux, RafaGS, Ricardo Pineda, Rosarino, RoyFocker, Sailorsun, Saloca, Stvn13, SuperBraulio13, Tamorlan, Taragui, Technopat, Ticllahuanca, Tirithel, Varano, Vitamine, Wilfredor, Xabier, Ángel Luis Alfaro, 259 anonymous edits

Friedrich Schleiermacher Source: http://es.wikipedia.org/w/index.php?oldid=55079955 Contributors: Bafomet, Blasfemia23456, Carlos Sánchez, Copydays, Danielacainzos, David0811, DdReal, Ecemaml, Ediberto, Fadesga, Fernando H, GermanX, Gononogon, Heredia96, Juan Manuel, Leandrod, Luis Felipe Schenone, M.heda, Macarrones, Mindeye, Pera6, Petruss, RoyFocker, Warko, Xabier, 12 anonymous edits

Francisco Pi y Margall Source: http://es.wikipedia.org/w/index.php?oldid=56106453 Contributors: Afterthewar, AlGarcia, AlbertoDV, Albertomos, Aloneibar, Anagnorisis, Antón Francho, Ascánder, Baiji, Casio de , Chigliak, CommonsDelinker, David533, Db udell, Durero, Ecemaml, Egaida, Eisbar, El tiu Cancho, Eldelcarro, Ensada, Gelo71, Gerwoman, Glanmorepeakes, Goldorak, Gorigori, HMC.Puebla, HUB, Iberdiego, Ignacio Icke, Jadelmo, Jkbw, John plaut, Jomra, Juan Antonio Cordero, Klondike, Liutprando, Maañón, Maleonm01, Meitneriu, Mercenario97, Millars, Netzahualcoyotl, Nihilo, Opinador, Peejayem, Petronas, Quesada, Rastrojo, RoyFocker, San Vicente de Barakaldo 1987, Sasquatch21, SergiL, Sonsaz, Soulreaper, Subitosera, Tano4595, Tarantino, Trasamundo, Xsm34, Yeza, 64 anonymous edits Image Sources, Licenses and Contributors 301 Image Sources, Licenses and Contributors

Archivo:Periodic identity.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Periodic_identity.png License: Public Domain Contributors: Joey-das-WBF, Kieff, Krishnavedala, 1 anonymous edits Archivo:Periodic identity function.gif Source: http://es.wikipedia.org/w/index.php?title=Archivo:Periodic_identity_function.gif License: Public Domain Contributors: Kieff, Panther, 2 anonymous edits Archivo:Heat eqn.gif Source: http://es.wikipedia.org/w/index.php?title=Archivo:Heat_eqn.gif License: Public Domain Contributors: Oleg Alexandrov Archivo:Commons-logo.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Commons-logo.svg License: logo Contributors: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version, created by Reidab. Archivo:FokkerPlanck.gif Source: http://es.wikipedia.org/w/index.php?title=Archivo:FokkerPlanck.gif License: Public Domain Contributors: Quatar Archivo:Kolmogorov-m.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Kolmogorov-m.jpg License: Public Domain Contributors: Bayo, Bero, Infrogmation, Kilom691, Lew XXI, Mdd, Russavia, 2 anonymous edits Archivo:Kolm complexity lect.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Kolm_complexity_lect.jpg License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Terrence L. Fine Archivo:Kolm lect prep.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Kolm_lect_prep.jpg License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Terrence L. Fine Image:Mandelpart2 red.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Mandelpart2_red.png License: Public domain Contributors: Reguiieee at en.wikipedia Archivo:Teoría de autómatas.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Teoría_de_autómatas.svg License: Creative Commons Attribution-Sharealike 3.0 Contributors: User:Dnu72 Archivo:DFAexample.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:DFAexample.svg License: Public Domain Contributors: Cepheus Archivo:NFAexample.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:NFAexample.svg License: Public Domain Contributors: Interiot Archivo:Mccullochpitts.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Mccullochpitts.png License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Elcuaz Archivo:Maquina.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Maquina.png License: Public Domain Contributors: Schadel (http://turing.izt.uam.mx) Archivo:Automata finito.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Automata_finito.png License: Creative Commons Attribution-Share Alike Contributors: Farisori Archivo:Buechie01.PNG Source: http://es.wikipedia.org/w/index.php?title=Archivo:Buechie01.PNG License: GNU Free Documentation License Contributors: Christian1985, Clusternote, Gauravjuvekar, LoopZilla, Norro Archivo:NFA-powerset-construction-example.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:NFA-powerset-construction-example.svg License: Public Domain Contributors: User:Dcoetzee Archivo:Example e-AFND.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Example_e-AFND.png License: Creative Commons Attribution-Share Alike Contributors: Farisori Archivo:Example AFD.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Example_AFD.png License: Creative Commons Attribution-Share Alike Contributors: Farisori Archivo:AFND to AFD 1.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:AFND_to_AFD_1.png License: Creative Commons Attribution-Share Alike Contributors: Farisori Archivo:AFND to AFD 2.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:AFND_to_AFD_2.png License: Creative Commons Attribution-Share Alike Contributors: Farisori Archivo:AFND to AFD 3.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:AFND_to_AFD_3.png License: Creative Commons Attribution-Share Alike Contributors: Farisori Archivo:AFD redundante.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:AFD_redundante.png License: Creative Commons Attribution-Share Alike Contributors: Farisori Archivo:AFD minimal.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:AFD_minimal.png License: Creative Commons Attribution-Share Alike Contributors: Farisori Archivo:Mealymachine jaredwf.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Mealymachine_jaredwf.png License: Public Domain Contributors: User:Jaredwf Imagen:DFAexample.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:DFAexample.svg License: Public Domain Contributors: Cepheus Image:trie example.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Trie_example.svg License: Public Domain Contributors: Booyabazooka (based on PNG image by Deco). Modifications by Superm401. Imagen:Hash table-es.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Hash_table-es.svg License: Creative Commons Attribution-Sharealike 2.5 Contributors: LyingB Imagen:Tabla hash2.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Tabla_hash2.png License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Cesarsorm Imagen:Tabla hash 3.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Tabla_hash_3.png License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Cesarsorm Archivo:Hash function2-es.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Hash_function2-es.svg License: Creative Commons Attribution-Sharealike 3.0 Contributors: User:Fercufer Archivo:binary_tree_(oriented digraph).png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Binary_tree_(oriented_digraph).png License: Public Domain Contributors: Haui, Helix84, Maximaximax Archivo:B-tree example.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:B-tree_example.svg License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Nagae Archivo:arbolbins.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Arbolbins.png License: Public Domain Contributors: MyName (hicham aliouat) Archivo:Arbolbelimnodom.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Arbolbelimnodom.jpg License: Public Domain Contributors: Hichamaliouat Archivo:Btree.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Btree.svg License: GNU Free Documentation License Contributors: Church of emacs, Mikm, Nagae, 3 anonymous edits Archivo:Hans Reiser 2005.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Hans_Reiser_2005.jpg License: Creative Commons Attribution-Sharealike 2.0 Contributors: Goran Zec Archivo:Universe expansion es.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Universe_expansion_es.png License: Creative Commons Attribution-Sharealike 2.0 Contributors: Ascánder, Dodo, Jdiazch, Paradoctor, 1 anonymous edits Archivo:Hubble ultra deep field high rez edit1.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Hubble_ultra_deep_field_high_rez_edit1.jpg License: Public domain Contributors: NASA and the European Space Agency. Edited by Noodle snacks Archivo:Evolución Universo WMAP.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Evolución_Universo_WMAP.jpg License: Public Domain Contributors: Derived. Spanish translation by Luis Fernández García Archivo:WMAP.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:WMAP.jpg License: Public Domain Contributors: Bricktop, Chetvorno, DieBuche, Fastfission, GDK, Mike Peel, Nachcommonsverschieber, Nk, Pieter Kuiper, Shizhao, 2 anonymous edits Archivo:Wiktionary-logo-es.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Wiktionary-logo-es.png License: logo Contributors: es:Usuario:Pybalo Archivo:Spanish Wikiquote.SVG Source: http://es.wikipedia.org/w/index.php?title=Archivo:Spanish_Wikiquote.SVG License: logo Contributors: James.mcd.nz File:Gravitation space source.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Gravitation_space_source.png License: GNU Free Documentation License Contributors: Adam majewski, Duesentrieb, Schekinov Alexey Victorovich, Superborsuk, WikipediaMaster Archivo:Schwarzschild interior.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Schwarzschild_interior.jpg License: Public Domain Contributors: ARG Archivo:SN 2006gy, NASA illustration.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:SN_2006gy,_NASA_illustration.jpg License: Public Domain Contributors: Credit: NASA/CXC/M.Weiss Archivo:S95e5221.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:S95e5221.jpg License: Public Domain Contributors: NASA Archivo:Gravitational red-shifting.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Gravitational_red-shifting.png License: GNU Free Documentation License Contributors: ArséniureDeGallium, Bdk, Mahahahaneapneap, Tano4595, Vlad2i, 1 anonymous edits Image Sources, Licenses and Contributors 302

Archivo:Líneas de universo llanas.PNG Source: http://es.wikipedia.org/w/index.php?title=Archivo:Líneas_de_universo_llanas.PNG License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Fmercury1980 Archivo:Líneas de universo curvas.PNG Source: http://es.wikipedia.org/w/index.php?title=Archivo:Líneas_de_universo_curvas.PNG License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Fmercury1980 Archivo:STS-107 crew in orbit.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:STS-107_crew_in_orbit.jpg License: Public Domain Contributors: Not known (and will likely never be known), but as it was taken during the mission and ultimately recovered by NASA, it is in the public domain. Archivo:Malus florentina0.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Malus_florentina0.jpg License: GNU Free Documentation License Contributors: Quadell Archivo:Geodesiques.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Geodesiques.png License: Creative Commons Attribution-ShareAlike 1.0 Generic Contributors: Loveless Archivo:Metric globe.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Metric_globe.png License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Mapos Archivo:Curvatura de Riemann.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Curvatura_de_Riemann.png License: Creative Commons Attribution-Sharealike 3.0 Contributors: Fmercury1980 Archivo:Tidal-forces.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Tidal-forces.png License: GNU Free Documentation License Contributors: Bryan Derksen, Eman, Justass, Mdd, Pieter Kuiper, RuM, Tano4595, WikipediaMaster Archivo:NASA-JPL-Caltech - Double the Rubble (PIA11375) (pd).jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:NASA-JPL-Caltech_-_Double_the_Rubble_(PIA11375)_(pd).jpg License: Public Domain Contributors: NASA/JPL-Caltech Archivo:ESO - Planetary System Around HD 69830 II (by).jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:ESO_-_Planetary_System_Around_HD_69830_II_(by).jpg License: unknown Contributors: ESO Archivo:Tensor de Ricci.PNG Source: http://es.wikipedia.org/w/index.php?title=Archivo:Tensor_de_Ricci.PNG License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Fmercury1980 Archivo:Rotating Black Hole.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Rotating_Black_Hole.jpg License: Public Domain Contributors: Vassil, Work permit Archivo:Celestia sun.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Celestia_sun.jpg License: Public Domain Contributors: NikoLang Archivo:146978main gwave lg5.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:146978main_gwave_lg5.jpg License: Public Domain Contributors: Henze, NASA Archivo:Star collapse to black hole.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Star_collapse_to_black_hole.png License: Creative Commons Attribution-Sharealike 2.5 Contributors: Mapos, Pieter Kuiper Archivo:Solar sys.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Solar_sys.jpg License: Public Domain Contributors: Harman Smith and Laura Generosa (nee Berwin), graphic artists and contractors to NASA's Jet Propulsion Laboratory. Archivo:1919 eclipse negative.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:1919_eclipse_negative.jpg License: Public Domain Contributors: F. W. Dyson, A. S. Eddington, and C. Davidson Archivo:Lorentz transform of world line.gif Source: http://es.wikipedia.org/w/index.php?title=Archivo:Lorentz_transform_of_world_line.gif License: GNU Free Documentation License Contributors: Aushulz, Cyp, Darapti, Jarekt, Julia W, Melchoir, Pieter Kuiper, Rovnet, Schekinov Alexey Victorovich, TommyBee, 4 anonymous edits Archivo:Nuvola apps edu mathematics-p.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Nuvola_apps_edu_mathematics-p.svg License: GNU Lesser General Public License Contributors: David Vignoni (original icon); Flamurai (SVG convertion) Archivo:Minimal surface curvature planes-en.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Minimal_surface_curvature_planes-en.svg License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Eric Gaba (Sting) Archivo:Gaussian curvature.PNG Source: http://es.wikipedia.org/w/index.php?title=Archivo:Gaussian_curvature.PNG License: Public Domain Contributors: Jhausauer Archivo:Saddle pt.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Saddle_pt.jpg License: Public Domain Contributors: User:StuRat Image:Parallel transport.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Parallel_transport.png License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Luca Antonelli (Luke Antony) Image:Tangent bundle.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Tangent_bundle.svg License: Public Domain Contributors: Oleg Alexandrov Archivo:FiberBundle-01.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:FiberBundle-01.png License: Public Domain Contributors: Darapti, Dbenbenn, EugeneZelenko, Fropuff, Zscout370, 1 anonymous edits Archivo:Feynmann Diagram Gluon Radiation.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Feynmann_Diagram_Gluon_Radiation.svg License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Joel Holdsworth (Joelholdsworth) Archivo:Degrees of freedom (diatomic molecule).png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Degrees_of_freedom_(diatomic_molecule).png License: Public Domain Contributors: Cwbm (commons), Grimlock, Pieter Kuiper, 1 anonymous edits Archivo:Squarecubetesseract.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Squarecubetesseract.png License: GNU Free Documentation License Contributors: Andeggs Archivo:Dice analogy- 1 to 5 dimensions.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Dice_analogy-_1_to_5_dimensions.svg License: Public domain Contributors: en:User:Wdflake Archivo:Dimension levels.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Dimension_levels.svg License: Creative Commons Attribution-Sharealike 3.0 Contributors: NerdBoy1392 Archivo:Triple expansion engine animation.gif Source: http://es.wikipedia.org/w/index.php?title=Archivo:Triple_expansion_engine_animation.gif License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: User:Emoscopes Archivo:HeatEngine.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:HeatEngine.svg License: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Contributors: Maquina_termica.png: gonfer derivative work: kismalac Archivo:Carnot cycle p-V diagram.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Carnot_cycle_p-V_diagram.svg License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Dake, Keta, 3 anonymous edits Archivo:Wikiversity-logo-Snorky.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Wikiversity-logo-Snorky.svg License: unknown Contributors: - Archivo:Thomas_Nagel_teaching_Ethics.JPG Source: http://es.wikipedia.org/w/index.php?title=Archivo:Thomas_Nagel_teaching_Ethics.JPG License: Creative Commons Attribution-Sharealike 2.5 Contributors: Eusebius, Jtneill, Was a bee, 1 anonymous edits Image:Dadeip C. Let.JPG Source: http://es.wikipedia.org/w/index.php?title=Archivo:Dadeip_C._Let.JPG License: Creative Commons Attribution 3.0 Contributors: P. C. mother Archivo:Prison.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Prison.jpg License: Public Domain Contributors: Anne97432, Emily, Lokal Profil, Scarlight, Shizhao, Shyam, 1 anonymous edits Archivo:Ultmatum game.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Ultmatum_game.png License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Kevin Zollman --Kzollman 00:53, 31 December 2006 (UTC) Archivo:PD with outside option.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:PD_with_outside_option.png License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: Kevin Zollman Kzollman 23:01, 3 May 2006 (UTC) Archivo:Centipede game.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Centipede_game.png License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: EugeneZelenko, Kzollman, MaxDZ8 File:Redwing Apache.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Redwing_Apache.jpg License: Public Domain Contributors: Federal Government of the File:US Air Force B-2 Spirit.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:US_Air_Force_B-2_Spirit.jpg License: Public Domain Contributors: CristianChirita, Denniss, Duesentrieb, Duffman, FAEP, Louis Waweru, Paul Richter, Pmsyyz Archivo:Pershing II.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Pershing_II.jpg License: Public Domain Contributors: U.S. Army File:EKV prototype launch.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:EKV_prototype_launch.jpg License: unknown Contributors: Badzil, Bricktop, CarolSpears, GDK, Hailey C. Shannon, Huntster, Infrogmation, 2 anonymous edits Archivo:Pascal1423.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Pascal1423.jpg License: Public Domain Contributors: Peter Andersen Archivo:Flag of the United States.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Flag_of_the_United_States.svg License: Public Domain Contributors: Dbenbenn, Zscout370, Jacobolus, Indolences, Technion. Image Sources, Licenses and Contributors 303

Archivo:Nonlinear programming jaredwf.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Nonlinear_programming_jaredwf.png License: Public Domain Contributors: Jaredwf Archivo:Nonlinear programming 3D jaredwf.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Nonlinear_programming_3D_jaredwf.png License: Public Domain Contributors: Jaredwf Archivo:Milton-Erickson.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Milton-Erickson.jpg License: Public Domain Contributors: AIT SALEM Imagen:Flag of Nevada.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Flag_of_Nevada.svg License: Public Domain Contributors: Caleb Moore Archivo:Flag of Arizona.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Flag_of_Arizona.svg License: Public Domain Contributors: User:Madden Archivo:RICHARDB.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:RICHARDB.jpg License: Public Domain Contributors: DaNorse Archivo:Wikibooks-logo.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Wikibooks-logo.svg License: logo Contributors: User:Bastique, User:Ramac et al. Archivo:Friedrich Daniel Ernst Schleiermacher 2.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Friedrich_Daniel_Ernst_Schleiermacher_2.jpg License: Public Domain Contributors: Chris 73, Mutter Erde, Schaengel89 Archivo:Flag of Poland.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Flag_of_Poland.svg License: Public Domain Contributors: Mareklug, Wanted Archivo:Pi y margall.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Pi_y_margall.jpg License: Public Domain Contributors: José Sánchez Pescador Archivo:Escudo del Gobierno Provisional y la Primera República Española.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Escudo_del_Gobierno_Provisional_y_la_Primera_República_Española.svg License: Creative Commons Attribution-Share Alike Contributors: SanchoPanzaXXI Archivo:Escudo de España 1874-1931.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Escudo_de_España_1874-1931.svg License: Public Domain Contributors: miguillen Archivo:Flag of Spain (1785-1873 and 1875-1931).svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Flag_of_Spain_(1785-1873_and_1875-1931).svg License: Creative Commons Attribution-ShareAlike 3.0 Unported Contributors: previous version User:Ignaciogavira ; current version HansenBCN, designs from SanchoPanzaXXI Archivo:Firma pi y margall.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Firma_pi_y_margall.png License: Public Domain Contributors: Sociedad de Literatos Archivo:Recuerdos y Bellezas de España.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Recuerdos_y_Bellezas_de_España.png License: Public Domain Contributors: Eldelcarro, Man vyi, 2 anonymous edits Archivo:Pi y margal 1869.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:Pi_y_margal_1869.png License: Public Domain Contributors: Sociedad de Literatos Archivo:Francisco Pi y Margall.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Francisco_Pi_y_Margall.jpg License: Public Domain Contributors: Adam Faanes, Albertomos, Friviere, 1 anonymous edits Archivo:1º república española La Flaca 19th century.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:1º_república_española_La_Flaca_19th_century.jpg License: Public Domain Contributors: Tomás Padró (1840-1877) para La Flaca (1869-1876) (by Rockger21) Archivo:Conflictos en la I República Española.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Conflictos_en_la_I_República_Española.svg License: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Contributors: Té y kriptonita Archivo:General Pavía en las Cortes.png Source: http://es.wikipedia.org/w/index.php?title=Archivo:General_Pavía_en_las_Cortes.png License: Public Domain Contributors: Albertomos, Balbo, El Filóloco, Eldelcarro, Tyk, 4 anonymous edits Archivo:Francisco-Pi-y-Margall-1900.jpg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Francisco-Pi-y-Margall-1900.jpg License: Public Domain Contributors: Albertomos Archivo:Wikisource-logo.svg Source: http://es.wikipedia.org/w/index.php?title=Archivo:Wikisource-logo.svg License: logo Contributors: Nicholas Moreau Licencia 304 Licencia

Creative Commons Attribution-Share Alike 3.0 Unported //creativecommons.org/licenses/by-sa/3.0/