<<

HOMOTECIA Nº 1 – Año 15 Lunes , 9 de Enero de 2017 1

2017. Con la esperanza de que advengan mejores tiempos, reciban todos un Feliz Año Nuevo. Lo importante y significativo de nuestra condición de humanidad, es que somos libres no solamente para pensar y decidir sino también para desear. Por nuestra parte, nos contenta tanto desde lo personal como desde nuestra condición de ciudadanos , poder seguirlos acompañando; e igualmente desde este inicio de nuestro déci mo quinto año de publicación, llegar hasta ustedes. Como la mayoría de las personas a las que contactamos mediante nuestra Revista HOMOTECIA son jóvenes docentes que se inician en el andar de este camino, consideramos procedente dirigir esta primera editorial, como muestra de apoyo y estimulación, a ellos. Con mucha convicción, podemos afirmar que la satisfacción en el trabajo docente se alcanza cuando tratamos siempre de dar lo mejor de nosotros. Para los tiempos que estamos LUDWIG WITTGENSTEIN viviendo, es urgente que la soc iedad se transforme, siguiendo lo cíclico (1889–1951) de un bucle, entre la escuela (la educación) y el hogar (la familia); este hecho es lo que determinará en el futuro la importancia de desempeñarse Nació el 26 de abril de 1889 en Viena, Austria ; y murió el 29 de abril de en la profesión docente. En los jóvenes de hoy, los que son actualm ente de 19 51, a los 62 años, Cambridge, Inglaterra. atendidos en las aulas de clase, están latentes factores para ser los Ludwig Josef Johann Wittgenstein . futuros líderes de este país. De aquí que su formación deben conseguirla Filósofo que tr abajó sobre los fundamentos de la matemática y en las instituciones educativas, es decir deben formarse en la educación sistemática y no con vivencias a medias ni sesgadas. El contacto del de la lógica matemática . individuo con el mundo real , repitiendo lo que ya antes hemos referido en más de una oportunidad, es a través de los sentidos, percib iendo de la El padre de Ludwig Wittgenstein fue Karl Wittgenstein quien realidad solo lo que se le hace consciente ( trozos de realidad , era judío, mientras que su madre era católic a romana. Ludwig definámoslos así), sujeto a l as limitaciones que afectan a cada sentido, fue bautizado según la iglesia católica. Sus padres eran muy por lo que es imposible que perciban la realidad en su totalidad. Estando aficionados a lo musical y Ludwig fue criado en una casa que en un proceso de transición de vida (niñez, adolescencia, adultez), estaba siempre llena de música, siendo Brahms un invitado además de un proceso de avidez por la adquisición de conocimientos se frecuente. Los padres de Ludwig t uvieron ocho hijos que eran está en otro que es el de aprender a vivir; así la personalidad de cada uno altamente talentosos tanto en lo artístico como en lo de ellos es permeable. U n mal manejo de esta condición puede producir intelectual. Ludwig fue el menor. Tres eran mujeres: Gretl, significativas interferencias en el desarrollo adecuado de su criterio Hermine y Helene y los otros varones: Hans, Kurt, Rudolf, como adulto. Aceptamos como cierto que el aprendizaje fuera de las aulas proporciona vivencias que les permiten recibir lecciones de y para Paul y Ludwig. Era una familia rica que hizo fortuna en la la vida, siendo ejemplo de esto lo que se vive en el hogar y en la industria del acero y, llegó a ser una de las familias más comunidad, pero son los institutos educativos, que funcionan basados en adineradas de Austria, lo que permitió a l os padres lo universal de la cultura, los lugares en donde deben crecer en sabiduría proporcionar la mejor educación posible a sus hijos. y espíritu. Además, se le debe enseñar y concretar que viva siempre en En este momento es conveniente comentar algunas cosa s un mundo de verdades. Manejar datos falsos puede provocar que cometa sobre los hermanos y hermanas de Ludwig, para comprender errores o no asimile los datos que son verdaderos. Podrá resolver sus problemas de existencia cuando la información que maneja es en algo el estilo de vida en el cual creció Ludwig como creció verdadera, pues nadie es más infeliz cuando al vivir en un mundo de y también por lo que él pasó. Sus hermanos Hans, Kurt y Rudolf se suicidaron posteriormente . Paul fue un talentoso mentiras , al enfrentar la realidad esto lo enfermará física y mentalmente . a Si una persona está rodeada de individuos que le mienten, se le está pianista que perdió un brazo durante la 1 Guerra Mundial. induciendo a cometer errores existenciales y su potencial de alcanzar Ravel compuso para él Concerto for the Left Hand (Concierto logros se le reduce. La información falsa puede surgir de muchas para la mano izquierda). Gretl tenía un retrato de ella pintado fuentes: académicas, sociales, profesionales, laborales, políticas, y por el famoso gran pintor austríaco de Art Nouveau, Gustav faltarían más casos por citar. Así vemos a personas con la premeditada Klimt. Hermine escribió un importante artículo sobre Ludwig intención de inducir a otras a que crean en las ideas que a ellas en Wittgenstein, considerada aquí como la referencia [16] y de la particular les convienen... Pero no es de humanos hacer a nuestros cual se toman algunas citas. congéneres lo que no se quiere que le ha gan a uno . Todos estos elementos van conformando el principio que debe regir el cómo formar a Ludwig fue educado en casa hasta que t uvo catorce años de nuestros estudiantes, qué tipo de ciudadano queremos ayudar a construir edad. Al crecer, mostró un interés por las cosas mecánicas y y de hecho, qué clase de docente se debe ser. En las características de la cuando alcanzó los diez años hizo un trabajo sobre la máquina naturaleza prof esional del docente debe estar siempre presente el ser de coser. En 1903 Wittgenstein comenzó tres años de responsable y la dedicación a su labor, pero existen otros valores los escolaridad en la Realschule de Linz, Austri a, escuela cuales también deben ser naturales en su conducta. Siendo para nosotros especializada en matemáticas y ciencias naturales. Al venir de evidente que en la actualidad la verdad y la justicia son definidas y un ambiente considerado altamente culto y entrar en una ajustadas a intereses particulares, el honor , la nobleza, la escuela llena de niños hijos de gente de la clase obrera, honestidad, la sinceridad y la lealtad deben ser valores morales que no aquello se convirtió para Wittgenstein en un momento difícil se venden, no se rinden y no se entregan. Particularmente, el docente y triste. No comprendía a sus condiscípulos y les parecía n que practique es te principio, tiene la virtud de convertir las derrotas en [16]: triunfos. Quien no lo practique, la traición y el miedo son los que rondarán su vida y a la larga, los triunfos se convertirán en derrotas. El ... como seres de otro mundo. docente debe ser siempre un ser que merezca el respet o de todos, un ejemplo social y de humanidad. (CONTINÚA EN LA SIGUIENTE PÁGINA)

Reflexiones “Ten miedo cada vez que no digas la verdad." Raimundo Lulio (EE. UU.)

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 2

(VIENE DE LA PÁGINA ANTERIOR) ¿Cómo podrían ellos entender al frágil muchacho tímido que hablaba balbuceando, y cuyo padre era uno de los hombres más ricos de Austria? Sin embargo, la escuela permitió a Wittgenstein aumentar su amor por la tecnología y lo hizo tomar la decisión de estudiar ingeniería en la Universidad. En 1906 viajó a Berlín donde comenzó sus estudios en ingeniería mecánica en la Technische Hochschule en Charlottenburg. Con la intención de estudiar un doctorado en ingeniería, Wittgenstein se fue a Inglaterra en 1908 y se registró como estudiante de investigación en un laboratorio de ingeniería de la Universidad de Manchester. Su primer proyecto consistió en el estudio del comportamiento de los cometas en la atmósfera superior de la tierra. Comenzó entonces un amplio estudio de investigación aeronáutica, esta vez examinando el diseño de una hélice con un pequeño motor de jet en el extremo de cada lámina. En esta época Wittgenstein era más de mentalidad práctica de lo que se pueda suponer, comparando con su trabajo teorico que posteriormente desarrolló. No sólo estudió el diseño teórico de la hélice, sino que la construyó y probó. Las pruebas de la hélice fueron acertadas, pero al comprender que necesitaba entender más matemáticas para realizar sus investigaciones, comenzó estudios que pronto lo involucraron con los fundamentos de las matemáticas. Bertrand Russell había publicado sus Principles of Mathematics (Principios de las matemáticas) en 1903 y Wittgenstein recurrió a esta obra buscando una mejor comprensión de los fundamentos sobre esta área. Le interesó tanto el trabajo de Russell que decidió que quería aprender más. Wittgenstein viajó a Jena para solicitarle a Frege que le aconsejara sobre el particular y éste le dijo que debía estudiar asesorado por Russell. Wittgenstein dejó a un lado su investigación sobre aeronáutica en Manchester en 1911 para estudiar lógica matemática con Russell en el Trinity College de Cambridge. Russell no era dado a dejarse impresionar fácilmente por algún estudiante, pero sin duda Wittgenstein lo impresionó mucho. Russell escribió que enseñar a Wittgenstein fue: ... una de las más emocionantes aventuras intelectuales [de mi vida]. ... [En Wittgenstein había] fuego, penetración y pureza intelectual a un grado extraordinario. ... [Él] pronto sabía todo lo que yo tenía que enseñarle. Russell también escribió [referencia 14]: Su disposición es la de un artista, intuitivo y de mal humor. Dice que cada mañana comienza su trabajo con esperanza, y todas las noches termina desesperado. En 1912 Russell se había convencido que Wittgenstein poseía un genio que debía ser orientado hacia la filosofía matemática. Por lo tanto persuadió a Wittgenstein a renunciar a la idea de reanudar su trabajo de matemática aplicada a la aeronáutica. El primer trabajo que Wittgenstein presentó fue la Sociedad Filosófica de Cambridge en 1912, titulado What is philosophy? (¿Qué es filosofía?) [referencia 12]: ... [este trabajo] muestra que desde el principio Wittgenstein reconoce la importancia de comprender la naturaleza de los problemas filosóficos y de reflexionar sobre los métodos apropiados para abordarlos. Durante este período en Cambridge, Wittgenstein continuó trabajando sobre los fundamentos de las matemáticas y también sobre lógica matemática. Sin embargo, sufrió depresión y amenazó con suicidarse en varias ocasiones. Encontró a Cambridge el lugar menos ideal para trabajar ya que sentía que los académicos de allí, estaban simplemente alardeando con sus discursos el ser inteligentes, mientras que sus ideas carecían de profundidad. Cuando le dijo a Russel que quería salir de Cambridge e ir a Noruega, Russell trató de disuadirlo [referencia 14]: Le dije que estaría a oscuras, y dijo que odiaba la luz del día. Le dije que estaría solo, y dijo que se le prostituía la mente hablando con gente inteligente. Le dije que estaba loco, y dijo que Dios lo conservaría sano. (Dios ciertamente lo haría). Pese a los intentos de Russell para detenerlo, Wittgenstein se fue a Skjolden en Noruega y esto resultó un período muy fructífero durante el cual vivió aislado trabajando en sus ideas sobre la lógica y el lenguaje que formaría la base de su gran obra el Tractatus Logico-Philosophicus . También fue un período cuando volvió a sufrir de depresión. En sus cartas a su hermana Hermine habló de su tormento mental (referencia [16]) y escribió que durante este tiempo vivió: ... en un estado elevado de intensidad intelectual que se inclinaba hacia lo patológico. Cuando la 1a Guerra Mundial estalló en 1914 Wittgenstein inmediatamente viajó desde Skjolden a Viena para unirse al ejército austríaco. Estaba entusiasmado para alistarse ya que quería enfrentar la muerte [referencia 16]: Ahora debería tener la oportunidad de ser un ser humano decente, porque estoy de pie cara a cara con la muerte. Sirvió primero en un barco, en el taller de artillería, pero encontró a sus compañeros muy difíciles puesto que lo trataban con crueldad. En 1916 fue enviado como miembro de un regimiento de bombarderos al frente ruso donde obtuvo numerosas distinciones por su valor. En 1918 fue enviado al norte de Italia conformando un regimiento de artillería y estuvo allí hasta el final de la guerra, convirtiéndose en prisionero de los italianos en la población de Cassino. Durante estos cuatro años de servicio activo Wittgenstein escribió su gran labor en lógica, el Tractatus y el manuscrito fue encontrado en su mochila cuando lo hicieron prisionero. Se le permitió enviar el manuscrito a Russell mientras estuvo detenido en un campo de concentración en Italia. Después de haber escrito lo que él creía que era su última palabra sobre filosofía, la intención de Wittgenstein era ahora renunciar a su estudio sobre el tema. Liberados de la detención en 1919, regaló la fortuna familiar que había heredado y, al año siguiente, se entrenó como maestro de escuela primaria en Austria. Fue entrenado en los métodos de la corriente reformista de la escuela austríaca, que considera que el objetivo principal de un maestro es despertar la curiosidad en el niño y ayudarlo a desarrollarse como pensador independiente. El movimiento rechaza el método de enseñanza que alentaba a los niños a aprender simplemente repitiendo hechos.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 3

Pero aunque Wittgenstein era un firme creyente en estos principios y trató con gran entusiasmo ofrecer a los niños que él enseñó en la aldea de montaña de Wiener Neustadt, con la mejor educación posible, hubo factores que trabajaron en contra de su éxito. Tal vez la mayor dificultad que enfrentó Wittgenstein fue que aunque regaló la fortuna heredada, no hizo nada para permitir que alguien con su experiencia altamente privilegiada encajara en la cultura de los hijos de los agricultores a los que enseñaba. Durante este período Wittgenstein fue otra vez desesperadamente infeliz y estuvo nuevamente a punto de suicidarse en varias ocasiones. El hecho que sus alumnos lo apreciaban lo mantuvo en su tarea, pero encontró dificultades en mantener relaciones amistosas con los otros profesores. Finalmente, sintiendo que había fallado como maestro de escuela primaria, renunció al cargo en 1925. Aún no se sentía deseos por volver a la vida académica y realizó numerosos diferentes trabajos. Primero trabajó como asistente de jardinero en el monasterio de Hüsseldorf, cerca de Viena, viviendo en el cobertizo durante tres meses. Luego trabajó como arquitecto durante dos años, ocupado en el diseño y construcción de una mansión para su hermana Gretl cerca de Viena. Aunque Wittgenstein no deseaba volver a la vida académica durante este período, no estaba completamente alejado del estudio de la lógica matemática, de los fundamentos de las matemáticas y de la filosofía. Se reunió con Ramsey, quien estaba haciendo un estudio especial del Tractatus y había viajado desde Cambridge a Austria en varias ocasiones para discutirlo con él, y también se reunió con los filósofos del Círculo de Viena. Ha habido muchas teorías formuladas para explicar por qué regresó a la vida académica, pero se cree que al participar activamente en las discusiones de estas reuniones, el pudo captar que vendrían problemas con el Tractatus . En 1929 Wittgenstein regresó a Cambridge, donde presentó el Tractatus como su tesis doctoral. Este trabajo considera la relación del lenguaje en el mundo. Wittgenstein argumentó que las palabras son representaciones de objetos y que las palabras combinadas conducen a proposiciones que son declaraciones acerca de la realidad, o como él dice, imágenes de la realidad. Tales declaraciones, por supuesto, pueden representar una realidad o verdadera o falsa. Reciprocamente, el mundo presentado por Wittgenstein en el Tractatus , consiste en hechos. Estos hechos pueden desglosarse en Estados del asunto, que a su vez puede desglosarse en combinaciones de objetos. Esto es esencialmente una teoría atómica con el mundo construido a partir de objetos simples. Sostiene que existe una biyección (correspondencia uno a uno) entre el lenguaje y el mundo. En el prefacio de Philosophical Investigations escrito dieciséis años después de regresar a Cambridge, Wittgenstein escribió: ... desde el principio para ocuparme de nuevo de la filosofía, hace 16 años, me he visto obligado a reconocer errores graves cometidos en lo escrito en ese primer libro. Me ayudó a visualizar estos errores - a un grado tal que yo apenas sería capaz de estimar – las críticas hacia mis ideas hechas por Frank Ramsey, con quien discutí en innumerables conversaciones durante los dos últimos años de su vida. Sin embargo, no fue sino hasta 1953, dos años después de la muerte de Wittgenstein, que fue publicado este segundo gran trabajo, Philosophical Investigations . En este trabajo Wittgenstein estudió [referencia 12]: ... la filosofía del lenguaje y la psicología filosófica. ... la forma del libro es bastante singular. ... primero conseguimos una parte de 693 comentarios distintos, numerados primero, mientras varían en longitud de una línea a varios párrafos, y una segunda parte de catorce secciones, mitad de una página a treinta y seis páginas completas... en vez de presentar argumentos y conclusiones, con claridad estas observaciones reflexionan sobre una amplia gama de temas sin producir alguna vez una declaración clara final en alguno de ellos. ¿Cómo difiere su enfoque en Philosophical Investigations del que presentó en el Tractatus ? Está todavía preocupado por el lenguaje, pero en su posterior modo de pensar las palabras no son invariables representaciones de los objetos, sino son diversas. Dibuja una analogía entre las palabras y las herramientas en una caja de herramientas: ... hay un martillo, alicates, una sierra, un destornillador, una regla, un pote de pegamento, clavos y tornillos. La función de las palabras es tan diversa como las funciones de estos objetos. No era que una palabra tenía un significado, sino más bien tenía un uso. Otro ejemplo que da es una analogía entre las palabras y piezas en un juego de ajedrez. El significado de una pieza de ajedrez no está determinado por su apariencia física, más bien está determinado por las reglas del ajedrez. Del mismo modo el significado de una palabra es su uso regido por reglas. Después de obtener su doctorado, Wittgenstein fue nombrado profesor en Cambridge y fue nombrado Fellow (Miembro Investigador) del Trinity College. En los años siguientes Wittgenstein realizó allí conferencias sobre la filosofía de las matemáticas, lenguaje y lógica. En 1939 fue nombrado Jefe de la Cátedra de Filosofía en Cambridge. Malcolm, un estudiante de Wittgenstein, escribe en la referencia [10] sobre las conferencias de Wittgenstein, a las que asistió en 1939: Sus conferencias fueron dadas sin preparación y sin notas. Me dijo una vez que trató de hacer notas para una conferencia pero le disgustó el resultado; los pensamientos le salieron 'rancios', o, como dijo a otro amigo, las palabras parecían 'cadáveres' cuando empezó a leerlas. De los métodos que llegó a utilizar su única preparación para las conferencias, como me dijo, fue pasar unos minutos antes de cada clase, revisando el curso que la investigación había tomado en la sesión anterior. Al principio de la conferencia daba un breve resumen de lo anterior y entonces empezaba a partir de ahí, tratando de avanzar en la investigación con ideas frescas. ... Lo que ocurría en esas reuniones de clase era en gran medida una nueva investigación. G. H. von Wright fue pupilo de Wittgenstein en Cambridge. Wright escribe en la referencia [10]: Wittgenstein pensaba que su influencia como profesor era, en conjunto, perjudicial para el desarrollo de las mentes independientes de sus discípulos. Me temo que él tenía razón. Y creo que en parte entiendo que así sea. Debido a la profundidad y la originalidad de su pensamiento, es muy difícil de entender las ideas de Wittgenstein y aún más difícil incorporan su pensamiento al nuestro. Al mismo tiempo la magia de su personalidad y su estilo era de lo más atractivo y convincente. Aprender de Wittgenstein sin llegar a adoptar sus formas de expresión y lemas e incluso imitar su tono de voz, su semblante y sus gestos, era casi imposible.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 4

Hay aquí una sugerencia sobre que Wittgenstein nunca habría encajado como líder de un grupo grande de estudiantes e investigadores. Aunque tuvo estudiantes que producirían importantes trabajos, aun siendo fiel a su forma de pensar, Wittgenstein siempre pareció una figura aislada. Parecía entender las razones de esto cuando escribió: ¿Soy el único que no pudo encontrar una escuela o un filósofo nunca podrá hacer esto? No encontré una escuela porque no quiero realmente ser imitado. Mucho menos por quienes publican artículos en revistas de filosofía. Wittgenstein permaneció en Cambridge hasta que dimitió en 1947 con excepción del período de la 2a Guerra Mundial durante la cual trabajó como portero en Hospital Guy de Londres. También pasó tiempo trabajando como ayudante de laboratorio en la Enfermería Real Victoria antes de regresar a sus funciones en Cambridge en 1944. Después de tres años en Cambridge se retiró y se trasladó a una cabaña aislada en la costa oeste de Irlanda. Su salud se deterioró y en 1949 le fue diagnosticado un cáncer. Wittgenstein no parecía infeliz por el diagnóstico ya que afirmaba que no deseaba vivir más. Continuó trabajando en sus ideas hasta unos días antes de su muerte, la fuerza y la profundidad de su intelecto disminuyó por la enfermedad. McGinn, en la referencia [12], da una estimación justa de Wittgenstein: La fuerza y la originalidad de su pensamiento muestran una mente filosófica única y muchos estarían encantados de llamarlo un genio. Wittgenstein nunca fue feliz con sus propios escritos y como resultado sólo un trabajo importante, el Tractatus , se publicó mientras estuvo vivo. Posteriormente a su muerte se ha publicado una gran cantidad de material de sus conferencias y notas. De que sus ideas fueran consideradas difíciles de entender, era algo de lo que estaba muy consciente y sintió que de alguna manera no encajaban en el mundo en el que vivía. En su propia opinión, un comentario sobre este particular: ¿Por qué la filosofía es tan complicada? Debería ser totalmente simple. La filosofía desata los nudos en nuestro modo de pensar que de una manera absurda, hemos puesto allí. Para ello deben hacerse movimientos que son tan complicados como estos nudos. Aunque el resultado de la filosofía es simple, su método no puede serlo si se quiere tener éxito. La complejidad de la filosofía no es una complejidad de la materia en sí, sino de nuestra comprensión anudada.

Referencias.-

1. M Black, Biography in Dictionary of Scientific Biography ( 1970-1990). http://www.encyclopedia.com/topic/Ludwig_Wittgenstein.aspx 2. Biography in Encyclopaedia Britannica. http://www.britannica.com/eb/article-9077298/Ludwig-Wittgenstein

Libros: 3. W W Bartley, Wittgenstein (London, 1974). 4. P Engelmann, Letters from Ludwig Wittgenstein with a Memoir (Oxford, 1967). 5. K T Fann (ed.), Ludwig Wittgenstein: The Man and His Philosophy (1967, reissued 1978). 6. P Frascolla, Wittgenstein's philosophy of mathematics (London, 1994). 7. A Janik and S Toulman, Wittgenstein's Vienna (London, 1973). 8. A Kenny, Wittgenstein (1973, reissued 1976). 9. N Malcolm, Ludwig Wittgenstein: A Memoir 2nd ed. (London, 1984). 10. N Malcolm, Ludwig Wittgenstein : a memoir (London, 1958). 11. M McGinn, Ludwig Wittgenstein and the Philosophical Investigations (London, 1997). 12. B McGuinness, Wittgenstein: A Life: Young Ludwig, 1889-1921 (1988). 13. R Monk, Ludwig Wittgenstein : the duty of genius (London, 1990). 14. D F Pears, Wittgenstein (London, 1971). 15. T Redpath, Wittgenstein' : a Student's Memoir (London, 1990). 16. R Rhees (ed.), Recollections of Wittgenstein (Oxford, 1984).

LUDWIG WITTGENSTEIN Imágenes obtenidas de:

Versión en español por R. Ascanio H. del artículo de J. J. O'Connor y E. F. Robertson sobre “Ludwig Wittgenstein” (Octubre 2003). FUENTE: MacTutor History of Mathematics. [http://www-history.mcs.st-andrews.ac.uk/Biographies/Wittgenstein.html].

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 5

LA ENSEÑANZA DE LAS CIENCIAS. Problemas y perspectivas. Por: José López [email protected] Docente FACE - UC (Nueva versión - Publicado inicialmente en Octubre 2005) I. REFERENTES EPISTEMOLÓGICOS. La ciencia que se originó a partir del renacimiento se ha tornado insuficiente debido a las diferentes reflexiones epistemológicas de la actualidad, sobre todo en cuanto a la manera de abordar los avances científicos y tecnológicos, y la creación de los conocimientos particulares desarrollado con el nacimiento de nuevas especialidades científicas (Sociología, Psicología, Biología) y las interrelaciones de éstas con la que ya existían (Física, Matemática). Por una parte el positivismo dando un modelo explicativo basado en la racionalidad total y los empiristas que afirmaban que la racionalidad pura no podía sostener sus fundamentos en ciertas circunstancias de la producción científica y que ésta necesita de experiencia para legitimizarse. Muchas de estas nuevas ciencias adoptaron las bases fundamentales de la Física y la Matemática como ordenamiento lógico. De allí, siguiendo con gran interés la actividad de la física contemporánea notamos un mérito excepcionalmente preciso basado en el diálogo del investigador provisto de instrumentos precisos y la presunción ambiciosa del matemático que ambiciona informar detalladamente la experiencia. La física tiene dos vertientes filosóficas o epistemológicas. La primera es el campo del pensamiento que conjuga la matemática con la experiencia y la segunda, se manifiesta cuando el matemático muestra la modificación de la teoría dominante para que pueda asimilar el nuevo hecho a través de la demostración recurrente, que es por consiguiente un carácter importante del racionalismo, ya que esta constituye el fundamento de la memoria racional. Según Bachelard (1989), el contacto de la experiencia y la matemática se desarrolló con una solidaridad extensiva, la perspectiva teórica sitúa el hecho experimental donde debe estar. Si el hecho está bien asimilado por la teoría se acaban las vacilaciones sobre el lugar que le corresponde en un pensamiento; ya no se trata de un hecho en bruto, sino de un hecho de cultura originando un estatuto racionalista. Desde este momento se establece un diálogo entre el racionalista y el empirista. Cuando el teórico anuncia la posibilidad de un nuevo fenómeno, el investigador se asoma a esta perspectiva, en el caso que crea que está en la línea de la ciencia moderna. La experiencia asociada de este modo a unas miras teóricas, no tiene nada que ver con la búsqueda ocasional con esas experiencias improvisadas y que no tienen lugar en una ciencia fuertemente constituida como es la física. Ningún físico malgastaría “sus créditos” para construir un instrumento sin destino teórico (Bachelard, 1989). En física, la experiencia improvisada de Claude Bernard no tiene sentido. Hay que romper con la racionalidad en el vacío, hay que decir no al empirismo desordenado, esas son dos obligaciones filosóficas que funden la estrella y precisa síntesis de la teoría y de la experiencia en la física contemporánea. No se puede fundamentar las ciencias físicas sin entrar en el diálogo filosófico del racionalista y del investigador (Bachelard, 1989), se puede afirmar “que el físico moderno necesita de dos certezas, la primera es la certeza de que lo real está en contacto directo con la racionalidad, mereciendo por este mismo el nombre real científico, y la segunda la certeza de que los argumentos racionales que afectan a la experiencia son ya momentos de esta experiencia”. (Bachelard, 1989). Esta doble certeza sólo puede expresarse por una filosofía en dos movimientos, por un diálogo. En esta posición central es donde la dialéctica de la razón y la técnica encuentran precisamente su eficacia. Es necesario también que este racionalismo sea lo suficientemente abierto para recibir nuevas determinaciones de la experiencia, viviendo de cerca esta dialéctica, nos convencemos de la realidad eminente de los campos del pensamiento. De esta manera, cuando se interpreta sistemáticamente el conocimiento racional como la constitución de ciertas formas, como un simple montaje de fórmulas dispuestas a informar cualquier experiencia, se instruye un formalismo. Este formalismo puede en último extremo recibir los resultados del pensamiento racional, pero no puede realizar todo el trabajo del pensamiento racional. Por otra parte, no se depende siempre del formalismo. Cuando la ciencia se centra en un conjunto de convenciones, una serie de pensamientos más o menos cómodos organizados en el lenguaje claro de los matemáticos, se convierten en la esperanza de la razón. Estas convenciones, esta arbitrariedad a la actividad del sujeto pensante, nos conllevarían al idealismo, que ya no se manifiesta en la epistemología contemporánea, pero que jugó un papel preponderante en las filosofías de la naturaleza a lo largo del siglo XIX, que todavía debe figurar en un examen general de las filosofías de las ciencias. En otra perspectiva, en vez de esta evanescencia que lleva al idealismo, encontraremos una pasividad progresiva del pensamiento que lleva al realismo, o una concepción de la realidad como sinónimo de la irracionalidad y por consiguiente, al pasar del racionalismo de la experiencia de la física, muy ligado a la teoría, al pasar al positivismo, parece que perdemos inmediatamente todos los principios de la necesidad. El positivismo no tiene nada de lo que se necesita para decidir niveles de aproximación, para sentir la extraña sensibilidad de racionalidad que dan las aproximaciones de segundo orden, esos conocimientos más aproximados, más discutidos, más coherentes que encontramos en la prueba de las finas experiencias que nos hacen comprender que hay más racionalidad en lo complejo que en lo simple. En definitiva, la ciencia instruye a la razón. La razón debe obedecer a la ciencia, de esta manera la razón no puede recargar una experiencia inmediata; por el contrario debe equilibrarse con una experiencia mejor estructurada. Pudiéramos ejemplificar lo anteriormente expuesto con la aritmética, ya que esta ha dado pruebas de eficiencia, de exactitud, de coherencia tan extensas que no podemos pensar en abandonar su organización; pero la aritmética no está basada en la razón, en cambio la doctrina de la razón está basada en la aritmética elemental. Visto así el espíritu del científico debe plegarse a las condiciones del saber, es decir, debe crear en él una estructura correspondiente a la estructura del saber que se corresponda también a las dialécticas del saber. HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 6

Todo lo dicho es un acercamiento al acontecer científico de la contemporaneidad basada en los planteamientos de la formación del espíritu científico de Gaston Bachelard, donde se evidencia que los fundamentos matemáticos como los físicos ocupan un lugar muy importante en el pensamiento de la comunidad científica en general. El espíritu científico solo puede construirse destruyendo al espíritu no científico. A menudo el científico se confía a una pedagogía fraccionada, cuando el espíritu científico deberá plantearse una reforma subjetiva total.

II. LA ENSEÑANZA DE LA CIENCIA Y LOS DESCUBRIMIENTOS CIENTÍFICOS. Muy recientemente (Marzo del 2005) se dieron a conocer los trabajos más importantes del momento según la fundación “Polar”, avalados por el Ministerio de Ciencia y Tecnología, donde destacan Pedro Berrizbetia en el área Matemática y Manuel Bautista en el área Física. Berrizbetia, caraqueño de 45 años, ha trabajado durante los últimos 10 años en la teoría de números y la primalidad, conocimientos que son utilizados por la encriptación para diseñar los sistemas de seguridad de datos. Este científico afirma que la sociedad y el estado han relegado la importancia de la ciencia porque su beneficio no es inmediato ni palpable de un día a otro. Determina que la matemática está presente en todo, pero no quiere decir que se tenga claro cuánto se tenga que invertir en la investigación. Por otra parte, Manuel Bautista, de 36 años, llego a Venezuela de 7 años de edad proveniente de Bogotá, Colombia. El trabajo de Bautista contempla la Física Atómica y espectropía aplicada a la astronomía. El estudio de los espectros permite conocer la composición química, temperatura y dinámica del objeto que se observa. Desarrolló un Software que es usado en la NASA en los telescopios espaciales Chandra y XMM y otros dos, que serán puestos en órbita próximamente. También, el profesor Nelson Falcón participó en la investigación que se llevó a cabo en el observatorio Astronómico Europeo del Norte, concretamente con el observatorio del Teide, en la Isla de Tenerife, en conjunto con las Universidades de Manchester, Cambridge y Stanford, donde se define a esa masa oscura que predomina en el universo, que hasta hace poco se creía que era vacía como “un plasma, un halo tenue, que inunda al universo y las galaxias” según refirió el científico Falcón. El estudio intentó establecer y precisar algunos conceptos en relación con el Big Bang (explosión que, según, originó el Universo, sus miles de millones de galaxias que poseen centenares de miles de soles, como el nuestro). “Lo que hicimos fue estudiar las variaciones de la radiación que dio origen al Universo, que se conoce como radiación cósmica de fondo”, acotó Falcón. Falcón indicó que el estudio de esta radiación permite entender el origen del Universo y admite que esta radiación no es uniforme; pero lo interesante es que según este científico, entre una galaxia y otra, el espacio no está vacío, está lleno de electrones y protones en forma de gas caliente, y los físicos lo llaman a eso un estado de “plasma”. Vemos claramente con estos ejemplos ilustrados en los párrafos anteriores que el espíritu científico está presente en nuestras universidades. Se nota que las diferentes investigaciones realizadas por estos científicos han impactado de una u otra manera a la comunidad científica en general. La ciencia nos permite conocer muchos espacios del conocimiento a través del esfuerzo de cada uno de estos investigadores; sin embargo la ciencia y el conocimiento debe divulgarse y democratizarse, no debe estar encapsulado, ha de satisfacer una parte de la sociedad, sino a toda ella. En estos días se está haciendo una revisión de un manuscrito de 16 páginas que data desde 1924 y describe uno de los grandes hallazgos de Albert Einstein: la transformación de los átomos de un gas por medio de temperaturas muy bajas. Ese fenómeno es conocido en la actualidad bajo en nombre de condensación Bose-Einstein. Este importante artículo manuscrito de Einstein fue hallado en los archivos de la Universidad de Leiden, cerca de La Haya. Esto demuestra que a pesar del gran avance de la tecnología informática, muy pocas personas en el mundo conocen esta información; hay que esperar el próximo evento de la convención anual de ASOVAC (Noviembre de 2005), donde con motivo de la celebración del año Internacional de la Física habrá exposiciones de científicos importantes de esta área de la ciencia. Muchos autores entre ellos Drucker (1995), infieren que los avances científicos se convierten en valor agregado ligado al desarrollo humanístico del hombre en escasos porcentajes, y que estos avances se traducen en beneficio del ciudadano común, por su impacto económico y social. Es allí donde se crean expectativas sobre la finalidad de la ciencia y el conocimiento. Lo que se quiere decir con esto, es que el impacto social de la ciencia y el conocimiento es parte de la realidad que afecta a la humanidad, y esta parte de lo que se conoce como realidad es el que Bachelard no destaca en sus afirmaciones de los fundamentos matemáticos como los físicos que ocupan un lugar muy importante en el pensamiento de la comunidad científica en general y la formación del espíritu científico; pero debe establecerse un dialogo entre el espíritu científico y desarrollo pleno del hombre en todos sus aspectos. Una faceta de la relación dialógica entre el espíritu científico y el desarrollo pleno del hombre es que las industrias que en los últimos 40 años han pasado a ocupar el centro de la economía son aquéllas cuyo negocio es la producción y distribución del conocimiento, y no la producción y la distribución de objetos. El verdadero producto de la industria farmacéutica es el conocimiento; píldoras y pomadas no son otra cosa que el envase del conocimiento. Ahí están las industrias de telecomunicaciones y las que producen herramientas y equipos para procesar información, tales como computadores, semiconductores y software. Ahí están los productores y los distribuidores de información (cine, televisión y cintas de video). Los “no negocios” que producen y aplican conocimientos, es decir la educación y el cuidado de la salud, han crecido en todos los negocios basados en conocimiento (Drucker, 1995). Son estas aseveraciones que evidencian de manera real y práctica la existencia de una economía del conocimiento y su productividad, y donde se relacionan los avances y descubrimientos científicos con el desarrollo social-humanístico-cultural del hombre. De lo anterior, se puede decir que entender cómo se originó el Universo es importante para entender las leyes que lo rigen y nuestro origen en el Universo y como seres humanos, también es importante comprender esa relación entre la ciencia y lo más intimo de las culturas de los hombres, y que esa relación conlleve a crear una civilización mundial que genere soluciones a diferentes problemas ambientales entre otros problemas, como la destrucción de la capa ozono, por ejemplo.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 7

Los venezolanos a pesar de todo no han tomado conciencia del papel que nos toca desempeñar en esta época en cuánto a los avances de la ciencia, y no está en discusión aquí el desarrollo conceptual de la ciencia y el conocimiento en forma destructiva, ni adoptar una contraposición a los grandes beneficios que ha traído al hombre, sino al aspecto que me quiero referir son las actividades científicas promovidas por el Currículo Educativo, ausentes de nuestras aulas de clases en la Educación Básica en su primera y segunda etapa. En el caso de la capa ozono, los alumnos deben reflexionar sobre las consecuencias de este fenómeno y un espacio para la discusión es el aula de clase de nuestras escuelas. Uno de los indicadores generadores de esta ausencia en las actividades escolares venezolanas tiene que ver con el hecho que los conocimientos inherentes a ciencia que se manejan desde los primeros niveles educativos, en muchos casos aparecen fraccionados en la práctica educativa escolarizada, contradiciendo la visión integradora planteada en el Currículo Básico Nacional o bien se encuentran descontextualizados de la realidad. De igual manera y en términos de las limitaciones que tiene la construcción del conocimiento, hoy se está de acuerdo en que ya no es posible pensar que la apropiación del saber por las personas retome los mismos caminos que anduvo el desarrollo de las ciencias. Esto en razón que tanto lo contextual como la problemática que se plantea con los retos económicos y sociales, son muy diferentes a los primeros estadios que sirven de referencia a las construcciones conceptuales sobre las ciencias. Al respecto, notamos en los alumnos que el dominio de los conocimientos que deben poseer según su nivel de formación escolar (Inicial y Básica), no se hacen fácilmente evidente y sus saberes no se manifiestan de modo instantáneo cuando le son requeridas informaciones respecto a ellos; este impedimento al verlo notoriamente nos conduce a pensar que el conocimiento se trata de algo elaborado con lógica, que responde a una necesidad y a los problemas vivenciados por estos. De allí que, la construcción de todos los conceptos, incluso de aquellos que hoy son de lo habitual en la interacción humana del educando, ha planteado a menudo problemas casi insuperables, desde cuyo fondo se alega que se convierten en obstáculos para acceder al conocimiento (Bachelard, 1989). Los verdaderos obstáculos no son los procesos constructivos de las concepciones; los sujetos que aprenden, esencialmente traducen dificultades de conceptualización, que aparecerán en numerosos aspectos: cognitivos, del lenguaje o de la operatividad de los conceptos. Por lo cual, es lamentable que la enseñanza sobre todo en Inicial y Educación Básica se continúe desarrollando descontextualizada, negando el carácter construido de los conceptos de muchas parcelas de la ciencia, Física, Biología, Química (Ciencias Naturales y Tecnología en el CBN) y Matemática. Lo planteado, puede contribuir con las explicaciones necesarias de cómo muchos docentes proporcionan una suma de conocimientos dogmáticos e incoherentes al estar desorganizados, lo que lo convierte en ineficaces. La carencia de experiencia científica vivenciada por los alumnos los distancia de los conceptos formales de los contenidos conceptuales del CBN, con la operatividad de los conceptos como tales, de tal manera que una práctica educativa de esta forma, impide el aprendizaje significativo en los alumnos y la adquisición del conocimiento. Esto no quiere decir que el conocer sea propuesto a los alumnos en el orden y en las condiciones correspondiente a la historia del desarrollo de la ciencia y a los diferentes descubrimientos científicos, sino que se ofrezcan vías para hacer del conocimiento, que estén ligadas a la evolución de las disciplinas, y se oferten desde la base psicológica constructivista, se difunda atendiendo a las características de una sociedad que se mueve en los avances informacionales y del conocimiento en la cual los saberes no surgen de la contemplación de la naturaleza, sino más bien de los procesos del pensamiento en la elaboración de modelos para comprender, interpretar y explicar la realidad.

III. LA ENSEÑANZA DE LA CIENCIA EN LA EDUCACIÓN BÁSICA. Anteriormente se hizo alusión de ciertos elementos que tienen que ver con la enseñanza de la ciencia en la Educación Básica; pero aquí lo desarrollaremos más específicamente, tomando como referente del tema en otras latitudes, a la Educación (enseñanza de las ciencias) en los países de habla hispana. La educación se ha convertido en los últimos años en uno de los ámbitos prioritarios de la cooperación Iberoamericana. Ello se debe tanto a la conciencia sobre el papel que desempeña la educación en el desarrollo de nuestros pueblos como a la percepción cada vez mayor que en la vertebración y consolidación de una Comunidad Iberoamericana de Naciones, la educación ocupa un rol relevante. Demostración de este interés creciente por la cooperación educativa iberoamericana han sido las Declaraciones de Guadalajara (1991) y Madrid (1992) de las conferencias de Jefes de Estado y Gobierno, que conceden una gran importancia a la Dimensión Educativa, que desarrolla y concreta los principales ejes de esta colaboración. Buena parte de que esta cooperación entre los países iberoamericanos es ya un hecho y está dando sus frutos, han sido los numerosos proyectos iniciados durante estos años, aunando los esfuerzos de diversas instituciones. Así el Ministerio de Educación y Ciencia de España (MEC) y la Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI) han unido sus esfuerzos para desarrollar diversos programas de cooperación educativa de una forma coordinada que la haga más rentable y eficaz. El programa IBERCIMA de enseñanza de la ciencia en el nivel medio, es un ejemplo de cómo las instituciones que desarrollan sus propios programas, pueden colaborar para el logro de un objetivo común: hacer posible la cooperación educativa y avanzar hacia la Comunidad Iberoamericana. El objetivo general de este programa es pues, revisar y actualizar los contenidos y metodologías de enseñanza de la ciencia, desarrollando actividades de investigación, formación, elaboración de materiales didácticos y de apoyo docente, de movilización y participación de profesores y estudiantes. Dentro del análisis realizado bajo los lineamientos del programa IBERCIMA, en diversos países latinoamericanos y de habla hispana (entre ellos Venezuela) en la década de los 90, se han detectado que los estudiantes presentan dificultades a la hora de aprender contenidos inherentes a ciencias, específicamente física, química, biología y matemática en todos los niveles educativos. HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 8

Una de las tendencias generales más difundida hoy, consiste en el hincapié en la transmisión de los procesos de pensamiento propios de las ciencias, más bien que en la mera transferencia de contenidos. Las ciencias son, sobre todo, saber hacer, es una actividad disciplinaria donde el método claramente predomina sobre el contenido. Por ello se concede una gran importancia al estudio de las cuestiones, en buena parte colindante con la psicología cognitiva, que se refieren a los procesos mentales en resolución de problema. Hay que recalcar que la ciencia con el devenir del tiempo ha pasado por diferentes etapas de discusión sobre los modelos de explicación de sus fundamentos, desde la imperiosa propuesta del Método Científico de Descartes, hasta el nacimiento de otros paradigmas emergentes como lo expone Miguel Martínez Míguelez (1996). La enseñanza de la ciencia también pasa por una discusión profunda en el mundo académico en los últimos años en Venezuela. Por otra parte, en el marco de la formación de los ciudadanos y en atención a los cambios y transformaciones sociales, un sistema educativo con visión de futuro, utiliza materiales de información vigentes para educar e instruir a las jóvenes generaciones y, en el fondo, incidir sobre el educando para el desarrollo de sus competencias, hábitos, habilidades, capacidades, destrezas y actitudes. De acuerdo al planteamiento referido, se deriva una variedad de factores asociados a los logros de la educación, sus implicaciones y consecuencias, cuestión que amerita la atención de todos los actores involucrados en el proceso educativo. La practica científica en nuestras aulas de clases reflejan una necesidad de cambio de abordaje en cuanto a la metodología y didáctica como herramientas de aprendizaje, las experiencias científicas se han convertido en una réplica constante de las mismas propuestas, trabajos de investigación, proyectos, etc., años tras año sin aportar soluciones a las diferentes problemáticas situacionales del contextos donde interactúan nuestros alumnos. Las clases de ciencias se presentan como un sistema cerrado que impide el desarrollo del pensamiento crítico y reflexivo en los estudiantes de bachillerato, muestra de ello es la poca participación de estos en eventos de corte científico reconocido como las convenciones de ASOVAC, donde es escasa la presencia de verdaderos trabajos científicos escolares producto de la enseñanza de las ciencias (física, química, biología y matemática) del sistema escolar concretamente en la primera etapa y segunda etapa de la Educación Básica.

IV. UNA NUEVA VISIÓN DE LA ENSEÑANZA DE LAS CIENCIAS En la situación de transformación vertiginosa de la civilización en la que nos encontramos, lo verdaderamente eficaz para el desarrollo del pensamiento, y que no se vuelve obsoleto con tanta rapidez, es lo más valioso que podemos proporcionar a nuestros jóvenes. En nuestro mundo científico e intelectual tan rápidamente cambiante vale mucho más hacer acopio de procesos de pensamientos útiles que de contenidos que rápidamente se convierten en lo que Whitehead (1910, Principia Matemática), llamó “Ideas Inertes”, que no son capaces de combinarse con otras para formar soluciones dinámicas, capaces de abordar los problemas presentes en la enseñanza de las ciencias. En continuación a lo anterior, la globalización de las áreas científicas como física, química, biología y matemática en todos los niveles de los sistemas escolarizados de Venezuela debe tener una visión holística, es decir sistemas abiertos de aprendizaje donde la interdisciplina y la transdisciplina como generación de cambio conceptual en nuestros estudiantes estén presentes. De una didáctica consensuada de esta manera se podría generar ciudadanos capacitados para enfrentar los diversos cambios que tanto requiere la enseñanza de las ciencias. Estas aseveraciones nacen de la visión creadora basadas en el pensamiento complejo de Edgar Morín (2003), donde las relaciones de los diferentes conocimientos surgidos entre las disciplinas de las ciencias, producen aprendizajes en nuestras aulas de clases, proporcionándoles a los alumnos las herramientas necesarias para la creación de tecnología de punta que se traduzca en desarrollo social y humano. Por otra parte, se entiende que las ciencias es una parte de la riqueza cultural de la humanidad que debe ser compartida por todos; por eso, los enfoques basados en las teorías constructivistas contenidas en el Currículo Básico Nacional (Ministerio de Educación, 1996), que se desarrolla en la Educación Básica tienen una mayor tendencia a dar más atención al proceso de aprendizaje que a la enseñanza; este enfoque, exige hacer más énfasis en el alumno de manera que se pueda potenciar el desarrollo de sus habilidades y las competencias, facilitándole el acceso al conocimiento científico. Vivimos en una era de revolución tecnológica que dicta en gran medida la manera en que el ser humano interacciona con su medio ambiente socio-cultural, en nuestra época moderna se presenta un desarrollo vertiginoso, como es la informática, con el uso de estas tecnologías se amplía el campo de la enseñanza y aprendizaje de los alumnos, y la enseñanza de la ciencias no escapa de esto, ya que actualmente es considerada como un recurso valioso, novedoso e interesante que ofrece importantes mecanismos, entre estos, la investigación como una vía para estimular en el alumnado competencias para acceder información y desarrollar el conocimiento amplio en las áreas de ciencias. Se propone promover una cultura científica básica para la población, que proporcione a los individuos elementos que los ayuden a comprender los problemas que enfrenta la humanidad, a sopesar las alternativas de solución, a tomar posición frente el tipo de desarrollo que la sociedad en la que viven debe impulsar. La escuela puede tener un papel fundamental en la formación de esta cultura científica básica; sin embargo, diversos estudios muestran la crisis por la que está atravesando la educación científica y la necesidad de una transformación a fondo de esta área. López y Mota (1991) cuestionan las estrategias que hasta el momento se han utilizado para definir los “procesos científicos en los niños” y propone una nueva estrategia basada en la realización de tareas que evoquen procesos científicos; pero que se inspiren en la práctica pedagógica y tomen en cuenta el desarrollo del pensamiento infantil. Una enseñanza de las ciencias dinámica posee y permite alterar radicalmente de una manera positiva la transformación de la metodología de enseñanza tradicional, porque se presenta como estrategia motivadora y elimina las clases catedráticas donde el docente es el que impone las pautas. El proceso de aprendizaje será transformado de uno pasivo a uno activo.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 9

El uso de las experiencias científicas en el aula permite desarrollar la cognición de los alumnos y por ende el aprendizaje que permite concebir una abundancia de riquezas intelectuales que bien canalizadas por el docente podrá ayudar en la planificación e implementación de sus clases, así como buscar y acceder a información para propósitos de investigación. Por medio de la utilización de estos recursos innovadores, los educadores podrán planificar actividades variadas que eventualmente desarrollen en los estudiantes una diversidad de destrezas necesarias para ser exitosos en nuestra sociedad moderna. Entre estas podemos mencionar el desarrollo y la obtención de habilidades en el área de investigación, el pensamiento crítico, comunicación y el manejo de la información. Por lo tanto limitar al estudiantado el conocimiento y manejo de experimentaciones en el área de ciencias significa privar el aprovechamiento y adaptabilidad de estos a la sociedad, lo cual no permitirá que vayan a la par de la evolución de los procesos tecnológicos. La escuela es por excelencia el ente formador del recurso humano y no puede desvincularse del entorno tecnológico- socio-cultural presente, que en definitiva permite la interacción, desarrollo y transformación de la sociedad.

Bibliografía.  Bachelard, G. (1989). “La formación del espíritu científico”. Colombia: Editorial Siglo Veintiuno.  Declaraciones de Guadalajara. (1992). “Conferencias de Jefes de Estado y Gobierno”. México.  Declaraciones de Madrid. (s/f). “Conferencias de Jefes de Estado y Gobierno”. España.  Drucker, P. (1995). “La sociedad postcapitalista”. Bogota, Colombia: Ediciones Norma.  López M., A. (1991). “Evocando habilidades científicas mediante actividades prácticas. Problemas y perspectivas”. México: Grupo Editorial Iberoamérica.  Martínez M., M. (1993). “El paradigma emergente”. Barcelona, España: Ediciones Gedisa.  Ministerio de Educación (1996). “Currículo Básico Nacional”. Caracas: Ediciones del Ministerio de Educación.  M.E.C. (1993). “Ministerio de educación y Ciencia de España”. España.-.369  Morín, E. (2003). “El pensamiento complejo”. Barcelona, España: Ediciones Gedisa.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 10

Aportes al conocimiento Elementos Básicos del Cálculo Diferencial (18)

ÍNDICE.- Sucesiones y Series Aritméticas. Sucesión Aritmética (SA). Término n-simo (enésimo) y término cualquiera de una sucesión aritmética. Ejercicios resueltos. Series aritméticas finitas. Ejercicios resueltos. Ejercicios propuestos. SUCESIONES Y SERIES ARITMÉTICAS.

SUCESIÓN ARITMÉTICA (SA).-

Una sucesión: a1 ,a2 ,a3 ,L,an ,L se llama sucesión o progresión aritmética si existe una constante d, llamada diferencia común , tal − = = + > que an an−1 d ó an an−1 d para cualquier n 1 .

Si d > 0 la sucesión es creciente; si d < 0 es decreciente.

{}= = > Ejemplo: an ,10,7,4,1 L ⇒ d 3 0 (SA creciente).

Aprovechemos este ejemplo para hacer algunas deducciones. Observen que: = a1 1 a = 4 = 1 + 3 ⇒ a = a + d ()se asume que 3 debe ser d 2 2 1

a = 7 = 1 + 6 = 1 + 3 + 3 = 1 + ⋅ 32 ⇒ a = a + 2d 3 3 1 a = 10 = 1 + 3 + 3 + 3 = 1 ⋅+ 33 ⇒ a = a + 3d 4 4 1

Es decir que si queremos obtener a , procedemos de la siguiente manera: a = a + 7d, ya que de la estructura de los términos 8 8 1 anteriores se tiene que: a = a + 8( − )1 ⋅ d. 8 1

TÉRMINO n-SIMO (ENÉSIMO) Y TÉRMINO CUALQUIERA DE UNA SUCESIÓN ARITMÉTICA.-

Por lo tratado en el aparte anterior, es posible establecer un algoritmo que permita determinar cuál es el término general, an , de una SA:

= + − ⋅ > an a1 (n )1 d, con n 1

Expresión que podemos extender para un término cualquiera de una SA de la siguiente manera: > Sean a p y aq términos de una SA tal que q p ; entonces se puede obtener aq a partir de a p , siempre que se conozca a d, mediante la siguiente expresión:

= + − ⋅ aq a p (q p) d

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 11

Ejercicios resueltos.- 1.- Si el primero y el décimo términos de una SA son respectivamente 3 y 30, encontrar el quincuagésimo término de ella. Solución : Datos: = + − ⋅ Fórmula a utilizar: an a1 (n )1 d a = 3 1 Dato faltante: d a = 30 10 Calculando d: = En consecuencia: = a50 ? ⇒ n 50 Adaptando la fórmula

a = a + (q − ) ⋅ dp ⇒ a = a + 9d q p 10 1 Despejando y obteniendo el valor de d: a − a 30 − 3 27 d = 10 1 = = = 3 ⇒ d = 3 9 9 9 Calculando a50 : = + − ⋅ an a1 (n )1 d

a = 1 + 50( − ⋅ 3)1 = 1 + 49 ⋅ 3 = 150 ⇒ a = 150 50 50

2.- Si el tercero y el décimo tercer términos de una progresión aritmética son -5 y 23 respectivamente, encontrar el septuagésimo sexto término de esta progresión: Solución :

Datos: Fórmula a utilizar: = + − ⋅ aq a p (q ) dp a = −5 3 En consecuencia: a = 23 13 a = a = −5 q 3 = En consecuencia: = = a76 ? n 76 ap a76

Dato faltante: d

Calculando d:

Adaptando la fórmula a = a + (q − ) ⋅ dp ⇒ a = a + 10 d q p 13 3 Despejando y obteniendo el valor de d: a − a 23 + 5 28 14 14 d = 13 3 = = = ⇒ d = 10 10 10 5 5 Calculando a76 :

= + − ⋅ aq ap (q ) dp

14 14 1022 997 997 a = a + 76( )3 ⋅− +−= 735 ⋅ 5 +−= = ⇒ a = 76 3 5 5 5 5 76 5

3.- ¿Cuántos múltiplos de 8 hay entre 15 y 139? Solución : • Necesitamos establecer una SA en la que el primero y último términos sean múltiplos de ocho ( 8 : múltiplo de 8). Pero evidentemente que  • • 15 y 139 no lo son 15 ≠ 8 ∧ 139 ≠ 8 .   • = = Ahora bien, el siguiente de 15 sí lo es: 16 8 ; por lo tanto a1 16 .

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 12

¿Cuál es an ? Es el múltiplo de ocho anterior a 139. Existen varias formas para calcularlo pero una de las más prácticas es dividir 139 entre 8 y el cociente multiplicarlo por 8; el resultado es el múltiplo de ocho buscado: 139 3 • = 17 + ⇒ 17 8 =⋅ 136 = 8 8 8 De esta manera se obtiene el último término: = . an 136 Este procedimiento se puede aplicar a cualquier problema similar. Sigamos.

Está claro ahora que el número de múltiplos de 8 entre 15 y 139 es el número de términos que conforman la SA con = y = , a1 16 an 136 siendo la diferencia común = : { }= . d 8 an L 136,,32,24,16 = + − ⋅ Fórmula a utilizar: an a1 (n )1 d Despejando y calculando n : a − a 136 −16 120 128 n = n 1 +1= +1= +1= =16 ⇒ n =16 d 8 8 8 ⇒ Hay 16 múltiplos de 8 entre 15 y 139.

Nota: Si al calcular n resulta un número no entero, este valor se aproxima al entero inmediato que según el caso, será el superior o el inferior. Además, si este resultado es negativo, hay que revisar el procedimiento porque debe haber un error.

4.- Un cuerpo en Caída Libre recorre aproximadamente 4,9 m en el primer segundo; 14,7 m en el segundo; 24,5 m en el tercer segundo y así sucesivamente. ¿Cuántos metros cae aproximadamente en el segundo 15? Solución :

Datos: Calculando a : = 15 a1 9,4 = Fórmula a utilizar: a = a + (n − )1 ⋅ d a2 7,14 n 1 a = 5,24 3 a = 9,4 + 15( − )1 ⋅ 8,9 = 9,4 +137 2, = 142 1, = 15 a15 ? Recorre aproximadamente 142,1 metros en el segundo 15. La sucesión es una SA porque: − = − = = a3 a2 a2 a1 8,9 d

5.- Comprobar que (x 2 + xy + y 2 ), (z 2 + xz + x 2 )∧ (y 2 + yz + z 2 ) son términos consecutivos de una sucesión aritmética cuando ∧ lo son. x, y z Comprobación : Según el enunciado: = 2 + + 2 x = x a1 x xy y = + = 2 + + 2 y x d a2 z xz x z = x + 2d = 2 + + 2 a3 y yz z De aquí que: = 2 + + + + 2 = 2 + + 2 a1 x (xx d () x d) 3x 3dx d = + 2 + + + 2 = 2 + + 2 a2 (x d)2 (xx d)2 x 3x 6dx 4d = + 2 + + + + + 2 = 2 + + 2 a3 (x d) (x d)( x d ()2 x d)2 3x 9dx 7d − = − Si a2 a1 a3 a2 , entonces están en sucesión aritmética siendo este resultado el valor de d: a − a = (3x 2 + 6dx + 4d 2 )− (3x 2 + 3dx + d 2 )= 3dx + 3d 2 2 1 − = ()()2 + + 2 − 2 + + 2 = + 2 a3 a2 3x 9dx 7d 3x 6dx 4d 3dx 3d Se comprueba, entonces, que (x 2 + xy + y 2 ), (z 2 + xz + x 2 )∧ (y 2 + yz + z 2 ) están en sucesión aritmética, siendo su diferencia aritmética, la cual llamaremos d ′ , igual a 3dx + 3d 2 : d ′ = 3dx + 3d 2 .

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 13

{ }= ∧ { }= 6.- Sean las sucesiones aritméticas siguientes: an ,12,7,2 L bn ,8,5,2 L . Tome 121 términos de cada una de ellas y determine cuántos términos comunes hay. Solución : Se escriben ambas sucesiones mostrando un número significativo de términos, de tal manera que puedan observarse los primeros términos comunes:

{ }= (SA con = ∧ = ) an ,47,42,37,32,27,22,17,12,7,2 L a1 2 d 5 { }= = ∧ = bn 35,32,29,26,23,20,17,14,11,8,5,2 L (SA con a1 2 d 3) Chequeando los términos comunes, podemos formar con ellos una tercera sucesión: { }= = ∧ = Cn ,32,17,2 L (SA con a1 2 d 15 )

Ahora se determinan a121 y b121 , que vienen a ser los últimos términos que tomaremos de las sucesiones iniciales: = + − ⋅ = = ∧ = + − ⋅ = = a121 2 121( 5)1 602 ⇒ a121 602 b121 2 121( 3)1 362 ⇒ b121 362 < { } Como b121 a121 , cabe preguntarse si b121 pertenece a a n . Si es así, b121 debe cumplir con la característica de todo término que { } ∀ ∈{ } = + − ⋅ { } pertenece a an : am an ⇒ am 2 (m 5)1 , donde m, en este caso, nos dará el lugar que ocupa b121 en an .

Calculando el valor de m: 362 = 2 + (m − ⋅ 5)1 ⇒ 362 = 2 + 5m − 5 ⇒ m = 73

= { } { } = = Esto significa que b121 a73 , y es el último término común entre a n y bn , es decir que b121 a73 cn . = = = ( ) { } Ahora conociendo que c1 ,2 cn 362 y d 15 , se puede calcular cuántos términos n hay en cn : − c c 362 − 2 c = c + (n − )1 ⋅ d ⇒ n = n 1 + 1 = + 1 = 25 ⇒ n = 25 n 1 d 15 { } { } Por lo tanto, entre an y bn hay 25 términos comunes.

7.- Consideren el siguiente sistema de ecuaciones: ax + by = c  dx + ey = f Comprobar que estando a, b, c, d, e, f en progresión aritmética con diferencia común N no nula, el sistema tiene solución única.

Comprobando : El sistema tiene solución única cuando x ∧ y tienen cada una un valor único, finito y determinado.

Si a, b, c, d, e, f están en progresión aritmética, entonces:

= = + = + = + = + = + a a1 b a1 N c a1 2N d a1 3N e a1 4N f a1 5N

Por lo que el sistema lo podemos escribir así:

ax + by = c  xa + (a + )yN = a + 2N  ⇒  1 1 1 dx + ey = f (a + )3 xN + (a + )4 yN = a + 5N   1 1 1

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 14

Calculando y: (a + N )3 ⋅ xa + (a + ) yN = a + 2N a (a + )3 xN + (a + N )(3 a + ) yN = (a + N )(3 a + 2N ) 1 1 1 1 ⇒ 11 1 1 1 1 − ⋅  + + + = +  − + − + −= + ( a1 ) (a1 )3 xN (a1 4 ) yN a1 5N  a (a11 )3 xN a (a11 4 ) yN a (a11 N )5 + + − + = + + − + (a1 N )(3 a1 ) yN a (a11 )4 yN (a1 N )(3 a1 N )2 a (a11 N )5

2 + + 2 − 2 + = 2 + + 2 − 2 + ⇒ (a1 4 1 Na 3N ) y (a1 4 1 ) yNa (a1 5 1 Na 6N () a1 5 1 Na ) 2 + + 2 − 2 − = 2 + + 2 − 2 − (a1 4 1 Na 3N a1 4 1 ) yNa a1 5 1 Na 6N a1 5 1 Na 3N 2 y = 6N 2 6N 2 y = = 2 ⇒ y = 2 3N 2 Calculando x:

(a + N)4 ⋅  xa + (a + )yN = a + 2N  (aa + )4 xN + (a + N)(4 a + )yN = (a + N)(4 a + N)2 1 1 1 1 ⇒ 11 1 1 1 1 − + ⋅ + + + = + − + + − + + −= + + (a1 N) (a1 )3 xN (a1 )4 yN a1 5N  (a1 N)( a1 )3 xN (a1 N)( a1 )4 yN (a1 N)( a1 N)5 + − + + = + + − + + (a1 )4 1xaN (a1 N)( a1 )3 xN (a1 N)(4 a1 N ()2 a1 N)( a1 N)5

2 + − 2 + + 2 = 2 + + 2 − 2 + + 2 ⇒ (a1 4 1 )xNa (a1 4 1Na 3N )x (a1 6 1Na 8N () a1 6 1Na 5N ) 2 + − 2 − − 2 = 2 + + 2 − 2 − − 2 (a1 4 1Na a1 4 1Na 3N )x a1 6 1Na 8N a1 6 1Na 5N − 3 2 xN = 3N 2 3N 2 x −= −= 1 ⇒ x −= 1 3N 2 El sistema tiene solución única. x −= 1   y = 2

SERIES ARITMÉTICAS FINITAS.- { } Si an es una sucesión o progresión aritmética, entonces Sn es una serie aritmética. { }= Consideremos que la sucesión an a1 , a2 , a3 ,L, an−2 ,an−1 ,an es una SA. Entonces la podemos escribir de la siguiente manera:

{ }= + + + − + − + − an a1 , a1 d, a1 d,2 L , a1 (n d,)3 a1 (n d,)2 a1 (n )1 d

Procedamos ahora a formar la serie de dos formas diferentes, la primera comenzando por el primer término y la segunda por el último:

= + + + + + + [ + − ]+ [ + − ]+ [ + − ] A : S n a1 ( a1 d () a1 d)2 L a1 (n )3 d a1 (n )2 d a1 (n )1 d

= [][][]+ − + + − + + − + + + + + + B : S n a1 (n )1 d a1 (n )2 d a1 (n )3 d L (a1 d ()2 a1 d ) a1

Si sumamos A y B, nos queda:

A + B 2: S = [2a + (n − )1 d]+ [2a + (n − )1 d ]+ [2a + (n − )1 d]+L+ [2a + (n − )1 d ]+ [2a + (n − )1 d] n 141 44444441 44444441 44 24444441 444444414444 3 n sumandos iguales

De lo que resulta: = ⋅ [ + − ] 2S n n 2a1 (n )1 d

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 15

Despejando a Sn :

n S = ⋅[]2a + (n − )1 d C)( n 2 1 = + − ⋅ Pero como an a1 (n )1 d , entonces: n S = ⋅[]a + a + (n − )1 d n 2 1 1 Por lo tanto: n S = ⋅(a + a ) D)( n 2 1 n

C)( y D )( corresponden a fórmulas para calcular la suma de los n primeros términos de una SA.

Ejercicios resueltos.- 1.- Encontrar la suma de los primeros cincuenta y dos términos de una sucesión aritmética si el primer término es 23 y d =-2. Solución : Datos: Fórmula a utilizar: = n ⋅[]+ − S n 2a1 (n )1 d 2 n = 52 Calculando Sn : a = 23 1 d = −2 = n ⋅[]+ − = S = ? S n 2a1 (n )1 d n 2 52 = []⋅⋅ 232 + 52( − −⋅ )2()1 = 2 = 26 ⋅[]46 + 51 −⋅ )2( = −= 1456

−= ⇒ S n 1456

La suma es igual a -1456.

2.- Encontrar la suma de los primeros 26 términos de una SA si el primer término es -7 y la diferencia común es igual 3. Solución : Datos: Fórmula a utilizar: = n ⋅[]+ − S n 2a1 (n )1 d 2

n = 26 Calculando Sn : n a = −7 = ⋅[]+ − = 1 S n 2a1 (n )1 d 2 d = 3 = 26 []−⋅⋅ + − ⋅ = = 26()7(2 3)1 S n ? 2

= 13 []−⋅ 14 + 25 ⋅3 = = 793 = ⇒ S n 793

La suma es igual a 793.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 16

3.- Encontrar la suma de los números impares entre 51 y 99 inclusive. Solución : Datos: Fórmula a utilizar: = n ⋅()+ S n a1 a n Sucesión: 51, 53, 55,…, 99 (SA con d=2) 2 Dato faltante: n = a1 51 = Calculando a n : an 99 Fórmula a utilizar: = + − ⋅ = an a1 (n )1 d S n ? Despejando y calculando n : a − a 99 −51 48 50 n = n 1 +1 = +1 = +1 = = 25 ⇒ n = 25 d 2 2 2

Calculando Sn : n 25 25 ⋅150 S = ⋅()a + a = ⋅()51 + 99 = = 1875 ⇒ S = 1875 n 2 1 n 2 2 n La suma de los impares entre 51 y 99 es 1875.

4.- Encontrar la suma de los números pares entre -22 y 52 inclusive. Solución : Datos: Fórmula a utilizar: = n ⋅()+ S n a1 an 2 Dato faltante: n Sucesión: -22, -20, -18,…, 52 (SA con d=2) Calculando a n : a = −22 1 Fórmula a utilizar: = + − ⋅ an a1 (n )1 d a = 52 n Despejando y calculando n : = Sn ? a − a 52 + 22 74 76 n = n 1 +1 = +1 = +1 = = 38 ⇒ n = 38 d 2 2 2

Calculando Sn : n 38 38 ⋅30 S = ⋅()a + a = ()−⋅ 22 + 52 = = 570 ⇒ S = 570 n 2 1 n 2 2 n La suma de los pares entre -22 y 52 es 570.

5.- Determina la suma de los primeros cincuenta múltiplos de 3. Solución : Fórmula a utilizar: = n ⋅()+ S n a1 an Datos: 2 • Dato faltante: a Sucesión: 3 = ,15,12,9,6,3,0 L (SA con d=3) n = a1 0 Calculando a a : n n = 50 Fórmula a utilizar: = + (n − )1 ⋅ d = an a1 Sn ? = + − =⋅ = an 0 50( 3)1 147 ⇒ an 147

Calculando Sn : n 50 50 ⋅147 S = ⋅()a + a = ⋅()0 +147 = = 3675 ⇒ S = 3675 n 2 1 n 2 2 n

La suma de los primeros cincuenta múltiplos de 3 es 3675.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 17

6.- Determina la suma de los primeros doscientos números naturales que terminan en 7. Solución : Datos: Fórmula a utilizar: = n ⋅()+ S n a1 a n Sucesión: ,57,47,37,27,17,7 L (SA con d=10) 2 Dato faltante: = a a1 7 n

n = 200 Calculando a a : = n Sn ? Fórmula a utilizar: = + − ⋅ an a1 (n )1 d

= + ⋅− = + = = an 200(7 10)1 99017 9971 ⇒ an 9971

Calculando Sn : n 200 S = ⋅ ()a + a = ⋅ ()+ 99717 = 100 ⋅ 0042 = 200 400 ⇒ S = 200 400 n 2 1 n 2 n La suma de los primeros doscientos números que terminan en 7 es 200400.

7.- ¿Cuántos números de la progresión aritmética 9, 12, 15,… deben sumarse para obtener 306? Solución : Datos: Fórmula a utilizar: = n ⋅()+ S n a1 an Sucesión: 9, 12, 15,… (SA con d=3) 2 = Dato faltante: a a1 9 n

S = 306 n Calculando a a : n = ? n Fórmulas a utilizar: = + − ⋅ y n an a1 (n )1 d S = ⋅()a + a n 2 1 n n n n S = ⋅()a + a = ⋅[]a + a + (n − )1 d = ⋅[]2a + (n − )1 d n 2 1 n 2 1 1 2 1 n ⇒ 306 = ⋅[]18 + (n − ⋅3)1 2 2 612 = 15 n + 3n 3n 2 +15 n − 612 = 0 → Ecuación de º2 grado n 2 + 5n − 204 = 0 → Simplifica ndo por 3 ()()n +17 ⋅ n −12 = 0 → Factorizan do n −= 17 ⇒ se rechaza porque n ∉ N raíces : 1 1 ⇒ n = 12  = n2 12 ⇒ se acepta ∴ Se deben sumar los 12 primeros números.

8.- Calcular la serie de los números pares entre 1 y 1000000. Solución : Datos: Fórmula a utilizar: = n ⋅()+ S n a1 an Como 1 y 1000000 no están incluidos, 2 entonces: Dato faltante: n a = 2 1 Calculando a n : = an 999 998 Fórmula a utilizar: = + − ⋅ an a1 (n )1 d = d 2 Despejando y obteniendo el valor de n : = Sn ? a − a 999 998 − 2 n = n 1 +1 = +1 = 499 999 ⇒ n = 499 999 d 2

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 18

Calculando Sn : n 499 998 499 998 ⋅ 0001 000 S = ⋅ ()a + a = ⋅ ()2 + 999 998 = = 24 999 950 000 ⇒ S = 24 999 950 000 n 2 1 n 2 2 n La suma de los números pares entre 1 y 1000000 es igual a 24999950000.

9.- Comprobar que la suma de los primeros números pares mayores que 0 es igual a n(n+1) . Comprobación : Datos: Fórmula a utilizar: = n ⋅()+ S n a1 an Sucesión: ,10,8,6,4,2 L (SA con d=2) 2 Dato faltante: a a = 2 n 1 = + = Sn (nn )1 ? Calculando a a : n Fórmula a utilizar: = + − ⋅ an a1 (n )1 d

= + =⋅− + − = = an (2 n 2)1 22 n 2 2n ⇒ an 2n

Calculando Sn : n n n S = ⋅ ()a + a = ⋅()2 + 2n = ⋅⋅ (2 n + )1 = (nn + )1 ⇒ S = (nn + )1 n 2 1 n 2 2 n = + + + + + + = + Luego: S n 2 4 6 8 10 L 2n (nn )1 (Queda comprobado).

10.- Comprobar que la suma de los primeros números impares mayores que 0 es igual a n2. Comprobación : Datos: Fórmula a utilizar: = n ⋅()+ S n a1 an Sucesión: ,9,7,5,3,1 L (SA con d=2) 2 Dato faltante: a a = 1 n 1 = 2 = Sn n ? Calculando a a : n Fórmula a utilizar: = + − ⋅ an a1 (n )1 d

= + +=⋅− − = − = − an (1 n 2)1 21 n 2 2n 1 ⇒ an 2n 1

Calculando Sn : n n n S = ⋅()a + a = ()+⋅ 21 n −1 = ⋅ 2n = n2 ⇒ S = n2 n 2 1 n 2 2 n = + + + + + + − = 2 Luego: S n 1 3 5 7 9 L 2( n )1 n (Queda comprobado).

11.- Un profesional venezolano recibió en el 2013 dos ofertas de trabajo en España. En la primera se le ofreció una remuneración inicial anual por la cantidad de €250000,00 y se le garantizó un aumento de €1200,00 cada año. En la segunda, una remuneración inicial anual por la cantidad de €280000,00 con un aumento de €800 cada año. Si ambas ofertas cubren un periodo de 15 años, ¿cuál oferta le ofrecía mejores beneficios económicos? Solución : Un posible criterio a considerar es que seleccione la oferta que le permitirá percibir mayor remuneración en los 15 años. = = = La primera oferta conforma una SA con a1 250000 , d 1200 y n 15 . se puede calcular así: = + − ⋅ = + − ⋅ = = . Este valor representa el an an a1 (n )1 d 250000 15( )1 1200 266800 ⇒ an 266800 último sueldo anual después de 15 años.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 19

El total a recibir con esta primera oferta lo obtenemos calculando la suma: n 15 S = ⋅()a + a = ⋅()250000 + 266800 = 3876000 n 2 1 n 2 Es decir que con la primera oferta, al final de los 15 años, recibirá €3876000.

Veamos la segunda oferta. Conforma una SA con = = = . a1 280000 , d 800 y n 15 Calculando : = + − ⋅ = + − ⋅ = = an an a1 (n )1 d 280000 15( )1 800 291200 ⇒ an 291200 n 15 El total a recibir con esta segunda oferta es: S = ⋅()a + a = ⋅()280000 + 291200 = 4284000 n 2 1 n 2 Es decir que con la segunda oferta, al final de los 15 años, recibirá €4284000. Si la persona se ajusta al criterio señalado, seleccionará la segunda oferta.

12.- Un objeto cae al vacío partiendo del reposo y cerca de la superficie de la Tierra. Recorre 16 metros en el primer segundo, 48 en el segundo, 80 en el tercero, etc. a) ¿Qué distancia recorre en el undécimo segundo?, b) ¿qué distancia recorre en los primeros once segundos?, c) ¿qué distancia recorrerá el objeto en t segundos? Solución : Debemos formar una sucesión con las distancias recorridas:

{ }= (SA con = ∧ = ) an ,80,48,16 L a1 16 d 32 a) ¿Qué distancia recorre en el undécimo segundo?

Se pide calcular a11 : = + ( − )⋅ = a11 16 11 1 32 336 ⇒ Recorre 336 metros en el segundo 11. b) ¿Qué distancia recorre en los primeros once segundos? Se pide calcular la suma de los primeros once términos: n 11 S = ⋅()a + a = ⋅()16 + 36 =1936 ⇒ Recorre 1936 metros los primeros once segundos. 11 2 1 n 2 c) ¿Qué distancia recorrerá el objeto en t segundos? Se pide calcular la suma de los primeros t términos: t t t t S = ⋅()a + a = ⋅()16 + a = ⋅[]16 +16 + (t − ⋅32)1 = ⋅()32 + 32 t − 32 = 16 t 2 t 2 1 t 2 t 2 2

2 ⇒ Recorre 16 t metros en t segundos.

Ejercicios propuestos.-

I.- Determinar cuáles de las siguientes sucesiones son aritméticas. Encontrar d y agregar dos términos a aquellas que si lo sean:

,8,4,2)1 L ,6,5,6,7)2 L

)3 − − ,16,11 − ,21 L 1 2 3 2 3 4 ,,,)4 L − − ,7,1,5)5 L 4 ,,4,12)6 L 3 1 1 1 2 6 18 ,,,)7 L ,80,48,16)8 L HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 20

II.- Sean a1,a2 ,a3, L,an ,L los términos de una sucesión aritmética. En los siguientes ejercicios propuestos, encontrar las cantidades que se indican:

= − = = = = )1 a1 ,5 d ;4 a2 ?, a3 ?, a4 ? −= = = = = )2 a1 ,18 d ;3 a2 ?, a3 ?, a4 ? −= = = = )3 a1 ,3 d ;5 a15 ?, S11 ? = = = = )4 a1 ,3 d ;4 a22 ?, S21 ? = = = )5 a1 ,1 a2 ;5 S 21 ? = = = )6 a1 ,5 a2 ;11 S11 ? = = = )7 a1 ,7 a2 ;5 S15 ? −= −= = )8 a1 ,3 d ;4 a10 ? = = = = )9 a1 ,3 a20 117 ; d ?, a101 ? = = = = )10 a1 ,7 a8 ;28 d ?, a25 ? = − = = )11 a1 ,12 a40 ;22 S40 ? = −= = )12 a1 ,24 a24 ;28 S 24 ? )13 a = 1 , a = 1 ; a = ?, S = ? 1 3 2 2 11 11 = 1 = 1 = = )14 a1 6 , a2 4 ; a19 ?, S19 ? = = = )15 a3 ,13 a10 ;55 a1 ? −= = = )16 a9 ,12 a13 ;3 a1 ?

III.- Escribir los términos que faltan de las siguientes sucesiones aritméticas: { }= )1 an ,27,20 a3 ,48,41, a6 .69,62, {}= 1 − 1 − 3 − 7 − 9 )2 an 4 , 4 , 4 ,a4 , 4 , 4 . {}= − + + )3 an x 2m, a2 , x 4m, x 7m.

IV.- En una progresión aritmética, el cuarto y el décimo término son 12 y 42, respectivamente. ¿Cuánto vale d? Escriba la progresión hasta el décimo término.

V.- En una sucesión aritmética, a 2 + a 8 =52 y a 10 - a4 =24. Escribir la sucesión hasta el término diez.

VI.- Completa las siguientes igualdades:

51 = + = )1 S 21 ∑ 3( k )3 ? k =1 40 = − = )2 S 40 ∑ 2( k )3 ? k =1

VII.- Responde a las siguientes preguntas: ¿Cuántos múltiplos de 17 hay entre 15 y 2000? ¿Cuántos son los múltiplos de 16 de cuatro cifras? ¿Cuántos múltiplos de 5 hay entre 23 y 301? ¿Cuántos múltiplos de 7 hay entre 10 y 500? ¿Cuántos son los múltiplos de 5 de tres cifras? ¿Cuánto suman los múltiplos de 7 de 24 a 140?

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 21

VIII.- Encontrar:

+ + + + = − )1 g )1( g )2( g )3( L g ),51( tgsi )( 5 7t )2 f )1( + f )2( + f )3( +L+ f ),20( xfsi )( = 2x − 5

IX.- Encontrar la suma de todos los números enteros:

1. Pares entre 21 y 135. 2. Impares entre 100 y 500.

X.- Comprobar utilizando las fórmulas referentes a series que la suma de los primeros n números naturales:

1. Impares es n2. 2. Pares es n + n2.

XI.- Para una sucesión aritmética en la que a 1 = -3 y an = an-1 + 3 con n>1, encontrar an en términos de n.

n = XII.- Para la sucesión del problema anterior, encontrar Sn ∑ak en términos de n. k =1

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 22 HISTORIA DE LA QUÍMICA (Parte III):

La Química del siglo XX. La Química y el Medio Ambiente Por: Rolando Delgado Castillo

FUENTE:

Fertilizantes y plaguicidas. Teoría Gaya La prod ucción de alimentos para una población mundial creciente, problema que se planteaba desde inicios del siglo, demandaba una re volución en los rendimientos agrícolas. Fertilizar adecuadamente las tierras era una exigencia y la reserva natural existente de sa les nitrogenadas no permitía dar respuesta a esta necesidad. Así las cosas, la fijación del nitrógeno atmosféric o mediante una adecuada transformación química se erigía como un problema de muy difícil realización. La síntesis del amoníaco, precursor de los fertilizantes nitrogenados, mediante la reacción entre el dinitrógeno y el dihidrógeno chocaba con dificultades prácticas. El tristemente célebre químico alemán Fritz Haber, iniciador de la guerra química, encontró en la primavera de 1909 las condiciones , en pequeña escala, para obtener poco más de una gota del amoniaco por minuto. Estos resultados experimentales fueron expuestos ante los dirigentes de la Badische Anilin und Soda Fabriken (BASF) la mayor empresa de productos químicos de la época. Los dire ctivos de la BASF comprendieron la significación que tendría la solución del problema del escalado, y confiaron esta tarea a dos expertos Carl Bosch (1874 – 1940) y Alwin Mittasch (1860 – 1953). Las perspectivas que alentaban el proyecto cubrían un doble propósito: la producción de abonos y de explosivos nitrogenados. A lo largo de cuatro años la labor de investigación del equipo encabezado por Bosch y Mittasch abarcó miles de ensayos sintét icos, y miles de catalizadores serían probados. Como resultado, le vantarían una industria que producía unas mil veces la producción inicial de Haber, es decir unas cuatro toneladas de amoniaco diariamente. Hoy se produce más de cien mil veces esta cantidad de amoniaco pero el catalizador propuesto por Mittasch no ha podi do ser superado en eficiencia y costo. Bosch, pocos años después se convertiría en el director de la BASF, luego del complejo químico industrial IG Farbenindustrie y su influencia creció hasta sustituir en 1935 nada menos que al entonces veterano, de conducta intachable frente al emergente nazi fascismo, Max Planck (1858 – 1947), al frente del Instituto Kaiser Guillermo de Berlín.

Por el desarrollo de una tecnología de alta presión totalmente nueva en la época, Carl Bosch recibiría el premio Nobel de Quí mica en 1931, pero tres hechos ensombrecieron esta distinción: Mittasch, su colega, fue injustamente olvidado; una década antes, el 21 de setiembre de 1921, una horrible explosión de una fábrica de amoníaco en Oppau del Rhin causó 561 muertos y dejó a 7000 personas sin hogar; gracias a esta tecnología la Alemania de la Primera Guerra Mundial dispuso de la materia prima para la obtención de los explosivos nitrogenados. [1]

Fuente Imagen: © The Nobel Foundation

La paradoja del empleo de los fertilizantes ni trogenados viene dada por el impacto negativo que ha tenido su uso sobre el ambiente. Los nitratos de los suelos fertilizados vienen a drenar hacia ríos, lagos y estuarios, promoviendo así el flagelo de la eutroficación que sig nifica la generación de "zona s muertas" provocadas por crecimiento explosivo de las algas que sofocan otras especies al reducir el oxígeno disuelto en las aguas por debajo de los niveles requeridos para la mayoría de las especies vivientes en los entornos acuáticos. Un problema en el orden del día de las necesidades alimentarias del mundo lo era – y lo sigue siendo aún hoy- encontrar aquellas sustancias insecticidas que combatieran las plagas causantes de enormes pérdidas al arrasar cosechas enteras de las principales fuentes energéticas nutritivas de la población. En esta realidad se inserta la polémica página de la síntesis y aplicación de uno de los más potentes insecticidas fabricados por el hombre: el DDT. Existen los testimonios de que el dicoloro-difenil-tricloroetano fue sin tetizado por primera vez en 1873, por un joven estuestuddianteiante austríaco, Othmar Zeidler, pero el producto carece de interés hasta que el químico industrial suizo Paul Hermann Müller (1899 – 1965) descubre en 1936 la fuerte acción insecticida por contacto que exhibe y luego de cuatro años de intensa labor obtiene la patente industrial en 1940. Dos productos el Gesarol y el Niocide fueron comercializados a ambos lados del Atlántico al probar su eficaz acción en el combate del tifus, la malaria y en la agricult ura. Müller recibe por este trabajo el premio Nobel de Fisiología o Medicina en 1948. Décadas después se exigía el cese de su aplicación por el impacto global que había provocad o en diferentes ecosistemas al reducir dramáticamente la población de insectos que se insertan en la cadena alimentaria de diferentes especies. [2] Un segundo hecho que había estremecido la conciencia internacional en los años ochenta fue la catástrofe ocurrida en la plant a de plaguicidas químicos de la Union Carbide en la ciudad in dia de Bhopal. Durante los tres días que sucedieron a la noche del escape de 40 toneladas de gases letales se estima que murieron unas ocho mil personas. Unos 150 mil sobrevivientes de la tragedia padecen diferentes enfermedades crónicas resultan tes de las lesiones por las sustancias tóxicas. Después de cinco años de litigio legal, el gobierno indio aceptó un acuerdo extrajudicial por 470 millone s de dólares que exoneraba a la transnacional de toda responsabilidad civil. Ello significó una indemnizació n media entre 370 y 533 dólares por persona afectada, escasamente el dinero estimado para cubrir los gastos médicos de cinco años. Muchos de los lesionados y aún sus hijos estarán enfermos toda la vida . Después del accidente de Bhopal se endurecieron las n ormativas de seguridad química y medioambiental de muchos países. Pero el precio fue muy alto y las víctimas fueron puestas por un país del Tercer Mundo. A fines del pasado siglo, pasados más de 15 años, militantes del movimiento Green Peace reclamaban a la Dow Chemical que garantizara: la limpieza del antiguo emplazamiento de la fábrica, como ocurriría si ésta hubiese estado en los Estados Unidos , la rehabilitación médica para los supervivientes del escape de los gases letales, y el agua potable a las c omunidades que se ven obligadas a consumir agua subterránea contaminada. De cualquier forma, al cerrar el siglo los insecticidas aplicados en los campos son mayoritariamente (por encima del 95%) pro ductos químicos. Algo más de 10 millones de toneladas de estas sustancias son administradas a un costo superior a los mil millones de dólares. No obstante, el futuro de la lucha contra los insectos parece marcado por los desarrollos que se iniciaron en el siglo pasado de los bioinsecticidas. Se ha encontrado que determinados microorganismos producen ciertas proteínas conocidas como endotoxinas que exhiben un potente efecto insecticida. El colofón de estas investigaciones y su introducción e n la práctica agrícola se relacionan con el aislamiento y la caracteri zación del primer gen que determina una proteína in secticida. A partir de este momento se iniciaba la era de obtención de pla ntas transgénicas resistentes a insectos que marca en 1996 la entrada en el mercado de las primeras variedades transgénicas de alg odón, patata y maíz, resistentes a insectos. [3] HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 23

En 1987 la microbióloga estadounidense de origen ruso Helen Ryaboff-Whiteley de la Universidad de Washington logró por vez primera la clonación del gen para la síntesis de una proteína insecticida específica que existe naturalmente en la bacteria del suelo, Bacillus thurigiensis (Bt). Este resultado sirvió de rampa de lanzamiento para el desarrollo comercial del Bt como agente de control biológico que es ahora usado extensivamente contra una amplia variedad de insectos. Cuba, país tropical cuyas cosechas sufren importantes pérdidas por el ataque de insectos, ha incluido en su programa nacional de investigaciones en el campo de la Biotecnología las aplicaciones de las técnicas más fiables y seguras para la producción de biopreparados plaguicidas. Colectivos de diferentes instituciones científicas del país rectoradas por el Centro de Ingeniería Genética y Biotecnología obtienen importantes logros que exponen en diferentes eventos internacionales auspiciados por la Organización Internacional de Control Biológico. [3b]

A pesar del incuestionable valor social que presentan la síntesis industrial de fertilizantes nitrogenados y la producción de insecticidas, la evaluación del impacto que ha venido provocando su empleo irracional, promueve a partir de los años ochenta una corriente de pensamiento relacionada con las nociones de biocompatibilidad, fuentes renovables de recursos, y el desarrollo de una conciencia que reconoce la necesidad apremiante de una actuación más racional de convivencia con el entorno. En 1969, el investigador británico James Lovelock (1919 - ) formuló una hipótesis subversiva: nuestro planeta actúa como una especie de supe organismo que a través de una red de complejas interacciones entre sus sistemas vivos mantienen las condiciones ideales para la vida. La primera reacción del mundo científico fue admitir con reservas estos postulados que parecían saturados de especulaciones. En cierta forma fueron vistos como el reverso del legado darwinista según el cual la historia de la vida demostraba su necesaria adecuación a las condiciones del entorno físico - químico. Lovelock se encargó de demostrar, al menos con algunos ejemplos relevantes, que la propia biósfera se ocupa de engendrar, reproducir y regular sus propias condiciones ambientales. En 1971, detectó ciertas sustancias que actúan como reguladoras del equilibrio térmico y descubrió sus fuentes de emisión. Resulta que durante el verano las algas costeras proliferan, incrementando sus emisiones del dimetilsulfuro (DMS) y estas moléculas actúan como núcleos de condensación para el vapor de agua, lo que eleva la concentración nubosa, oscurece por consiguiente la superficie y provoca el descenso de las temperaturas. Por el contrario el frío del invierno inhibe la multiplicación de las algas en los océanos, reduce sus emisiones, con lo que disminuye la concentración de dimetil sulfuro, se forman menos nubes y comienza una nueva escalada térmica. Un segundo efecto auto regulador fue avistado por Lovelock. A juzgar por la oxidación en la atmósfera de los óxidos nitrosos y sulfurosos liberados por la descomposición de la materia orgánica, una enorme creciente cantidad de ácidos debieron incrementar la acidez terrestre hasta una acidez comparable con la del vinagre. Sin embargo, los procesos metabólicos de los seres vivos producen como producto de excreción alrededor de mil megatoneladas anuales de amoniaco, compuesto básico que se encarga de neutralizar la acumulación de los ácidos. El tercer "milagro" en el que se puede entrever la actuación de la madre tierra, es la concentración estacionaria del dioxígeno atmosférico justo a la composición ideal para la vida. La actividad vital de bacterias y algas fotosintéticas durante millones de años fue responsable de la transformación de la atmósfera primitiva reductora en una atmósfera oxidante y del aporte a mares y océanos de un contenido determinado de dioxígeno disuelto. Esto posibilitó a su vez que unos 570 millones de años atrás aparecieran y se desarrollaran formas marinas de vida que obtuvieran energía mediante la respiración. Pero con el paso del tiempo el permanente estado de equilibrio alcanzado en la composición del oxígeno es el resultado de la intervención reguladora de la propia biosfera. Es sorprendente advertir que una composición de oxígeno en unas unidades porcentuales por encima de la existente pondría en peligro la vida ya que se ha podido comprobar que en una atmósfera con un 25 % de dioxígeno ardería el detritus húmedo de la selva tropical con la excitación correspondiente a un relámpago. El creador de la hipótesis Gaya (diosa tierra para los griegos), postula ante todo la defensa de los cordones basales de la autorregulación planetaria: el cinturón de selvas tropicales y las plataformas continentales. La alteración drástica de estas zonas de la biosfera constituyen la verdadera amenaza para Gaya, o mejor decir, para Pachamama, la tierra nutricia de la mitología inca que no pare monstruos, ni traiciona al dios- cielo, sino evita heladas y plagas, madura los frutos y asegura la caza... Un tercer cinturón mostró su sensibilidad a la actividad del hombre, y por sorpresa, este se ubica fuera de los límites de la biosfera escapando del dominio de ésta, pero ejerciendo una notable influencia en su protección: la capa de ozono.

El científico británico James E. Lovelock (1919 - ) se graduó como químico, luego recibió el grado de Doctor en Medicina y una década más tarde defendió su tesis doctoral en Biofísica. Hacia la mitad de la década de 1950 Lovelock se ocupaba de diseñar una serie de detectores de ionización para su empleo en los cromatógrafos de gases, cuando uno de ellos, el detector de captura electrónica vino a revolucionar las técnicas de análisis de los gases en la atmósfera y con ello condicionó el desarrollo de una conciencia ambiental. Este detector fue patentado en 1957 y aún hoy se cuenta entre los más sensibles métodos para el análisis de aquellas sustancias químicas que constituyen una amenaza para el medio ambiente. Su empleo condujo al descubrimiento de la distribución de los residuos de pesticidas en el ambiente natural que sirvió de base para el libro de Rachel Carson "La Primavera Silenciosa". [3c]

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 24

Rachel Carson, la célebre bióloga estadounidense que alertó a la conciencia pública sobre las consecu encias irreparables para el medio ambiente que se derivan de la aplicación irracional de los pesticidas, con su libro Silent Spring, debió sufrir en la primavera de 1960 el diagnóstico médico sobre un cáncer de mama que la lleva a la muerte prematura cuatr o años después. Paralelamente debe enfrentar la campaña en su contra desarrollada por los intereses monopólicos [4] . De cualquier modo la humanidad debe oponerse a este y otros graves peligros, sin que una firme voluntad política de urgentes transformaci ones se advierta en las grandes potencias.

Fuente Imagen: http://onlineethics.org/spanish/carson/main -span.html

La necesidad social de aparición en escena de los plásticos alcanzó tal impacto que algunos han bautizado cierto momento del siglo XX como la “era de los plásticos”. A partir de la década del treinta se despegarían una tras otra las invenciones de nuevos polímeros sustentados en rutas sintéticas cuidadosamente proyectadas. En 1928, la Compañía DuPont tomó una decisión poco común por entonc es en el mundo de los negocios: abrió un laboratorio para investigaciones fundamentales que sería dirigido por el brillante químico estadounidense Wallace Carothers (1896 –1937). Carothers demostró la posibilidad de producir controladamente fibras artifi ciales que con el tiempo competirían por sus propie dades con las fibras extraídas de fuentes naturales. Fueron sintetizados en el laboratorio las poliamidas (nylon) y los poliésteres (dacrón, terylene, etc.) [5] . En otro polo de los materiales poliméricos, los llamados plásticos vinílicos, se destacaron las investigaciones del equipo dirigido por Paul J. Flory (1910 – 1985), premio Nobel en 1974, que definieron en lo fundamental las vías para obtener los plásticos que revolucionaron los materiales usados en el transporte, las comunicaciones y la construcción como el polivinilcloruro, los poliacrilatos, poliacetatos, el teflón y otros [6] . Un nuevo período en el campo de las síntesis de polímeros se abre con las investigaciones realizadas paralelamente po r el químico alemán Karl Ziegler (1898-1973) y el italiano Giulio Natta (1903-1979). El desarrollo de la producción del polietileno a baja presión por Ziegler, y la invención un año después del método para producir el propileno por Natta brindaron los dos plásticos más empleados a fines del siglo XX. Estas innovaciones le hicieron compartir en 1963 el premio Nobel de Química [7] . A fines de los setenta, las investigaciones de Hideki Shirakawa, Premio Nobel del 2000 (compartido con colegas estadounidense s), anuncian la posibilidad de una nueva serie de plásticos conductores de la corriente eléctrica, polímeros que tienden un puente entre los materiales plásticos y los metales y sus propiedades híbridas los hacen únicos [8] . Los plásticos, caracterizados p or su estabilidad química y térmica, no entrañaban un problema de contaminación. Sin embargo, su acumulación en calidad de residuos no degradables planteó un nuevo conflicto que encontrará solución si se garantiza su reciclaje o el desar rollo de polímeros susceptibles a la degradación biológica. La carrera en la síntesis de nuevos polímeros llega hasta hoy impulsada por la conquista del cosmos, l a revolución en las com unicaciones, el dominio de los biopolímeros para fines médicos, y se orienta hacia la pr oducción de polímeros biodegradables, conductores, fotopolímeros, y otros con propiedades específicas para la tecnología de punta.

Una generación de plásticos biodegrables, derivados del ácido poliglicólico, relativamente fáciles de hidrolizarse y asi milarse por el organismo fueron desarrollados antes de finalizar el siglo y han representado una revolución, inicialmente, en el ámbito de la medicina. Robert Langer (1949 - ), ingeniero químico del Instituto Tecnológico de Massachussets, diseñó láminas de polímeros de superficie biodegradable que constituyen el soporte para la administración local y lenta de los agentes terapéuticos tóxicos en zonas del cerebro, la próstata y áreas óseas [9] . En 1992 el neurocirujano de la institución médica Johns Hopkins, Henry Brem (1952 - ), implantó en áreas delicadas del cerebro tales discos para tratar el cáncer [10] .

Fuente Imagen: web.mit.edu/langerlab/langer.html

Una curiosa coincidencia de dos aportaciones significativas en el momento en que se produjeron sus descubrimientos, y que más tarde la humanidad ha tenido que lamentar profundamente se da en el ingeniero mecánico estadounidense, formado de manera autodidacta e n la química, Thomas Midgley Jr. (1889 – 1944). Este caso representa una referencia obligada para demostrar la necesidad de evaluar el eventual impacto de cualquier nueva tecnología que exija el masivo empleo de los productos químicos. Midgley se enfrentó en la segunda década del siglo a dos problemas planteados por la pujante industria estadouni dense. Por una parte la actividad del transporte demandaba la elevación de la eficiencia de las gasolinas reduciendo la detonación irregular que se producía du rante el funcionamiento del motor. La idea que guió a Midgley suponía que el empleo de ciertos aditivos actuaría como antidetonantes. Primero a prueba de ensayo y error y luego siguiendo ciertas tendencias en la tabla periódica, encontró en 1921, mientras trabajaba en el labo ratorio de investigaciones de la General Motors, que el plomo tetraetilo e ra un antidetonante ideal. Dos años después era comercializada la gasolina etilada en Estados Unidos [5] . Los problemas de su toxicidad no fueron debidamente evaluados y la contaminación se extendió durante más de 60 años, resultando imposible una evaluaci ón objetiva del impacto que pudo causar sobre todo en la población infantil, en la cual el plomo puede causar retrasos en el desarrollo, trastornos de la memoria y problemas en la audición. Pero debe significarse también que Midgley fue un precursor de la s ideas sobre la importancia del alcohol, como combustible renovable. Se afirma que aún cuando ya estaba “resuelto” el problema número uno del aditivo antidetonante, en el laboratorio de Midgley se continu ó investigando las cualidades de las mezclas de alcohol-gasolina. En junio de 1922 en una comunicación a la Sociedad de Ingenieros Automotrices Midgley afirmó: “La escasez y alto costo de la gasolina en países dónde el azúcar se produce y existe una abundancia de fuentes naturales que sir ven como materia prima para fabricar alcohol hacen pensar en el uso futuro del alcohol como combustible. Conforme se vayan agotando las reservas de petróleo, el uso del benceno y particularmente del alcohol en combustibles comerciales debe hacerse cada vez más extensivo”. Las investigaciones de Midgley demostraron que el Gasohol o Carburol, término resultante de la contracción de gasolina y alco hol, constituido por una mezcla de nueve partes de gasolina sin plomo y una parte de alcohol (etanol o metanol) puede emplearse en un automóvil sin necesidad de modificar el carburador, el ciclo de encendido ni los conductos de combustible, y tiene capacidad antidetonante ligeramente mayor que la g asolina sin plomo [6] . Un segundo problema se levantaba con las sustancias que se empleaban como refrigerantes en la década del 20 (amoníaco, dióxido de azufre y cloruro de metilo). Entre las cualidades indeseables presentadas por estas sustancias, sobre todo para la expansión de la refrigeración doméstica, se encontraban la toxicidad e inflamabilidad. No pocos accidentes dramáticos se produjeron por lalass fugas de las unidades de refrigeración en los hoghogaares,res, sobre todo en el horario nocturno. Buscando un buen sustituto para estos refrigerantes Midgley desarrolló el tetrafluormetano y el diclorodifluormetano (mas tarde llamado freón). HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 25

En 1930 Thomas Midgley demostró ante la American Chemical Society las seguras propiedades físicas de l freón inhalando profundamente el nuevo gas y exhalando hacia la llama de una vela, la cual se apagó. Quedaba demostrado que el producto no era tóxico ni tampoco inflamable. La generación de los refrigerantes ideales estaba en manos de los fabricantes [12]. Nuevas aplicaciones se encontraron para los clorofluorcarbonos, entre ellas las de actuar como propulsores de todo tipo de aerosol comercial. Un nuevo peligro se cernía sobre una de las sustancias protectoras que la naturaleza había creado propiciando e l desarrollo de la vida en el planeta. Fuente Imagen: http://www.invent.org/hall_of_fame/193.html

Mientras Midgley evaluaba la utilización de una nueva generación de refrigerantes, un experimentador inglés Gordon Miller Bou rne Dobson (1889 - 1976) en la Universidad de Oxford iniciaba la observación y estudio del ozono atmosférico. Hoy sabemos que las tres mil millones de toneladas de ozono que se acumulan en la estratósfera es en sentido estricto un manto difuso del trioxígeno (molécula triatómica del o xígeno) que alcanza una concentración en el intervalo de los 300 - 500 Dobson. La unidad Dobson, propuesta para perpetuar la memoria de este pionero en la determinación del ozono atmosférico, representa una molécula por cada 10 9 moléculas, es decir la co ncentración de ozono es muy baja, entre 03, - 0,5 ppm (partes por millón). Por entonces sus investigaciones descubrieron que el perfil de la temperatura por encima de la tropausa no era constante como sugería el propio nombre de estratosfera sino que h abía una región donde la temperatura sustancialmente se incrementaba. Dobson infirió correctamente que la causa del calentamiento de la estratosfera estaba relacionada con la absorción de la radiación solar ultravioleta por el ozon o, y decidió construir un equipo para hacer mediciones de las cantidades de ozono y su variabilidad. El primer espectrómetro estuvo listo en el verano de 1924 y las mediciones regulares obtenidas a lo largo del 1925 establecie ron las características principales de la variación estacional del ozono, el máximo en la primavera y el mínimo hacia el otoño, y también demostró la estrecha correlación entre la cantidad de ozono y las condiciones meteorológicas en la alta troposfera y la baja estratosfera. A fines de 1929, Dobson y su s colaboradores habían extendido una red de equipos que permitió establecer las regularidades más generales entre la variación de la cantidad de ozono con la latitud y la estación. Desde inicios de los años 30, Dobson se convirtió en un ci entífico preocupado por la polución atmosférica y desde 1934 bajo su dirección se desarrollaron métodos fiables para las mediciones de los humos y nieblas, materia depositada y dióxido de azufre. Paralelamente con estos trabajos de medición del ozono en la atmósfera supe rior el geofísico inglés Sydney Chapman (1888 - 1970) publicaba en 1930 en las Memorias de la Sociedad Real Meteorológica británica, la teoría cuantitativa del equilibrio y los cambios del ozo no y el oxígeno atómico en la atmósfera superior que implicaban la interacción del ozono con la radiación ultravioleta proveniente del astro rey. La idea de que la capa de ozono constituía un escudo protector de la llamada radiación ultravioleta dura se difundía entre la comunidad científica que estudiaba la atmósfera del planeta. Después de la II Guerra Mundial, la Comisión Internacional de Ozono, fundada en 1948 por la Unión Internacional de Geodesia y Geofísica, organizó el trabajo internacional sobre el ozono. A fines de 1956, en el Año Internacional de la Geodesi a y Geofísica no menos de 44 nuevos espectrómetros fueron distribuidos a través del mundo. El resultado más interesante devenido de esta política de mediciones sistemáticas fue el descubrimiento de la variación anual del ozono en la Bahía de Halley en la A ntártica que mostró un repentino incremento en Noviembre, muy diferente del comportamiento en el hemisferio norte.

Gordon Miller Bourne Dobson (1889 - 1976) fue un experimentador inglés que dedicó buena parte de su vida a la observación y el estudio de l ozono atmosférico. A fines de 1929, Dobson y sus colaboradores habían extendido una red de equipos que permitió establecer las regularidades más generales entre la variación de la cantidad de ozono con la latitud y la estación. Desde inicios de los año s 30, Dobson se convirtió en un científico preocupado por la polución atmosférica y desde 1934 bajo su dirección se desarrollaron métodos fiables para las mediciones de los humos y nieblas, materia depositada y dióxido de azufre. Dobson se retiró de la Un iversidad en 1950 como profesor activo y luego en 1956 como asesor, pero continuó trabajando sobre el ozono a lo largo de sus años de retiro. Su último artículo fue escrito en 1973, 62 años después de su primera publicación en este campo, y su última obser vación del ozono atmosférico la hizo un día antes de tener el ataque cardiaco que le provocó, seis semanas después, la muerte. [7]

Fuente Imagen: www -atm.physics.ox.ac.uk/user/barnett/ozoneconference/dobson.htm

Cinco años después de formulada la teoría Gaya y a cuatro décadas de los nuevos refrigerantes propuestos por Midgley, los científicos de la Universidad de California, Irvine, F. Sherwood (1927- ) y el mexicano – estadounidense Mario Molina (1943- ) determinaron, luego de un exhaustivo estudio, que los clorofluocarbonos empleados masivamente como propulsores en todo tipo de “spray” y como refrigerantes, tienen potencial para destruir la capa de ozono [13] . Y en efecto, en años recientes, se ha confirmado el enrarecimiento de la capa de ozono en dife rentes latitudes del planeta. Este adelgazamiento ocasiona un aumento de los niveles de la radiación ultravioleta dura que penetra en la atmósfera e incide sobre la super ficie del planeta. Las consecuencias son ya importantes y pueden llegar a ser trágica s. La Academia Nacional de Ciencias de los Estados Unidos ha pronosticado que una reducción de un 10% en el ozono estratosférico podría provocar un 20% de incidencia de cáncer en la piel. Las últimas estadísticas revelan que, por ejemplo, en los EEUU se ha producido un incremento de 5 000 casos anuales, en una población que se encuentra alrededor de los 220 millones de habitantes. Una excesiva exposición a la radiación ultravioleta se ha relacionado también con el padecimiento de cataratas y otros trast ornos oculares y con el aumento de la aparición de dermatitis alérgica y tóxica. Se ha podido comprobar que el sistema inmunológico se deprime con la exposic ión a las radiaciones UV de alta frecuencia, lo que hace más vulnerable especialmente a niños y per sonas de la tercera edad a las enfermedades por virus y bacterias. Por lo que respecta al resto de los seres vivos la incidencia puede ser muy diversa ya que la sensibilidad de las distintas e species a este tipo de radiación no es uniforme. A título de e jemplo pueden mencionarse que estudios recientes realizados a nivel de laboratorio ponen de manifiesto que especies como el tomate, el maíz, la zanahoria o la remolacha expuestas a esta radiación incrementan la sensibilidad a las plagas. Se pronosti ca que a largo plazo el fitoplancton será muy afectado lo que trastornará l a cadena alimentaria en mares y océanos con efectos ecológicos desastrosos , y a mediano plazo la reducción de la población disminuirá sensiblemente los rendimientos de la industria pesquer a. Entre las especies animales, afecta muy seriamente a la visión de los mamíferos y puede aniquilar especies como el boquerón, la trucha y otras que son muy vulnerables en estado larvario. HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 26 Se ha podido comprobar que diversos materiales empleados en la construcción, las comunicaciones, equipos eléctricos, así como fibras artificiales, plásticos, gomas y cauchos experimentan una notable degradación de sus pro piedades y un envejecimiento prematuro por exposición a las radiaciones ultravioletas. [9] La importancia concedida a estos problemas por la comunidad científica se expresa en el premio Nobel otorgado de forma compartida a Sherwood, Molina y al químico holandés Paul Crutzen (1933- ) en 1995. Crutzen había señalado que el óxido de nitrógeno podía provocar la degradación de la capa de ozono estratosférico, ya que al provocar un mecanismo en cadena, una baja concentración del óxido de nitrógeno se traducía en un significativo consumo del ozono. Experimentos cuidadosamente controlados sobre el efecto inducido por el NO liberado por las turbinas de los aviones estratosféricos demost raron la veracidad de las predicciones de Crutzen y una moratoria fue impuesta sob re los proyectados aviones supersónicos que tienen su corredor aéreo en la capa estratosférica de la atmósfera. Tales naves representaban una conquista de la aviación contemporánea pero su irrupción en una zona virgen del planeta quedaba demostrado que sig nificaría un peligro insospechado .

El mexicano – estadounidense, Mario J. Molina, Premio Nobel de Química en 1995, confiesa en su autobiografía que durante sus primeros años en Berkeley sintió un profundo rechazo a la posibilidad de emplear los láser químicos de alta potencia para producir armas. Deseaba por entonces dedicarse a una investigación que fuera útil a la sociedad, y lo logró. El 28 de junio de 1974 publicó, junto a su asesor F. Sherwood Rowland, en la Revista Nature un primer informe aler tando a la comunidad científica y a la opinión pública de los peligros en que se encontraba la capa estratosférica de ozono. Fuente Imagen: © The Nobel Foundation

El calentamiento global y las lluvias ácidas.

En 1904 el químico – físico sueco Svante Arr henius pronosticó que las crecientes emisiones industriales de CO 2 determinarían un cambio notable en la concentración de este gas en la atmósfera, provocando un cambio climático global. Según la predicción de Arrhenius este in cremento podría resultar bene ficioso al hacer más uniforme el clima del planeta y estimular el crecimiento de las plantas y la producción de alimentos. Una opinión discrepante con la optimista visión de Arrhenius aparece a fines de los treinta. El eminente ingeniero termoenerg ético británico Guy Stewart Callendar (1898 – 1964) publica en 1938 el artículo titulado “La prod ucción artificial del dióxido de carbono y su influencia sobre la temperatura”. Este trabajo y los que posteriormente dio a conocer demostraban la correlación existent e entre la elevación de las concentraciones del dióxido atmosférico desde los tiempos preindustriales, y la información entonces acopiada por él sobre la tendencia obser vada de la elevación de la temperatura. Los resultados de Callendar no encontraron reso nancia en la comunidad científica de la época. Prevalecían las ideas que hacían creer que la inmensa masa de las tres cuartas partes del planeta, el agua de océanos y mares, actuaría como sistema regulador por su capac idad absorbente del

CO 2. Hasta alreded or de los sesenta la mayoría de los científicos confiaban que la actividad humana no podía provocar cambios globales en el cl ima del planeta [10] . Sin embargo las investigaciones conducidas en la década de los cincuenta por el geofísico estadounidense Roge r Revelle (1909 -1991) con la colaboración del radio químico de origen austríaco Hans Suess (1909 - ) demostraron de manera irrefutable que los niveles de dióxido de carbono en la atmósfera se habían incrementado como resultado de la quema de los combustibles fósiles y de la tala de los bosques, rechazando la idea prevaleciente sobre la actividad reguladora de mares y océanos [11] . En 1977 Revelle encabeza un Panel de la Academia Nacional de Ciencias de los Estados Unidos el cual encuentra que alrededor d e un 40 % del dióxido de carbono antropogénico permanece en la atmósfera, las dos terceras partes provenientes de los combustibles fósiles y una tercera de la tala de los bosques. Al inicio de los ochenta la escalada en las predicciones se ensombrecen cuando Revelle publica un artículo en la importante revista estadounidense Scientific American en la que anuncia la posible elevación del nivel del mar como resultado de fusión de los glaciares que debe acompañar a la elevación de la temperatura del planeta. [12]

Hans E. Suess (1909 - ) recibió su doctorado en Química en la Universidad de Viena en 1935. Durante la segunda guerra mundial perteneció al grupo de científicos alemanes que les fue asignado explorar las posibilidades para utilizar la energía atómica. Suess sirvió entonces como asesor científico de la planta de agua pesada en Noruega, que fue destruida por las bombas aliadas en 1943. En 1950 emigró a los Estados Unidos y cinco años después aceptó la invitación del oceanógrafo de trabajar en la determinación de los niveles de CO 2 que eran absorbidos por las masas oceánicas. Suess aplicó las técnicas de detección del isótopo radioactivo del carbono - 14 para abordar este problema. Sus resultados fueron piezas claves para las publicaciones qu e junto a Revelle se consideran pioneras en la aclaración de la acumulación del CO 2 en la atmósfera del planeta, responsable de uno de los problemas medioambientales contemporáneos: el calentamiento global. [14]

Fuente Imagen: www.aip.org/history/climate/Revelle.htm

La Comisión Mundial de la Organización de las Naciones Unidas (ONU) sobre Medio Ambiente y Desarrollo, presidida por la médic a y política noruega Gro Harlem Brundtland (1939 -), recibió el mandato del organismo internacional de analizar l a cuestión del desarrollo de la humanidad en conexión con los problemas globales ambientales. Durante tres años esta comisión investigó en diferentes latitudes, y en proceso de consulta permanente con todo el espectro de profesionales relacionados con tem a tan complejo, arribó a una fórmula de consenso ququee sirviera de plataforma dinamizadora. El concepto emergente de desarrollo sostenible en el cual se centra el informe Brundtland fue aprobado en 1987 por la Asamblea General de las Naciones Unidas y refren dado como principio orientador en la política de cooperación internacional. Sin embargo al considerar que "el Desarrollo sost enible es aquel que satisface las necesidades de las actuales generaciones sin comprometer las de las futuras, atendiendo al equili brio social y ecológico y prioritariamente a las necesidades de los más pobres", se incluyen tres ingredientes que aunque formalmente aceptados por la comunidad internacional , son vistos con recelo por los poderosos: la idea de las necesidades, la noción d e los límites (capacidad de carga de la biosfera) y el concepto capital de la solidaridad. En 1988 la Organización Mundial Meteorológica y el Programa Medioambiental de Naciones Unidas fundaron un Panel Intergubernam ental sobre el Cambio Climático (IPCC ) que señalara la información científica, técnica y socioeconómica para la comprensión del cambio climático, sus impactos pot enciales y las opciones para la adaptación y mitigación de los daños. El IPCC fue el primer esfuerzo internacional a escala interna cional para dirigir los temas medioambientales [13] .

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 27

Las predicciones del IPCC proyectan un intervalo de escenarios de las emisiones futuras de gases de invernadero y de precursores de aerosoles basado en estimaciones relativas del crecimiento de la población y económico, el empleo de los suelos, cambios tecnológicos, disponibilidad energética y las proporciones de los combustibles durante el período que media hasta el 2 100.

Para el escenario medio de emisiones pronosticadas por el IPCC, asumiendo el "mejor valor estimado" de la sensibilidad climática e incluyendo los efectos de los futuros incrementos en aerosol, los modelos proyectan un incremento en la temperatura media global relativa de la superficie del aire de alrededor de 2° C para el 2100. La predicción correspondiente para el más alto escenario del IPCC combinado con un alto valor de la sensibilidad climática da un calentamiento de alrededor de 3,5 ° C. Con motivo de la inercia térmica de los océanos, sólo un 50 - 90 % del cambio de temperatura del equilibrio eventual podría haberse realizado para 2 100 y la temperatura podría continuar el incremento más allá del 2 100, aún cuando las concentraciones de los gases de invernadero se estabilizaran para esta fecha.

Se espera un incremento del nivel del mar como resultado de la expansión térmica de los océanos y la fusión de glaciares y placas de hielo. Para el escenario del IPCC, asumiendo los mejores valores de la sensibilidad climática y de la sensibilidad de la fusión del hielo, e incluyendo los efectos de cambios futuros en el aerosol, los modelos predicen una elevación en el nivel del mar de aproximadamente 50 cm desde fines del pasado siglo hasta el 2 100. El nivel del mar podría continuar la elevación a una velocidad similar en los siglos futuros más allá del 2100, aún si las concentraciones de los gases de invernadero estuvieran estabilizadas para esta fecha, y podría continuar aún después del momento en que se alcance una estabilización de la temperatura media global.

Las temperaturas más cálidas conducirán a un ciclo hidrológico más vigoroso, lo cual se traduce en que en algunos lugares sufrirán más severas sequías y/o inundaciones mientras en otros se pronostican sequías y/o inundaciones menos severas. Algunos modelos indican un incremento en la intensidad de las precipitaciones sugiriendo una posibilidad para eventos de precipitaciones extremas. El conocimiento es insuficiente para decir si existirán cambios en la ocurrencia o la distribución geográfica de tormentas severas o ciclones tropicales.

En resumen los expertos coinciden en que la elevación de las temperaturas globales provocará una elevación del nivel del mar, cambios en los regímenes de precipitación y otras condiciones climáticas locales. Los cambios regionales del clima pueden alterar los bosques, el rendimiento en las cosechas, y las fuentes de agua. También puede resultar amenazada la salud humana, dañadas especies de aves, peces y muchos tipos de ecosistemas.

En mayo de 1992, 154 países (incluidos los de la Unión Europea) firmaron el Tratado de las Naciones Unidas para el Cambio Climático (ratificado en marzo de 1994). Los países signatarios se comprometieron a estabilizar, para el final de siglo, los niveles de las emisiones de dióxido de carbono en los valores de 1990.

Apenas un mes más tarde, más de 100 líderes de gobierno participan en el Encuentro de Río conocido como la Cumbre de la Tierra. Allí un consenso fue alcanzado sobre la necesidad de integrar el desarrollo económico a la protección medioambiental en el objetivo de lograr un desarrollo sustentable [15] .

En diciembre de 1997, más de 160 naciones asisten a la ciudad de Kyoto para negociar las limitaciones sobre las emisiones de los gases de invernadero por parte de las naciones desarrolladas conforme a los objetivos de la Convención sobre Cambio Climático de 1997. El Protocolo de Kyoto anuncia el compromiso de las naciones poderosas a limitar sus emisiones hasta los niveles emitidos en 1990. Los inicios del nuevo milenio eran testigos de la no ratificación del Protocolo de Kyoto por precisamente dos grandes, que “ven amenazados su desarrollo si no se prevén limitaciones en las cuotas de emisiones de los países en vías de desarrollo”, los Estados Unidos de América y la nueva Rusia [16] .

Otro problema ambiental que experimenta el planeta y que fuera advertido ya a fines del pasado siglo es el causado por las precipitaciones ácidas. En 1872, el doctor Robert Angus Smith (1817- 1884) fue el primer climatólogo en el mundo en identificar la lluvia ácida y sus peligros. Smith organizó una campaña para la prohibición del uso de los combustibles que produjeran la niebla conocida como smog. Su libro “Acid Rain: The beginnings of Chemical Climatology” tuvo el valor de representar el inicio de una labor educativa por forjar una conciencia sobre los riesgos de emplear los combustibles responsables de la lluvia ácida [16] .

El origen de las lluvias ácidas está directamente relacionado con la actividad industrial. El descenso registrado en el pH de las precipitaciones, que se sitúa entre 5,8 y 6,0, coincide con la revolución industrial, el advenimiento de la máquina de vapor de Watt y un aumento considerable en la combustión de diferentes carbones. Hacia 1955 el promedio del pH de la lluvia se desplaza hacia 5,6 lo que se califica de descenso espectacular y concuerda con el notable aumento de la actividad industrial en el mundo desarrollado de la posguerra.

Los efectos nocivos que la lluvia ácida ocasiona sobre las áreas naturales son muy diversos y dependen del tipo de ecosistemas; así por ejemplo, en ríos y lagos, éste fenómeno ha provocado una acidificación de sus aguas, dañando a plantas y animales que las habitan, y en casos extremos, se produce una aniquilación completa de especies sensibles a la acidez del agua. En áreas como el nordeste estadounidense donde se combina la baja capacidad buffer de los suelos con la prevalescencia de los vientos hacia la región, algunos lagos alcanzan valores de pH inferiores a 5. Uno de los lagos más ácidos de esta región, Little Echo Pond en Franklin, New York, tiene un pH de 4.2. Conviene reconocer que ya a un pH de 5, la mayoría de los huevos de peces no pueden madurar, y por debajo de este nivel de pH, buena parte de los peces adultos no sobreviven. [18]

En los ecosistemas terrestres, los daños ocasionados por la lluvia ácida, afectan principalmente a las plantas, ocasionando en algunas especies sensibles, lesiones y caída de las hojas, sin embargo, usualmente la lluvia ácida no acaba con la vegetación directamente sino que actúa de manera gradual, haciendo más lento su crecimiento y favoreciendo el ataque de plagas y enfermedades.

La lluvia ácida empobrece los suelos, tanto de bosques, como de zonas de cultivo, ya que a su paso por éstos, lava los nutrientes esenciales para el crecimiento de las plantas, al tiempo que libera elementos tóxicos, como el aluminio y el magnesio, que se acumulan en sus tejidos y acaba con microorganismos útiles en los procesos de formación, descomposición y nutrición del suelo.

No se ha demostrado aún que la lluvia ácida ocasione efectos directos nocivos en los seres humanos; para que esto sucediera tendrían que presentarse valores de pH en el agua de lluvia mucho más bajos de los que actualmente se registran. Sin embargo, la lluvia ácida puede tener efectos indirectos sobre la salud, ya que las aguas acidificadas pueden disolver metales y sustancias tóxicas de los suelos, rocas, conductos y tuberías y posteriormente transportarlos hacia los sistemas de agua potable.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 28

La primera noticia alarmante se dio a comienzos de los setenta cuando en Escocia, al norte de la tierra natal del fundador de las ideas sobre las lluvias ácidas, el doctor Robert A. Smith, se reportó precipitaciones con un índice de acidez comparable al del vinagre. El mecanismo de formación de las lluvias ácidas quedó aclarado poco después, en 1975. Las investigaciones realizadas en los glaciares de Groenlandia demuestran inobjetablemente que hace unos 500 años el pH oscilaba entre 6 y 7 (el índice de acidez de una solución neutra se corresponde con un pH de 7), es decir a mediados del milenio anterior la lluvia era sólo ligeramente ácida. La opinión pública ha sido informada. La voluntad política de los países con la máxima responsabilidad por este grave trastorno de un ciclo de precipitaciones que ha sustentado al planeta durante millones de años está preñada de fariseísmos.

La energía nuclear. En 1942, un equipo encabezado por el físico italiano Enrico Fermi (1901 - 1954), como parte del proyecto Manhattan para la fabricación de la bomba atómica, inventó en 1942 la manera de controlar la reacción de fisión nuclear para generar energía. La pila atómica de Fermi fue precursora de los reactores termonucleares. En diciembre de 1951, a seis años del holocausto de Hisroshima y Nagasaki, el primer reactor experimental instalado en una central eléctrica construida en Idaho (E. E. U. U.), produjo energía como llegaría a ser común en todas las plantas de energía atómica, el calor del núcleo haría hervir agua y el vapor impulsaría una turbina. Al finalizar la centuria, las más de 400 centrales nucleares instaladas en 18 países generaban casi la quinta parte de la producción mundial que se había decuplicado en la segunda mitad del siglo superando la astronómica cifra de 10 billones de Kwh. Francia, líder mundial, producía el 75% de su generación eléctrica en plantas nucleares.

En 1954, los soviéticos abrieron la primera planta electronuclear civil en Obninsk, región de Kaluga a unos 100 kilómetros de Moscú. La planta fue capaz de generar sólo 5 MW de energía eléctrica. Pero la primera planta electronuclear comercial fue levantada por la compañía Westinghouse en Shippingport, Estados Unidos. Pronto empezaron a funcionar centrales nucleares en todo el mundo. Dos factores ensombrecieron las optimistas predicciones sobre las ventajas de la energía nuclear: la peligrosidad de los residuos radiactivos y la posibilidad de accidentes nucleares.

Dos factores ensombrecieron las optimistas predicciones sobre las ventajas de la energía nuclear: la peligrosidad de los residuos radiactivos y la posibilidad de accidentes catastróficos. Por lo menos cuatro accidentes principales han sido registrados en las plantas nucleares. En todos se reporta como causa una combinación de errores humanos (como factor principal) con fallas en el diseño de los equipos. La Organización Internacional de la Energía Atómica (OIEA) ha implantado una escala para categorizar la magnitud de los accidentes (conocida por sus siglas INES) en siete niveles. La categoría máxima está representada por un accidente de consecuencias comparables al ocurrido en la Central de Chernobil instalada en Ucrania (antigua URSS). Resulta sorprendente que en los diferentes informes sobre la catástrofe se acepte la increíble versión de que se sumaran tantas negligencias para desatar la tragedia. Primero, el equipo que operaba en la planta el día 26 de abril de 1986, se propuso, con la intención de aumentar la seguridad del reactor, realizar un experimento a un régimen de baja potencia, que exigía desconectar el sistema de regulación de la potencia, el sistema de emergencia refrigerante del núcleo y otros sistemas de protección. Segundo, los operadores quedaron responsabilizados con la manipulación de las barras de control del reactor y de las 30 barras de la aleación de acero al boro que debieron permanecer bajadas según establecen como mínimo las reglas de seguridad, sólo quedaron introducidas en el núcleo 8 de ellas. Casi cuatro horas después de iniciada "la experiencia", en la sala de control se dio la señal de alarma de que el reactor experimentaba una subida de potencia extremadamente rápida. Se ordenó bajar de inmediato las barras de moderación pero cumplir el mandato exigió "liberarlas" pues el sistema de descenso no funcionó, y entonces sobrevino la explosión que levantó por los aires el techo de 100 t del reactor provocando un incendio en la planta y lanzando una gigantesca emisión de productos de fisión a la atmósfera. Las consecuencias del "accidente nuclear" han sido evaluadas de muy diferentes maneras por distintas fuentes. Ha quedado reconocido que 31 personas murieron en el momento del accidente, alrededor de 350.000 personas tuvieron que ser evacuadas de los 155.000 km² afectados, permaneciendo extensas áreas deshabitadas durante muchos años. La radiación se extendió a la mayor parte de Europa, permaneciendo los índices de radiactividad en niveles peligrosos durante varios días. Se estima que se liberó unas 500 veces la radiación de la bomba atómica arrojada en Hiroshima en 1945. En septiembre de 2005, el borrador del informe del Forum de Chernobyl (en el que participan entre otros el OIEA, la OMS y los gobiernos de Bielorrusia, Rusia y Ucrania) se predicen 4000 muertes entre las 600.000 personas que recibieron las mayores dosis de radiación. La versión completa del informe de la OMS, publicado en 2006, incluye la predicción de otras 5000 víctimas en áreas significativamente contaminadas de Bielorrusia, Rusia y Ucrania, con lo que se alcanzarían las 9000 víctimas de cáncer. Esta cifra coincide con la estimación admitida por la Agencia Cubana de Prensa (ACP) que fija entre ocho mil y 10 mil las víctimas, mientras otras 500 mil podrán afectarse por diversos cánceres en los próximos 10 años, muchos de ellos muy lejos del área del accidente. Al informarse sobre la catástrofe varias naciones ofrecieron ayuda humanitaria inmediata a los afectados, además de realizar promesas a largo plazo, que nunca cumplieron. Solo Cuba ha mantenido desde 1990, sin ningún apoyo financiero de institución internacional alguna, un programa de socorro para las víctimas de este accidente nuclear. El sistema de salud de Cuba ha atendido a 18 153 pequeños de Ucrania y Bielorusia con diversas enfermedades y ha acogido además a 3 427 adultos acompañantes. Más de 300 infantes con padecimientos hematológicos, 136 con tumores y 1 552 con afecciones dermatológicas, han recibido tratamiento. Se han realizado 14 operaciones cardiovasculares y seis trasplantes de médula ósea. Un por ciento alto de los niños de Chernobyl atendidos en Cuba provienen de orfanatos y escuelas para niños sin amparo filial. [19]

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 29

La explosión del reactor número 4 de la central nuclear de Chernobil ha quedado como la peor catástrofe ecológica promo vida por la energía nuclear. La tragedia fue resultado sobre todo de errores humanos. Enormes cantidades de material radioactivo fueron lanzadas a la atmósfera contaminando flora y fauna de grandes extensiones de Bielorrusia, la Federación Rusa y Ucrani a. Las nubes trasladaron el polvo contaminado hacia vastas regiones del norte europeo que experimentaron luego las deposiciones radiactivas. Esta vez el aplauso no lo merecían hombres de ciencias sino ante todo el cuerpo de bomberos de la planta que con s u conducta heroica impidieron la propagación del incendio desatado hacia otras áreas, lo cual podría haber desencadenado un drama incalculable. Entre ellos se cuentan las víctimas inmediatas y en breve plazo de las radiaciones ionizantes. [20]

Si la ac cidentalidad de las plantas nucleares ha impactado con mayor o menor fuerza a la biosfera, el ruido de la guerra ha tenido un a huella que no ha sido evaluada con suficiente precisión. Una de las primeras explosiones nucleares "de prueba" realizada por Esta dos Unidos en las islas Marshall en 1954, afectaron a la población local, que recibió una dosis corporal total estimada de 1,75 Gy. No se produjeron fallecimientos, pero aparecieron alteraciones de diferente intensidad, con enfermedad de inicio temprano y diarrea en cerca del 10% de la población y un descenso del número de células sanguíneas. La contaminación superficial del organismo por el accidente originó quemaduras y u lceraciones cutáneas en el 20% de los afectados. De acuerdo con estos resultados inic iales las superpotencias trasladaron sus polígonos de prueba para sitios protegidos de extensas zonas desérticas, e incluso llevaron las pruebas al nivel del subsuelo evitando la contaminación atmosférica y las lluvias ra diactivas que suelen trasladar impu lsados por los vientos, residuos radiactivos a miles de kilómetros del lugar de la explosión. De cualquier forma el planeta h a sufrido la sacudida telúrica, y el pulso electromagnético de radiaciones ionizantes provocados por más de dos mil explosiones nu cleares, más de la mitad lanzadas por los Estados Unidos, el 85 % por las dos grandes superpotencias del siglo (E.U. y la URSS), el 10% en el orden Fr ancia, China y Gran Bretaña. Cinco pruebas se reparten entre dos países asiáticos envueltos en un litigio histórico: Pakistán y la India. Una bomba atómica fue lanzada en el océano Índico por el régimen sudafricano del apartheid en 1979, para emplear el chantaje en sus relaciones con los veci nos africanos. Desde 1992, logrado un Tratado Internacional de no pro liferación del arma nuclear, se han silenciado notablemente "los ensayo nucleares". Pero India y Pakistán desoyendo el clamor universal, en 1998 realizaron un par de pruebas por parte en demostración mutua de fuerza. Al grupo de ocho países responsables de esta demencial carrera ha amenazado con sumarse Corea del Norte. [21]

Durante las décadas del 20 al 40 el profesor sueco en física -médica Rolf M. Sievert (1896 – 1966) hizo las más importantes contribuciones al campo de la física clínica. En particular a la solución de los problemas relacionados con el empleo de la radiación en la diagnosis y la terapia. Sievert desarrolló las bases de como calcular la dosis absorbida para los tumores, nuevos equipos para la irradiación de pacientes, e inst rumentos de medición de dosis, entre ellos la mundialmente conocida cámara que lleva su nombre. A este científico se debe la determinación de los efectos biológicos de la radiación ionizante, con particular énfasis en los efectos que las dosis bajas de rad iación ionizante recibida por los radiólogos en su trabajo diario. Hasta su muerte en 1964, Sievert jugó un rol muy activo en la cooperación internacional en el campo de protección y de la medición de las dosis de radiación. En 1979, la Comisión General d e Pesos y Medidas aprobó que la unidad para una dosis de radiación ionizante equivalente llevara su nombre (sievert, Sv). [22]

La comunidad científica viene gestando los contornos de una ciencia del Medio Ambiente, que exige del concurso multidiscipli nar, abarcando campos que van desde la Ciencias de los Materiales a la Energética pasando por la Física Química de la atmósfera, los océanos y la tierra, la Biología Molecular y la Biotecnología, y las Ciencias de la Informática. Será necesario un financ iamiento y el desplazamiento de recursos para una política que solucione los problemas globales del hambre, la energía y la contaminación del planeta. La creciente preocupación de los círculos científicos por el manejo que hacen los políticos de los proble mas medioambientales llevó a la fundación de una “Unión de los Científicos Preocupados” que en carta abierta firmada por más de 20 laureados con el premio Nobel acusó al Gobierno de EEUU de estar manipulando el sistema científico asesor para evitar los con sejos que puedan ser contrarios a sus intereses políticos. Los autores también apuntan la existencia de evidencias que muestran cómo la administración restringe las declaraciones que los científic os realicen sobre aspectos que pudiesen despertar cierta pol émica. De este modo, aseguran que se ha censurado por lo menos un estudio sobre el cambio climático, y que se han manipulado los resultados de las emisiones de mercurio por parte de las centrales eléctricas. A escasos doce mes es de su fundación el listado de personalidades científicas que apoyan la gestión de esta Unión se ha multiplicado y suman 48 los galardonados con el Nobel que han expresado su adhesión a este movimiento de hombres de ciencia comprometidos con los problemas de su tiempo [23] . En suma, la ciencia del siglo XX intervino de manera contradictoria en la época del desarrollo creciente y múltiple de los problemas a mbientales desatados por la actividad del hombre. Proveyó a la agricultura con los fertilizantes nitrogenados requeridos para prod ucir más alimentos para una población creciente y su uso irracional provocó la contaminación de las aguas y la eutrofización de embalses, ríos, lagos, y mares litorales. Proporcionó para proteger las cosechas y para desarrollar las campañas sanitarias los productos insecticidas que incrementaron los rendimientos agrícolas y erradicaron enfermedades transmisibles y al mismo tiempo promovieron un problema de incalculable impacto ecológic o. Suministró productos según la demanda de diferentes tecnologías y ne cesidades industriales y generó contaminación atmosférica, de las aguas y de la tierra, produjo una masa impresionante de residuos sólidos no biodegradables, y causó el deterioro del escudo protector es tratosférico de ozono. Descubrió los elementos para el empleo de la energía nuclear y acontecieron dramáticos accidentes que provocaron serios daños radiológicos en la flora, la fauna y la salud humana.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 30

Un pionero en el combate por preservar al planeta de la contaminación provocada por los ensayos nucleares y el peligro de extinción del género humano por el empleo de las armas nucleares, el único químico que asiste a la Primera Conferencia de científicos nucleares realizada en Pugwash, Nueva Escocia, se llama Paul M. Doty y su larga vida comprometida con la causa de la paz lo lleva ya en el siglo XXI a apoyar la “Unión de los Científicos Preocupados”, movimiento que se levanta por la aplicación de políticas que contribuyan a la solución de los graves problemas ambientales de la época. Desde la década de los cincuenta, Doty torna inseparable su carrera profesional en la Universidad de Harvard, donde a lo largo de más de 40 años funda el Departamento de Bioquímica y el de Biología Molecular, con su intensa actividad por la paz que lo lleva a organizar en 1974 el Centro para la Ciencia y los Asuntos Internacionales. Su fecundo recorrido por la investigación científica lo hace cofundador en 1945 del Journal of Polymer Science y en 1959 aparece entre los patrocinadores del Journal of Molecular Biology. [24] Fuente Imagen: bcsia.ksg.harvard.edu/person.cfm?item_id=148&ln=full&program =CORE

BIBLIOGRAFÍA:

[1] Nobel e- Museum (2004): Carl Bosch. Nobel Prize 1931 From Nobel Lectures, Chemistry 1922 – 1941. Elsevier Publishing Company, Amsterdam, 1967 nobelprize.org/chemistry/laureates/1931/bosch-bio.html [2] Nobel e-Museum (2004): Paul Hermann Muller. From Nobel Lectures, Medicine 1942 – 1962. Elsevier Publishing Company, Amsterdam, 1967. http://nobelprize.org/medicine/laureates/1948/muller-bio.html [3] Carrasco J.F. (1999): Transferencia genética con Agrobacterium tumefaciens. Plantas Transgénicas.Butlletí Centre d’Estudis de la Natura del Barcelonès Nord., IV (3): Sta. Coloma de Gramenet, 1999. http://www.xtec.es/~jcarrasc/transgenicas.htm [3b] UW (2006): About Helen Ryaboff Whiteley. The Helen Ryaboff Whiteley Center. University of Washington. http://depts.washington.edu/fhl/Whiteley/helen.html

[3c] Comby Bruno (2006): James Lovelock: Author of the GAIA Theory. Professor James Lovelock's Web Site. http://www.ecolo.org/lovelock/lovedeten.htm

[4] Online Ethics Center for Engineering and Science (2002): Rachel Carson: Científica que alerta al público. http://onlineethics.org/spanish/carson/main-span.html [5] Kovarik W., Hermes M. E. (2001): Fuels and Society B: 1. Charles Kettering, Thomas Midgley and Tetraethyllead. Kennesaw State University. http://chemcases.com/tel/tel-13.htm

[6] National Inventors Hall of Fame(2002): Thomas Midgley . http://www.invent.org/hall_of_fame/193.html [7] Oxford University (2003): Short Biography of G.M.B. Dobson. http://www-atm.physics.ox.ac.uk/user/barnett/ozoneconference/dobson.htm

[8] Nobel e-Museum (2004): Mario J. Molina, F. Sherwood Rowland; Paul Crutzen. Nobel Prize, 1995. From Les Prix Nobel. The Nobel Prizes, Editor Tore Frängsmyr, [Nobel Foundation], Stockholm. http://nobelprize.org/chemistry/laureates/1995/index.html

[9] UNEP(1998): Environmental Effects of Ozone Depletion. Executive Summary. United Nations Environmental Program (UNEP). http://www.gcrio.org/UNEP1998/UNEP98.html

[10] Fleming James R. (2002): What Role Did G.S. Callendar Play in Reviving the CO 2 Theory of Global Climate Change? Presidential Symposium on the History of the Atmospheric Sciences: People, Discoveries, and Technologies. http://ams.confex.com/ams/annual2003/techprogram/paper_58908.htm [11] Weart Spencer (2005): The Discovery of Global Warming. Center for the History of Physics. American Institute of Physics. http://www.aip.org/history/climate/index.html [12] Weart, Spencer R. (1997). Global Warming, Cold War, and the Evolution of Research Plans . Historical Studies in the Physical and Biological Sciences 27(2): 319-56. En “Roger Revelle’s Discovery”. American Institute of Physics. http://www.aip.org/history/climate/Revelle.htm

[13] Intergovernmental Panel on Climate Change (1990): Policymakers Summary of the Scientific Assessment of Climate Change . Report to IPCC from Working Group 1, June 1990.

[14] Universidad de California, San Diego(1997) : Hans Suess Papers (1875 –1989). Background. http://orpheus.ucsd.edu/speccoll/testing/html/mss0199d.html [15] PNUMA/ORALC (2001): Declaración de Río de Janeiro sobre el Medio Ambiente y el Desarrollo, 1992 . Programa de Naciones Unidas para el Medio Ambiente. Oficina Regional para América Latina y el Caribe. http://www.rolac.unep.mx/docamb/esp/dr1992.htm

[16] United Nations Framework Convention on Climate Change (UNFCCC) (2004): Kyoto Protocol. Versión en español. Contiene una relación de los documentos de la Convención Marco para el Cambio Climático de Naciones Unidas. http://unfccc.int/essential_background/kyoto_protocol/background/items/1351.php [17] ThinkQuest (1997): Robert Angus Smith. The Enviroment: a Global Challenge. http://library.thinkquest.org/26026/People/robert_angus_smith.html

[18] Gallardo Alfredo, García Lilian (1999): Lluvia ácida. Secretaría de Medio Ambiente. México, Distrito Federal. www.sma.df.gob.mx/bibliov/modules. php?name=Downloads&d_op=getit&lid=72 [19] Ríos Jáuregui Annet (2005): Celebran 15 años de solidaridad humanitaria. Diario Granma. 30 de marzo de 2005. La Habana. http://www.granma.cubaweb.cu/2005/03/30/nacional/articulo08.html [20] www.chernobyl.info

[21] Geoscience Australia (2005): Query Nuclear Explosions Database. Australian Government. http://www.ga.gov.au/oracle/nukexp_form.jsp [22] Eklof Anders (2003): Rolf Sievert, the man and the unit. Karolinska Institute. Medical Radiation Physics History. Stockholm. Sweden. http://radfys.ki.se/sievert/Sievert.html

[23] Union of Concerned Scientists (2004): Scientific Integrity in Policymaking. http://www.ucsusa.org/global_environment/rsi/page.cfm?pageID=1642 [24] BCSIA (2003): Paul M. Doty. Director Emeritus, BCSIA; Mallinckrodt Professor of Biochemistry, Emeritus. Belfer Center for Science and International Affairs. John F. Kennedy School of Government. http://bcsia.ksg.harvard.edu/person.cfm?item_id=148&ln=full&program=COREB

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 31

CChhaarrlleess GGlloovveerr BBaarrkkllaa Nació el 7 de junio de 1877 en Widenes, y murió el 23 de octubre de 1944, a los 67 años, en Edimburgo, ambas localidades en el Reino Unido.

Ganador en 1917 del Premio Nobel en Física. (En 1916 el dinero del premio fue retenido y no se concedió en ese año)

Físico quien descubrió los rayos X característicos de los elementos.

Fuente: Wikipedia CHARLES GLOVER BARKLA (1877-1944)

Biografía Barkla estudió en la Universidad de Liverpool . En 1899, Barkla fue al Trinity College, Cambridge , gracias una beca de Exposiciones para trabajar en el Laboratorio Cavendish bajo las órdenes del científico Joseph John Thomson. Al final de un año y medio, su amor por la música le llevó a unirse al King's College, Cambridge, donde se unió a l coro de la capilla. Completó su licenciatura en artes en 1903, y luego obtuvo su grado de Magister en artes en 1907. Al parecer, no hay información segur a acerca de cuándo o dón de obtuvo un doctorado en Filosofía (Ph.D.), pero es sabe que grandes físicos como J.J. Thomson (el descubridor del electrón) y Oliver LodgLodgee fueron sus asesores de doctorad o. En 1913, después de haber trabajado en las UniversiUniversiddadesades de Cambridge y Liverpool, y el King's College de Londres, Barkla fue nombrado profesor de filosofía natural en la Universidad de Edimburgo, cargo que ocupó hasta su muerte. Barkla sese casó con Marí a Esther Cowell en 1907. Barkla logró progresos significativos en el desarrollo y perfeccionamiento de la leyes de dispersión de rayos X, espectroscopia de rayos X , los principios que rigen la transmisión de los rayos X a través de la materia y especialmente los principios de la excitación secundaria de rayos X. Por su descubrimiento de los rayos X característicos de los elementos, Barkla fue galardonado con el Premio Nobel de Física en 1917. También fue galardonado con la Medalla Hughes de la Real Sociedad Británica de ese mismo año «por sus investigaciones en relación con la radiación de rayos X». 1 Reconocimientos En su honor se bautizó al cráter Barkla de la Luna. Referencias 1. "for his researches in connexion with X-ray radiation". Plantilla:Cite ODNB • M.A. Shampo, R.A. Kyle (1993). «Charles Barkla —Nobel Laureate». Mayo Clinic Proceedings 68 (12): pp. 1176. PMID 8246619

CHARLES GLOVER BARKLA

Imágenes obtenidas de:

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 32

Físicos españoles resuelven el problema de los infinitos en las 4 dimensiones de Einstein

FUENTE: El Confidencial TOMADO DE: msn.noticias > 06/10/2016

© Externa

Un equipo de investigadores del Instituto de Física Corpuscular (IFIC) ha desarrollado un método que resuelve el problema de las dimensiones del espacio-tiempo en las teorías aplicadas al Gran Colisionador de Hadrones (LHC) y que permite mantener así las cuatro dimensiones que estableció Einstein. El método supone un cambio en cómo se obtienen predicciones teóricas de alta precisión con las que comp arar datos experimentales del LHC, simplifica los complejos cálculos para ello y resuelve uno de los problemas principales a los que se enfrentan los físicos de partículas a la hora de trasladar la teoría al experimento. Según explica el IFIC en un comunic ado, las teorías en las que se basan las predicciones con las que se comparan los datos del LHC del CERN, que han dado lugar a descubrimientos como el bosón de Higgs, están mal definidas en las cuatro dimensiones del espacio-tiempo de Einstein. EVITAR LA APARICIÓN DE INFINITOS. Para evitar la aparición de infinitos en los cálculos que arrojaban estas teorías se introdujeron nuevas dimensiones en un “truco matemático” que, sin embargo, no se corresponde con lo que se conoce del Universo. Ahora, un grupo de i nvestigadores del IFIC, centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universitat de València, ha desarrollado u n método que evita la aparición de esos infinitos y permite mantener la teoría en las cuatro dimensiones habitual es del espacio- tiempo. Los resultados se presentaron a principios del mes de agosto en la mayor conferencia de física de partículas del mundo, ICHEP 2016 de Chicago, y se han publicado en el “ Journal of High Energy Physics ”. El origen del problema reside e n que, desde el punto de vista teórico, se podrían producir partículas en las colisiones del LHC con energía cero, lo que, además, es distinto de no emitir ninguna partícula. Lo mismo ocurre cuando dos partículas se producen exactamente en la misma direcci ón, que resultan indistinguibles de una sola partícula. Otro de los problemas deriva de la necesidad de introducir correcciones cuánticas en los cálculos teór icos, lo que requiere extrapolar la validez de estas teorías hasta energías infinitas, jamás alcan zadas en un acelerador de partículas. Desde el punto de vista del experimento, estas situaciones resultan difícilmente aceptables y para la teoría, asumirlas conll eva la aparición de infinitos en las cuatro dimensiones del espacio -tiempo, el continuo que u ne los dos conceptos que estableció Einstein en su teoría de la relatividad especial. MEJORANDO UN “TRUCO” DE 1972 La solución que encontraron en 1972 los premios Nobel Gerardus Hooft y Martinus J.G. Veltman fue alterar las dimensiones del espacio-tiempo c on un método, conocido como Regularización Dimensional, para definir la teoría en un espacio -tiempo de más de cuatro dimensiones. Los infinitos que surgen en cuatro dimensiones aparecen entonces como contribuciones que dependen de la diferencia de dimensio nes con respecto a cuatro, un "truco matemático" para modelar esos infinitos en pasos intermedios de los cálculos para obtener predicciones imposibles de obtener de otro modo. Sin embargo, un grupo de investigadores del Instituto de Física Corpuscular, lid erado por el investigador del CSIC Germán Rodrigo, ha desarrollado un nuevo método que redefine la teoría evitando la aparición de infinitos, y que permite por tanto mantener la teoría en las cuatro dimensiones habituales del espacio -tiempo. El método se b asa en una correspondencia directa establecida entre distintos diagramas que propician la aparición de infinitos y que son utilizados por los físicos para representar las colisiones a muy altas energías entre partículas subatómicas que se producen en los g randes aceleradores como el LHC. La relación de correspondencia, desarrollada por los investigadores del IFIC en colaboración con el grupo de la Universidad d e Florencia que dirige Stefano Catani, se conoce con el nombre de “dualidad loop-tree” y unifica e stados cuánticos que para la teoría eran diferentes pero no desde el punto de vista experimental.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 33

88 ddee eenneerroo ddee 22001177::: 75º aniversario del natalicio del físico Stephen Hawking.

STEPHEN WILLIAM HAWKING (Oxford, Reino Unido, 8 de enero de 1942) El 8 de enero de 1942, nació en Oxford, Reino Unido, el físico teórico Stephen William Hawking.

A pesar de sus discapacidades físicas y de las progresivas limitaciones impuestas por la enfermedad degenerativa que padece actualmente, Stephen William Hawking es probablemente el físico más conocido entre el gran público desde los tiempos de Einstein. Luchador y triunfador, a lo largo de toda su vida ha logrado sortear la inmensidad de impedimentos que le ha planteado el mal de Lou Gehrig 1, una esclerosis lateral amiotrófica que le aqueja desde que tenía 20 años. Hawking es, sin duda, un caso particular de vitalidad y resistencia frente al infortunio del destino.

Ciertamente, Hawking no sólo es comparable con Albert Einstein por su popularidad: al igual que el formulador de la relatividad, Stephen Hawking se planteó la ambiciosa meta de armonizar la relatividad general y la mecánica cuántica, en busca de una unificación de la física que permitiese dar cuenta tanto del universo como de los fenómenos subatómicos.

En 1971 sugirió la formación, a continuación del big bang, de numerosos objetos denominados «miniagujeros negros», que contendrían alrededor de mil millones de toneladas métricas de masa, pero ocuparían sólo el espacio de un protón, circunstancia que originaría enormes campos gravitatorios, regidos por las leyes de la relatividad.

TODAVÍA NO HABÍAN SEÑALES EVIDENTES DE LA ENFERMEDAD.

1 Henry Louis "Lou" Gehrig (Nació el 19 de junio de 1903 y murió el 2 de junio de 1941, ambos momentos en Nueva York, EE. UU.). Fue un beisbolista conocido principalmente por el récord de 2.130 juegos consecutivos jugados que se mantuvo por 56 años y su trágico final debido a la enfermedad degenerativa que en Estados Unidos lleva su nombre (medicamente conocida como Esclerosis lateral amiotrófica); pero aparte de estos datos la figura de Gehrig acarrea una impecable carrera como bateador de poder, es considerado el mejor primera base del juego en la historia, es el jugador que fue el más votado en la elección del mejor jugador del siglo XX, el sexto mejor según la revista Sporting News y por su personalidad simple de hombre de familia, se ganó la estima de los fanáticos de los Yankees de Nueva York. LOU GEHRIG

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 34

FFrriittzz HHaabbeerr Nació el 9 de diciembre de 1868 en Breslavia, Polonia , y murió el 29 de enero de 1934 en Basilea, Suiza.

Ganador del Premio Nobel en Química en 1918. Por su desarrollo de la síntesis del amoniaco, importante para fertilizante s y explosivos. (El premio no fue concedido ni en 1916 ni en 1917)

FUENTES: Biografías y Vidas - Wikipedia

FRITZ HABER (1868-1934)

Químico de nacionalidad alemana, conocido por su desarrollo de un método económico de síntesis del amoníaco que permiti ó la fabricación a gran escala de abonos y fertilizantes nitrogenados. Su descubrimiento le valió el Premio Nobel de Química en 1918.

Fue discípulo de Liebermann y profesor en Karlsruhe y Berlín. Investigó sobre la combustión y la electroquímica. Desde 190 6 investigó acerca de la síntesis industrial del amoníaco, llevado a cabo por vía catalítica y a fuerte presión. En 1909, en colaboración con C. Bosch, descubrió un sistema de fijación del nitrógeno atmosférico en gran escala que permite obtener fácilmente amoníaco a partir de nitrógeno e hidrógeno con empleo de catalizadores (fundamentalmente hierro), método actualmente conocido como el proceso de Haber-Bosch. A partir de 1913 el amoníaco adquirió importancia en el proceso de fabricación a nivel mundial de abonos nitrogenados.

Hacia 1911 ocupó el cargo del recientemente fundado Instituto Kaiser Wilhelm de Química y Física, en Berlín-Dahlen. Durante la Primera Guerra Mundial participó en el proceso de fabricación de explosivos en Alemania y en el control cie ntífico de la guerra química germana, diseñando máscaras de gas y otros medios de defensa contra las armas bélicas de los aliados. En 1933 dimitió del puesto que ocupaba y emigró en protesta contra el antisemitismo. Trabajó en Cambridge y murió mientras vi ajaba a Israel, donde le esperaba una plaza de investigación.

FRITZ HABER

Imágenes obtenidas de:

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 35

Deshielo descubre los fósiles más antiguos de la Tierra FUENTE: ecoticias.com Tomado de: msn > Miércoles, 05 de Octubre de 2016 EL DERRETIMIENTO DE ALGUNAS DE LAS ZONAS DE “HIELOS ETERNOS” POR EFECTO DEL CALENTAMIENTO GLOBAL PODRÍA EXPONER A LA LUZ MÁS MINERALES Y DAR NUEVAS PAUTAS A LOS CIENTÍFICOS ACERCA DE LA HISTORIA DE LA TIERRA.

Los científicos encuentran los que podrían ser los fósiles más antiguos conocidos hasta la fecha, a consecuencia del deshielo producido por el Calentamiento Global. Se trata de una roca con estromatolitos, estructuras en capas pequeñas de hace 3,7 millones de años, que son los restos de una comunidad de microbios que vivían allí.

LOS MÁS ANTIGUOS. La primera evidencia fósil de la vida en la Tierra se ha encontrado entre unas rocas de casi cuatro mil millones de años que quedaron al descubierto al derretirse parte del hielo en Groenlandia, producto del calentamiento global que experimenta nuestro planeta. Los científicos creen que este descubrimiento eleva las posibilidades de que exista o haya existido vida en Marte hace muchos eones atrás, cuando ambos planetas tenían condiciones climáticas similares y el agua del planeta rojo era líquida. Los expertos encontraron pequeñas jorobas, de entre uno y cuatro centímetros de altura sobre las rocas en el área de Isua situada al sur oeste de Groenlandia, que identificaron como restos de grupos de microbios fósiles, similares a los que se encuentran en la actualidad en los mares y océanos, desde Bermudas hasta Australia. A diferencia de los huesos de los dinosaurios, en este tipo de fósiles no se conservan los restos de una antigua criatura, sino que son algo así como montículos de minerales que tienen unos pocos centímetros de espesor y que pueden haber sido depositados por algunos microbios, mucho tiempo después de que se formó la Tierra.

UNA NUEVA VISIÓN DE LA HISTORIA. Si se confirman los primeros datos, estas comunidades fosilizadas de bacterias conocidas como estromatolitos habrían vivido en etapas muy anteriores a las de los encontrados en Australia, que hasta ahora se creían eran la evidencia más temprana de la vida en la Tierra y fuero pre datados con una antigüedad 220 millones de años. Una explicación muy práctica de qué es lo que sucedió hace miles de años, pide a los interesados que imaginen el fondo del mar, un sitio profundo y apenas habitado hace casi 4 millones de años: allí comenzó la lenta formación de los estromatolitos. El gobierno de Groenlandia trata de ser optimista ya que el derretimiento de algunas de las zonas de “hielos eternos” por efecto del Calentamiento Global podría exponer a la luz más minerales y dar nuevas pautas a los científicos acerca de la historia de la Tierra.

UN LARGO ESTUDIO. El profesor Allen Nutman ha estado investigando las antiguas formaciones rocosas en el Cinturón Supercrustal en Isua durante más de 30 años, a sabiendas de que las rocas contienen una firma única de carbono, pero hasta ahora, no estaba claro si el nuevo descubrimiento había sido creado por antiguas formas de vida o cambios en la roca causada por el calor y la presión. Durante una de sus visitas a la zona hace cuatro años, el equipo encontró un nuevo afloramiento que había quedado a la vista por el derretimiento de la nieve del verano.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de En ero de 2017 36

SSTTEEVVEEN ORSSZZAAGG

Imágenes obtenidas de:

Nació el 27 de Febrero de 1943 en Manhattan, Ciudad de Nueva York y murió el 1º de Mayo de 2011 en New Haven,Haven, Connecticut; am bas localidades en EE. UU.

El padre de , J oseph Orszag era abogado. La familia era judía y originalmente de Hungría , de donde eran los abuelos paternos de Steven, Alex y Regina Orszag. Alex (nacido en 1876) y Regina (nacid a en 1886) emigraron a Estados Unidos en 1903 y se establecieron en Manhatta n, Nueva York. Joseph , nacido en Nueva York el 4 de febrero de 1910, fue el tercero de los hijos de Alex y Regina. Joseph se casó con Ros e (nacida el 26 de julio de 1909) y su hijo Steven nació en Manhattan , aunque fue criado en Forest Hills, una zona resi dencial de Queens, Nueva York, donde asistió a la escuela secundaria de Forest Hills. En 1959 fue uno de los nueve ganadores del Examen Preliminar para Escribanos de la Sociedad de Actuarios. Cuando tomó el examen, Orszag estaba todavía en la escuela secun daria de Forest Hills, pero los otros ocho ganadores eran de much a más edad que él y además, universitarios. Comienza sus estudios en el Massachusetts Institute of Technology (MIT) en 1959, con sólo dieciséis años, obtuvo la licenciatura en 1962. A los diecinueve años de edad, viajó rumbo a Inglaterra, donde p ermaneció el año académico 1962 -1963 estudiando en el Colegio Universitario San Juan de la Universidad de Cambridge. Al r egresar a los Estados Unidos, comenzó en 1963 sus estudios de posgrado en la Uni versidad de Princeton. Su tutor de tesis fue Martin David Kruskal quien fue profesor de Astronomía en Princeton, pero cuando Orszag comenzó sus estudios de posgrado, Kruskal era también miembro del proyecto Matterhorn, que hoy se conoce como el Laboratorio de Física de Plasma de Princeton. Orszag completó su tesis doctoral Theory of Turbulence (Teoría de la turbulencia) en tres años y obtuvo su doctorado en 1966. Orszag, en colaboración con su tutor de tesis, publicó un libro en 1966 con el mismo título que su tesis. Aun antes de comenzar a realizar investigaci ones en Princeton, se había comprometido con Reba Karp; el anuncio de l compromiso apareció en el New York Times el 25 de agosto de 1963. Reba, hermana de Joel Karp, era hija de Gertrude Herskowitz y J ack Karp. Steven y Reba se casaron el 21 de junio de 1964; tuvieron tres hijos , J. Michael Orszag, Peter Richard Orszag y Jonathan Marc Orszag. Peter Orszag se graduó de economista y sirvió de consejero al Presidente Clinton, luego como director de presupuesto del Presidente Obama. En 1967 Orszag fue nombrado profesor de matemáticas aplicadas en el Massachusetts Institute of Technology. En el MIT tuvo como colega a Carl M. Bender y juntos colaboraron en un curso de posgrado de matemáticas durante siete años . Bender dijo [referencia 3]: [El curso] fue tan popular que muchos estudiantes de Harvard también lo tomaron. Un curso tan bueno como ese realmente no lo ofrecían en Harvard. Las notas de las lecciones de clase del curso fueron publicadas como libro de te xto, Advanced mathematical methods for scientists and engineers : Asymptotic Methods and Perturbation Theory (Métodos matemáticos avanzados para científicos e ingenieros: Métodos Asintóticos y Teoría de la Perturbación ) (1978). Vadim Komkov escribe en un informe: Este libro no es el texto habitual de "métodos matemáticos para ingenieros", que podría contener, según el gusto de su autor, casi cualquier tema de nivel elemental o intermedio de análisis, álgebra lineal, análisis numérico, teoría de juegos, teorí a de sistemas, análisis funcional, probabilidad, estadística o incluso lógica, generalmente con poca cohesión entre las diferentes partes de la mezcla. Aquí los autores pretenden introducir al alumno de ingeniería o física a la asintótica y al análisis de perturbación, concentrándose específicamente en la obtención de respuestas a problemas que se plantean en la física. ... Este libro contiene una gran cantidad de problemas resueltos y de técnicas para aproximar a soluciones exactas. Es un texto adecuado pa ra un curso de "temas", pero es una valiosa adición a la biblioteca de cualquier matemático aplicado que esté practicando su arte para tratar de resolver problemas de física. Chambers escribe en un informe en La Gaceta Matemática (The Mathematical Gazette) [referencia 1]:

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 37

El título de este volumen es un poco engañoso en lo que los temas discutidos son soluciones analíticas aproximadas de ecuaciones diferenciales ordinarias y ecuaciones de diferencias, y otros temas no son considerados. ... Este es un libro muy bueno. El texto se lee bien y, como dice el eslogan, "este libro hace hincapié más en el cuidado que en el rigor". Hay muchos ejemplos y ejercicios, y un rasgo de bienvenida es la gran cantidad de diagramas que comparan las soluciones aproximadas con las soluciones conocidas de algunos de los problemas discutidos. El lector se divertirá por la cita al principio de cada capítulo de Sherlock Holmes, aunque la importancia exacta no siempre es obvia. El libro se produjo, y seguramente será de gran utilidad para los interesados en estos asuntos. Los autores no esperan que sea un libro similar a otro sobre soluciones aproximadas de ecuaciones diferenciales parciales. Más de veinte años después de haber sido publicado, el libro fue reimpreso en 1999. A. D. Wood, después de haber revisado la reimpresión, escribe en un informe: Este es un libro que ha resistido la prueba del tiempo y no puedo sino apoyar las observaciones del revisor original. Está escrito en un estilo fresco y vivaz y los gráficos y tablas, comparando los resultados de métodos exactos y aproximados, fueron avanzados a su tiempo. Tengo una copia del original desde hace más de veinte años, usándola de forma regular y, después que el original dejó de imprimirse, lo prestaba a mis alumnos de investigación. Springer-Verlag ha hecho un gran servicio a los usuarios y a los investigadores, en asintóticas y teoría de la perturbación, al reimprimir este clásico. Carl Bender habló sobre su antiguo colega del MIT [referencia 3]: Orszag estaba comprometido con estudiantes de diferentes niveles de talento matemático. Fue trepidante. Había que correr para mantenerse al día con él. Pero también fue cálido, paciente y humilde en momentos inesperados. En 1984 regresó a la Universidad de Princeton cuando se le dio el cargo de Profesor Hamrick E. Forrest de Ingeniería. Allí permaneció durante catorce años antes de trasladarse a Yale donde fue nombrado en 1998. Fue Profesor Percey F. Smith de Matemáticas en Yale desde el 2000 hasta su muerte en 2011. Antes de examinar brevemente las contribuciones de Orszag, hay que describir el campo en el cual trabajó [referencia 4]: Comprender los flujos turbulentos es un "gran desafío" comparable a otros problemas científicos prominentes, tales como la estructura a gran escala del universo y la naturaleza de las partículas subatómicas. En contraste con muchos otros grandes retos, el progreso de la teoría básica de la turbulencia se traduce casi inmediatamente en una amplia gama de aplicaciones de ingeniería y los avances tecnológicos que afectan a muchos aspectos de la vida cotidiana. La predicción numérica de flujos de fluidos está en el corazón de entender y modelar la turbulencia. Sin embargo, tales simulaciones de dinámica de los fluidos computacional desafían las capacidades de los algoritmos y las supercomputadoras más rápidas disponibles. Cuando fue nombrado Profesor de la Cátedra Percey F. Smith, sus logros de investigación fueron descritos como sigue [referencia 7]: Steven A Orszag, el nuevo Profesor Percey F. Smith de Matemáticas, se especializa en las áreas de dinámica de los fluidos computacional, la teoría de la turbulencia y el análisis numérico. Él es también conocido por su trabajo en matemáticas aplicadas, y su investigación ha tenido un impacto en la aeronáutica, el pronóstico del clima y el chip electrónico de la industria manufacturera. En las áreas de dinámica de los fluidos computacional, alcanzó las primeras simulaciones exitosas por computadora de flujos turbulentos tridimensionales. Él también desarrolló los métodos que proporcionan una teoría fundamental de la turbulencia. Otro interés de investigación primaria ha sido el desarrollo de técnicas para la simulación de procesos, algunas de las cuales se han aplicado ampliamente en toda la industria de fabricación de chip electrónico. Ya se han dado detalles de su libro Advanced Mathematical Methods for Scientists and Engineers (1978), pero al mismo tiempo también publicó, en colaboración con David Gottlieb, Numerical Analysis of Spectral Methods: Theory and applications (Análisis Numérico de Métodos Espectrales: Teoría y Aplicaciones) (1977). En esto los autores presentan: ... una discusión unificada de la formulación y análisis de métodos especiales de problemas del valor-límite inicial mixto. El foco está en el desarrollo de una nueva teoría matemática que explica por qué y cómo funcionan los métodos espectrales. Al incluirlos, son interesantes extensiones del clásico análisis numérico. Las contribuciones de Orszag a esta área se evidencian en perspectiva en [referencia 5]: Los "Métodos espectrales son muy divertidos," observa Michel Deville, profesor de l'École Polytechnique Fédérale de Lausanne, Suiza. "Siempre es un nirvana numérico cuando - por primera vez - se observa que agregar uno o dos polinomios a una base hace que el error para problemas fáciles descienda hasta en un factor de 50 o incluso 100". Los Métodos Espectrales no siempre han llegado para tales elogios. Aunque originarios de principios del siglo XX por el trabajo de Galerkin y Lanczos y puesto en uso limitado por los meteorólogos en la década de 1950, los métodos espectrales entraron por sí mismos como una poderosa herramienta para la computación científica sólo con el advenimiento de la rápida transformada de Fourier. En la década de 1970, en una serie de documentos de referencia, Steven Orszag demostró que podían utilizarse métodos espectrales y los métodos pseudospectrales estrechamente relacionados, para simular la turbulencia incompresible con modos de Fourier N 3 a un costo O (N 3logN) de operaciones por lapso de tiempo con cero dispersión numérica y disipación. En un cómputo histórico, Orszag y su colega G. S. Patterson emprendieron el primer cálculo de turbulencias isotrópicas homogéneas en laboratorio con números de Reynolds con una discretización pseudospectral de 32 3. ... En 1977, la monografía de SIAM 'Numerical Analysis of Spectral Methods: Theory and Applications', Gottlieb y Orszag presentaban la primera descripción unificada del campo, con énfasis en el análisis numérico y consideraciones algorítmicas.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 38

Además de estos libros, Orszag fue el editor de un número de libros: Los superordenadores y la dinámica de fluidos (1986) (editor en conjunto con K. Kuwahara y Raúl Méndez); Supercomputación japonesa: Arquitectura, algoritmos y aplicaciones (1988) (editor con Raúl H. Méndez); y Simulación de Remolinos Grandes de Ingeniería Compleja y Flujos Geofísicos (1993) (editor con Boris Galperin). El editor, Cambridge University Press, describe esta última obra como sigue: ... este libro fue el primero en ofrecer una revisión exhaustiva de las simulaciones de remolinos grandes (SRG) - la historia, el estado del arte, y direcciones prometedoras para la investigación. Entre los temas tratados están fundamentos de SRG; SRG de los flujos incompresibles, compresibles y reacción de flujos; SRG de las corrientes atmosféricas, oceánicas y ambientales; y SRG y computación paralela masivamente. El libro surgió de un taller internacional que, por primera vez, reunió a destacados investigadores en ingeniería y Geofísica para discutir avances y aplicaciones de los modelos SRG en sus respectivos campos. Será de valor para cualquiera que tenga interés en el modelado de turbulencia. Orszag publicó más de 400 artículos en su carrera, así como hacer seis solicitudes exitosas de patente. Entre los honores que recibió por sus aportes se puede mencionar el Premio del Instituto Americano de Aeronáutica y Fluidos Astronáuticos y Plasma dinámicos, recibido en 1986. Fue becario John Simon Guggenheim en 1989 y en 1991 recibió el Premio Otto Laporte de la Sociedad Física Americana. La sociedad de Ciencia de la Ingeniería le otorgó la Medalla G. I. Taylor en 1995. Fue nombrado Autor Citado Altamente en ISI por la página Web ISI del Conocimiento. Murió de leucemia linfática crónica a la edad de sesenta y ocho. Su colega en Yale, John Wettlaufer, le rindió este homenaje [referencia 2]: Steve fue pionero en computación de alto rendimiento de matemática aplicada y computacional y más recientemente, nuevos enfoques para la educación matemática. Vastas áreas del paisaje de pensamiento han perdido un pensador brillante y un consejero sabio. Wettlaufer también rindió homenaje a Orszag [referencia 3]: Era un matemático increíblemente talentoso. Pero al mismo tiempo probablemente era una de las personas más generosas con las que he trabajado.

Referencias.- Artículos: 1. Ll G Chambers, Review: Advanced mathematical methods for scientists and engineers, by Carl M Bender and Steven A Orszag, The Mathematical Gazette 63 (424) (1979), 139-140. 2. In memoriam: Steven Alan Orszag, Yale Daily Bulletin (2 May 2011). 3. J Jung, Former mathematics professor Steven Orszag GS '66 passes away at 68 years old, The Daily Princetonian (6 May 2011). 4. G Em Karniadakis and S A Orszag, Nodes, Modes and Flow Codes. Massively parallel supercomputers seem the best hope for achieving progress on 'grand challenge' problems such as understanding high-Reynolds-number turbulent flows, Physics Today (March 1993), 34-42. 5. New Perspectives for Spectral and High-Order Methods, SIAM News 37 (10) (2004), 1-3. 6. T Stephenson, Percy F Smith Professor of Mathematics Orszag dies, Yale Daily News (4 May 2011). 7. Steven Orszag appointed the new Percey F Smith Professor of Mathematics, Yale Daily Bulletin 29 (10) (10 November 2002). 8. B Weber, Steven Orszag, Pioneer in Fluid Dynamics Study, Dies at 68, New York Times (7 May 2011). 9. Yale math professor Steven Orszag dies at 68, New Haven Register (2 May 2011).

Versión en español por R. Ascanio H. del artículo en inglés de J. J. O’Connor y E. F. Robertson sobre “Steven Orszag” (Julio 2011). Fuente: MacTutor History of Mathematics [http://www-history.mcs.st-andrews.ac.uk/Biographies/Orszag.html]