homotecia no. 3-12 marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfhomotecia nº 3 – año...

37

Upload: others

Post on 03-Mar-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES
Page 2: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES
Page 3: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1

CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES. La UNESCO estableció mediante el Principio de no discriminación, el que “Todos los seres humanos deben tener acceso a la educación, tanto de derecho como de hecho” (1960). Con base en este principio, se crea en Ginebra (Suiza) en 1968 la fundación educativa Bachillerato Internacional® (BI), una organización sin fines de lucro. El BI tiene como objetivo ofrecer una educación de calidad para construir un mundo mejor, tal como lo manifiestan en la declaración de sus principios fundamentales. Consiste en la aplicación de tres programas distintos que abarcan desde la educación inicial hasta la preuniversitaria; estos son: El Programa de Educación Primaria (PEP), donde participan estudiantes con edades comprendidas entre los 3 y 10 años de edad; el Programa de los Años Intermedios (PAI), para estudiantes entre 11 y 16 años; y el Programa del Diploma (PD), para estudiantes entre los 17 y 19 años, cada uno con la misma filosofía: Construir un Mundo Mejor pero siguiendo diferentes estrategias para conseguirlo. El Programa de Educación Primaria (PEP) busca el desarrollo integral del niño y de su capacidad para investigar y descubrir, tanto en clase como en su entorno en general. El PEP compendia varias asignaturas, de características interdisciplinarias de importancia global, donde se fomenta la exploración y desarrollo de habilidades haciendo hincapié en el uso de la indagación como método de aprendizaje. Es lo suficientemente flexible como para dar cabida a los requisitos de la mayoría de los currículos nacionales o locales, y ofrece a los alumnos la mejor preparación para continuar sus estudios en el Programa de los Años Intermedios. En cuanto al Programa de los Años Intermedios (PAI) del BI, proporciona un marco para el aprendizaje que anima a los alumnos a convertirse en pensadores creativos, críticos y reflexivos; hace más empeño en el desarrollo del intelecto y el desafío al mismo. Busca que el aprendizaje sea holístico y significativo, y que el alumno relacione lo aprendido a la realidad que lo rodea. “Fomenta el desarrollo de habilidades comunicativas, el entendimiento intercultural y el compromiso global, cualidades esenciales en el siglo XXI”. [Guía: El Programa de los Años Intermedios: de los principios a la práctica. (2008) (p. 2)]. El Programa del Diploma (PD) del BI, es un programa educativo riguroso y equilibrado con exámenes finales que constituye una excelente preparación para la universidad y la vida adulta; el mismo está concebido para trabajar todas las dimensiones del estudiante, ya sea en los ámbitos social, emocional, intelectual y físico buscando siempre el enriquecimiento y el bienestar del estudiante. Estos programas pedagógicos ofrecidos por el BI, son sometidos cada cierto tiempo a un proceso de autoevaluación y evaluación por parte de todas las instituciones educativas que a nivel mundial lo han implementado, donde participa todo el recurso humano, desde el personal directivo hasta el de mantenimiento, e incluso también lo hacen evaluadores externos provenientes de otras instituciones nacionales o internacionales ligados al BI. En el caso de la evaluación externa del Programa para los Años Intermedios (PAI), este es uno de los más complejos, ya que está organizado de manera tal que los discentes utilicen los conocimientos adquiridos para la mejora de su comunidad. También que sean capaces de analizar cada contenido dado en clases y crear en conjunto con los docentes de cada asignatura un aprendizaje holístico donde cada área de estudio esté relacionada con las otras. La autoevaluación del PAI es exhaustiva siguiendo el formato propuesto por el BI, llevando paso por paso cada aspecto exigido por la organización. En las instituciones donde se ha implementado y se realizan las autoevaluaciones, semanalmente se hacen sesiones de planificación o evaluación donde los profesores que laboran entre sexto grado y tercer año de bachillerato evalúan las distintas normas seleccionadas por la organización, un formato de aproximadamente cincuenta y dos páginas. También en esta evaluación se deben anexar el currículo de cada asignatura desde sexto grado hasta tercer año, la boleta del área del ser, así como las planificaciones horizontales y verticales de las mismas. Otros de los documentos corresponde a la política lingüística de evaluación y necesidades educativas especiales de cada institución. Estas políticas se van redactando y construyendo desde el momento que cada plantel decide implementar el Bachillerato Internacional en sus aulas. Como se puede detallar, el BI es una referencia para producir una educación de calidad donde además se fomentan y se practican valores. Son sugerencias importantes a seguir dentro del proceso educativo nacional si queremos mejorar como sociedad y como país.

NINA BARI

(1901 – 1961)

Nació el 19 de noviembre de 1901, y murió el 15 de julio de 1961, ambos momentos en Moscú, Rusia.

Los padres de NINA KARLOVNA BARI fueron Olga Eduardovna Seligson y Karl Adolfovich Bari. Karl Adolfovich era médico. Nina Karlovna fue educada en una escuela privada, la escuela secundaria para señoritas L. O. Vyazemska de Moscú dónde ella mostró gran potencial para las matemáticas. En esa época, la educación disponible para las niñas en Rusia era de menor calidad que la ofrecida a los chicos y, en consecuencia, los exámenes finales para las niñas eran de un nivel inferior que el de los varones. Sin embargo, Bari quería mostrar su habilidad en matemáticas así que tomó la inusual determinación de presentar los exámenes aplicados a los muchachos. Después de darse la revolución rusa a partir de octubre de 1917, el partido bolchevique introdujo importantes reformas educativas, la más relevante para Bari fue que por primera vez se abrieran las universidades tanto para las mujeres como para los hombres. Antes de la revolución, las mujeres que querían seguir formándose asistían a instituciones como el Colegio Universitario para Mujeres de Moscú. El año 1918 fue el primero en el cual se permitió la entrada a las mujeres a la Universidad Estatal de Moscú, coincidiendo con el momento en que Bari reunía todos los requisitos para entrar. De hecho, la Universidad había sido cerrada durante la interrupción causada por la revolución, siendo reabierta en 1918. Ella entró a la Facultad de Matemáticas y Física de dicha universidad, en un momento cuando la institución se estaba convirtiendo en un entorno sumamente vigoroso para la investigación.

En la escuela de matemáticas de Moscú, Bari estuvo bajo la orientación de Nikolai Nikolaevich Luzin pero este era sólo uno de los varios matemáticos de clase mundial que enseñaban en la universidad en aquel momento, incluyendo a Sergei Alekseevich Chaplygin, Dimitri Fedorovich Egorov, Vyacheslaw Vassiliévitch Stepanov y Nikolai Egorovich Zhukovskiy. Entre los estudiantes de pregrado estaba Pavel Samuilovich Urysohn cursando su último año de estudio y seguía siendo parte del grupo de investigación de la escuela de matemáticas. Este grupo de matemáticos fuertes, que los estudiantes llamaron 'Luzitania', estuvo acompañado por Pavel Sergeevich Aleksandrov en 1920 [4]:

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Reflexiones "Todos los medios son buenos cuando son eficaces".

Jean Paul Sartre

Page 4: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 2

(VIENE DE LA PÁGINA ANTERIOR)

Los años como estudiante de Nina Bari coincidieron con el rápido crecimiento de la escuela de matemática de Moscú, lo cual se debía a la gran influencia del florecimiento subsecuente de la matemática en toda la Unión Soviética. Este fue el período de desarrollo intensivo de la escuela de variable real de Moscú, encabezada por Luzin N. N., bajo cuya orientación Nina Bari empezó su trabajo matemático mientras todavía era estudiante. De hecho, fue entonces la primera que comenzó a estudiar el problema de la singularidad para la serie trigonométrica.

Para ver por qué fue tan exitoso el grupo 'Luzitania', hay que detallar los comentarios que Aleksandrov hizo sobre esta época:

Ver a Luzin en aquellos años era ver una muestra de lo que se denomina una relación inspirada en la ciencia. No sólo aprendí matemáticas de él, sino también recibí una lección de lo que debe hacer un verdadero erudito y lo que un profesor universitario puede y debe ser. Entonces, también, vi que la búsqueda de la ciencia y la lluvia de jóvenes sobre ella son dos facetas de una misma actividad – la de un erudito.

Bari se graduó en 1921, y habiendo completado los estudios de cuatro años en sólo tres años, se convirtió en la primera mujer en graduarse de la Universidad Estatal de Moscú. Comenzó a enseñar matemáticas en varias instituciones, tales como el Instituto de Silvicultura de Moscú, el Instituto Politécnico de Moscú y el Instituto Comunista Sverdlov. Sin embargo, su objetivo era convertirse en profesor universitario y haber probado la emoción de 'Luzitania' mientras era estudiante, solicitó una beca de investigación. Ella se ganó una de un número pequeño de becas disponibles y se unió al Instituto de Investigación de Mecánica y Matemática de la Universidad Estatal de Moscú. Bari inició una investigación en el Instituto, con Luzin como su asesor de tesis, pero continuó desempeñando sus cargos docentes. Realizó investigaciones sobre la teoría de series trigonométricas y sus principales resultados fueron anunciados en su primer papel de trabajo: Sur l'unicite du developpement trigonometrique publicado por la Académie des Sciences de París en 1923. En el mismo año presentó estos resultados en una conferencia de la sociedad matemática de Moscú (convirtiéndose en la primera mujer en dirigirse a los miembros de esta sociedad).

Además del apoyo de Luzin, ella fue sólida orientación por Dmitrii Evgenevich Menshov que había llevado a cabo investigaciones con Luzin pero regresó a la Universidad Estatal de Moscú como conferencista en 1922. La Tesis de Bari, On the uniqueness of trigonometric expansions, la presentó en 1925 y se le otorgó el grado correspondiente luego de defenderla en enero de 1926.

La calidad excepcional de esta tesis llevó a ser galardonada con el premio Glavnauk. Después de esto, Bari se convirtió en asistente de investigación en el Instituto de Mecánica y Matemáticas de Moscú. Además publicó en 1926 los artículos, Sur la representation analytique d'une classe de fonctions continues y (con D. E. Menshov) es decir Sur la representación analítica d ' une classe de fonctions continúa y (con D E Menshov) Sur l'integrale de Lebesgue-Stieltjes et les functions absolument continues, los cuales tuvieron la distinción de también aparecer en las publicaciones de la Académie des Sciences.

En 1927 publicó pruebas detalladas de los resultados de su tesis los cuales ella había anunciado en su primer artículo [4]:

Ya el primer trabajo de Nina Bari evidenció su gran talento matemático, puesto que incluía la solución de varios problemas muy difíciles sobre la teoría de la serie trigonométrica en los cuales últimamente habían comprometido su atención muchos matemáticos sobresalientes.

Durante 1927-1929 permaneció en la Sorbona y en el Collège de France de París, asistiendo a las conferencias de Jacques Hadamard. Después de asistir al Congreso Matemático Polaco en Lvov, también asistió al Congreso Internacional de Matemáticos en Bolonia en 1928 en el cual dio la Conferencia Sur la structure analytique d'une fonction continue arbitraire. Posteriormente se le otorgó una beca Rockefeller que financió una segunda visita por un año a París. En 1929 regresó a la Universidad Estatal de Moscú donde se convirtió en profesor titular en 1932. Tres años más tarde recibió el equivalente de un doctorado en ciencias físico-matemáticas. Este grado, que normalmente se concedía tras presentar una tesis, fue otorgado a Bari sin el requisito de tesis [4]:

... puesto que ya era reconocida como uno de los principales matemáticos especializados en la teoría de funciones de una variable real.

El año en el que Bari se graduó en la Universidad Estatal de Moscú, Viktor Vladmirovich Nemytski ingresó a la Universidad para leer las matemáticas. Se convirtieron en amigos íntimos compartiendo no sólo sus intereses matemáticos, sino también un amor por la práctica de senderismo de montañas. Finalmente se casaron. La vigorosa escuela de la Universidad Estatal de Moscú encabezada por Luzin comenzó a expandirse en los últimos años de la década de 1920 cuando él se concentró en escribir monografías. Dejó la Universidad en los años 30 para trabajar en la Academia de Ciencias de la URSS y desde 1935 dirigió el Departamento de la Teoría de Funciones de Variable Real en el Instituto Steklov. Esta permitió a Bari y a Menshov asumir el liderazgo de la Escuela de la Teoría de Funciones, lo que hicieron hasta la década de 1940.

Bari fue un investigadora matemática excepcional quien escribió más de cincuenta artículos de investigación. Los autores de la referencia [4] escriben:

Nina Bari fue uno de los líderes reconocidos de la Escuela Soviética de la Variable Real y un digno representante de esta disciplina en la Universidad de Moscú, con la cual está tan estrechamente asociada. Sus numerosos trabajos ejercieron una gran influencia en el desarrollo de estas ramas fundamentales de la teoría de funciones como la teoría de series trigonométricas, series ortogonales y bases, etc. Varias de sus investigaciones son con razón consideradas como clásicos, por ejemplo sus trabajos sobre la teoría de la singularidad para series trigonométricas y las superposiciones de funciones. ... una serie de sus trabajos, por ejemplo aquellos sobre la teoría de la unicidad y sobre las bases, han servido como puntos de partida para nuevas líneas de investigación en la teoría de funciones, posteriormente intensivamente desarrolladas...

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 5: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 3

(VIENE DE LA PÁGINA ANTERIOR)

Es de mencionarse en particular su artículo The uniqueness problem of the representation of functions by trigonometric series (en ruso) que publicó en 1949. Antoni Zygmund lo describe como:

... una revisión exhaustiva, en muchos casos acompañada de pruebas completas, de los resultados existentes en la teoría de la singularidad de la representación de funciones mediante series trigonométricas.

Este artículo fue traducido al inglés y fue publicado como un libro de 90 páginas por la Sociedad Matemática Americana en 1951. En la referencia [1], su publicación final, una monografía de investigación de 936 páginas sobre series trigonométricas, se describe como sigue:

La gama y profundidad de los temas es bastante extensa, y se incluye la mayor parte de su trabajo en el campo. Pero incluso siendo una amplia monografía, el tema parece no estar completamente agotado. ... Se ha convertido en una referencia estándar para los matemáticos especializados en la teoría de funciones y la teoría de series trigonométricas.

Los quince capítulos del libro son: Conceptos Básicos y Teoremas; Coeficientes de Fourier; Convergencia de una serie de Fourier en un punto; Serie de Fourier de Funciones Continuas; Convergencia y Divergencia de una Serie de Fourier en un conjunto; "Corrigiendo" una función en un conjunto de medida pequeña; Sumabilidad de Series de Fourier; Serie Trigonométrica Conjugada; Convergencia Absoluta de la Serie de Fourier; Serie de Seno y Coseno con la disminución de los coeficientes; Serie Lacunary; Convergencia y Divergencia de series trigonométricas generales; Convergencia absoluta de series trigonométricas generales; El problema de la singularidad de la expansión de una función en una serie de funciones trigonométricas; y la representación de funciones mediante series trigonométricas.

Bari también escribió libros de texto para su uso en la enseñanza de institutos de capacitación como Álgebra Superior (1932) y la Teoría de Serie (1936). Ella Editó la obra completa de Luzin y fue la editora de dos revistas de matemáticas importantes. También tradujo el libro famoso de Lebesgue sobre integración al ruso.

Murió al caer frente a un tren en el Metro de Moscú. Se ha alegado que esto fue un suicidio debido a la depresión causada por la muerte de Luzin once años antes. Uno de sus alumnos, P. L. Ul'yanov, escribió después de su muerte [1]:

La prematura muerte de N. K. Bari es una gran pérdida para las matemáticas soviéticas y una gran desgracia para todos los que la conocían. La imagen de Bari como una persona sencilla y animada con una reserva inagotable de alegría permanecerá para siempre en los hogares de todos los que la conocieron.

Finalmente se tienen indicios de su personalidad y sus intereses fuera de las matemáticas. Ya se ha mencionado su amor por el senderismo que realizó en terrenos difíciles en montañas del Cáucaso, Pamir y Tian Shan. Su amor por la música y las artes incluyendo el ballet, literatura y poesía. Mikhail Lavrentev y L. A. Lyusternik escriben de ella [3]:

... temperamento vivaz, franca, con una inagotable fuente de vigor joven...

Referencias.-

1. D. E. Cameron y J. Spetich, Nina Karlovna Bari, in L. S. Grinstein and P J Campbell (eds.), Women of Mathematics (Greenwood, Westport, Conn., 1987), 6-12.

2. V. Geris, A remark on the works of N K Bari on biorthogonal systems and bases in Hilbert space (Russian), Dokl. Akad. Nauk SSSR 200 (1971), 1018-1019.

3. M. A. Lavrentev y L. A. Lyusternik, Nina Karlovna Bari (en ruso), Uspekhi matematicheskikh nauk 6(6) (1951), 184-185. 4. D. E. Menshov, S. B. Stechkin y P. L. Ul'yanov, Nina Karlovna Bari - Obituary, Russian Mathematical Surveys 17 (1) (1962), 119-127. 5. V. S. Videnskii, 'Take Baire, Bari ...' (on the centenary of the birth of N K Bari) (en ruso), Istor.-Mat. Issled. (2) 7 (42) (2002), 149-159;

367.

Versión en español por R. Ascanio H. del artículo en inglés de J. J. O’Connor y E. F. Robertson sobre “Nina Bari” (Mayo 2010).

FUENTE: MacTutor History of Mathematics [http://www-history.mcs.st-andrews.ac.uk/Biographies/Bari.html]

Imágenes obtenidas de:

NINA BARI

Page 6: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 4

CCOONNMMEEMMOORRAACCIIÓÓNN DDEELL DDÍÍAA DDEE LLAA MMUUJJEERR:: 88 ddee MMaarrzzoo

Compartido en Facebook por Jenny Osío – Doctorado en Educación UC.

Fuente: COLECTIVO DIGNIDAD - Marzo 2013.

UUNNAA TTRRAAGGEEDDIIAA DDEEBBIIÓÓ OOCCUURRRRIIRR PPAARRAA QQUUEE EELL MMUUNNDDOO

TTOOMMAARRAA CCOONNCCIIEENNCCIIAA DDEELL VVAALLOORR DDEE LLAA MMUUJJEERR CCOOMMOO AARRTTEE YY PPAARRTTEE EESSEENNCCIIAALL YY FFUUNNDDAAMMEENNTTAALL DDEE LLAA SSOOCCIIEEDDAADD EENN

QQUUEE VVIIVVIIMMOOSS..

La conmemoración del Día de la Mujer es nacida de una historia sangrienta...en donde el abuso, la explotación y la impunidad causó la muerte de 146 mujeres, algunas quemadas y otras muertas en la banqueta porque se arrojaron ante el temor de las llamas...no fue gracias a las mujeres bonitas, amables, de bien y sobre todo de buena familia, sexis o acomodadas, lo lograron las revolucionarias, las indecentes, las no religiosas furibundas, las indignadas, las migrantes y de baja escala social...las que pedían mayor equidad en la vida conyugal y en la productividad...

Incendio en la fábrica Triangle Shirtwaist de Nueva York.

El incendio de la fábrica de camisas Triangle Shirtwaist de Nueva York el 25 de marzo de 1911 es el desastre industrial más mortífero en la historia de la ciudad de Nueva York y el cuarto en el número de muertes de un accidente industrial en la historia de los Estados Unidos.

El fuego causó la muerte de 146 trabajadoras textiles que murieron por quemaduras provocadas por el fuego, la inhalación de humo, o por derrumbes (y suicidio).

La mayoría de las víctimas eran jóvenes mujeres inmigrantes de origen judío e italiano de entre dieciséis y veintitrés años de edad. La víctima de más edad tenía 48 años y la más joven 14 años.

La tragedia se debió a la imposibilidad de salir del edificio incendiado y en llamas ya que los responsables de la fábrica de camisas habían cerrado todas las puertas de las escaleras y salidas, una práctica común para evitar robos y altercados.

Muchas de las trabajadoras que no pudieron escapar del edificio en llamas saltaron desde los pisos octavo, noveno y décimo a las calles.

El desastre en la fábrica textil de Triangle Shitwaist obligó a importantes cambios legislativos en las normas de seguridad y salud laborales e industriales y fue el detonante de la creación del importante Sindicato internacional de mujeres trabajadoras textiles (International Ladies 'Garment Workers' Union) que lucha por mejorar las condiciones laborales de las trabajadoras textiles.

El incendio ha marcado la celebración del Día Internacional de la Mujer Trabajadora, después Día Internacional de la Mujer, que se celebra el 8 de marzo.

El 8 de marzo de 2011 se celebró el centenario del Día Internacional de la Mujer y el 25 de marzo de 2011 se cumplía el centenario del desastre de la fábrica textil Triangle Shirwaist.

Año 1909 y 1910 - Proclamación del día internacional de la Mujer Trabajadora.

El 28 de febrero de 1909 se celebró por primera vez en Estados Unidos el Día de las mujeres socialistas tras una declaración del Partido Socialista de los Estados Unidos.

En agosto de 1910 la II Conferencia Internacional de Mujeres Socialistas, reunida en Copenhague, reiteró la demanda de sufragio universal para todas las mujeres y, a propuesta de la socialista alemana Luise Zietz, se aprobó la resolución propuesta por Clara Zetkin proclamando el 8 de marzo como el Día Internacional de la Mujer Trabajadora.

La propuesta de Zetkin fue respaldada unánimemente por la conferencia a la que asistían más de 100 mujeres procedentes de 17 países, entre ellas las tres primeras mujeres elegidas para el parlamento finés (Finlandia). El objetivo era promover la igualdad de derechos, incluyendo el sufragio para las mujeres.

Page 7: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 5

Año 1911 - Primera celebración del Día Internacional de la Mujer Trabajadora.

Como consecuencia de la decisión adoptada en Copenhague el año anterior, el Día Internacional de la Mujer Trabajadora se celebró por primera vez el 19 de marzo en Alemania, Austria, Dinamarca y Suiza, con mítines a los que asistieron más de un millón de personas, que exigieron para las mujeres el derecho de voto y el de ocupar cargos públicos, el derecho al trabajo, a la formación profesional y a la no discriminación laboral.

Años 1913 y 1914 - Día Internacional del Mujer antes de la Primera Guerra Mundial.

En 1913, en el marco de los movimientos en pro de la paz que surgieron en vísperas de la primera guerra mundial, las mujeres de Rusia celebraron su primer Día Internacional de la Mujer el último domingo de febrero de dicho año.

En 1914 en Alemania, Suecia y Rusia se conmemora por primera vez, de manera oficial, el Día Internacional de la Mujer el 8 de marzo.

En el resto de Europa, las mujeres celebraron mítines en torno al 8 de marzo para protestar por la guerra y para solidarizarse con las demás mujeres.

Años 1922 a 1975 - Institucionalización del Día Internacional de la Mujer.

Después de la revolución de octubre, la feminista Alexandra Kollontai (que desde su nombramiento como Comisaria del Pueblo para la Asistencia Pública logró el voto para la mujer, que fuera legal el divorcio y el aborto) consiguió que el 8 de marzo se considerase fiesta oficial en la Unión Soviética, aunque laborable.

El 8 de mayo de 1965 por decreto del USSR Presidium del Sóviet Supremo de la Unión Soviética de la URSS se declaró no laborable el Día Internacional de la Mujer Trabajadora.

Desde su aprobación oficial por la Unión Soviética tras la Revolución rusa de 1917 la fiesta comenzó a celebrarse en otros muchos países. En China se celebra desde 1922, en España se celebró por primera vez en 1936.

En 1975 la ONU comenzó a celebrar el 8 de marzo como el Día Internacional de la Mujer.

En diciembre de 1977, dos años más tarde, la Asamblea General de la ONU proclamó el 8 de marzo como Día Internacional por los Derechos de la Mujer y la Paz Internacional.

Esta adhesión de la ONU llevó a varios países a oficializar este día dentro de sus calendarios.

Año 2011 - Centenario del Día Internacional de la Mujer.

En el año 2011 se celebró el Centenario del Día Internacional de la Mujer. También comenzó a operar la Entidad de la ONU para la Igualdad de Género y el Empoderamiento de la Mujer, también conocida como ONU Mujeres

El Día Internacional de la Mujer ha adquirido a lo largo del siglo XX una dimensión mundial para las mujeres del mundo. El movimiento internacional en defensa de los derechos de la mujer es creciente y es reforzado por la Organización de Naciones Unidas que ha celebrado cuatro conferencias mundiales sobre la mujer y ha contribuido a que la conmemoración del Día Internacional de la Mujer sea un punto de convergencia de las actividades coordinadas en favor de los derechos de la mujer y su participación en la vida política y económica.

Page 8: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 6

VVeerrssiióónn Del libro ““HHiissttoorriiaa yy FFiilloossooffííaa ddee llaass MMaatteemmááttiiccaass””.. Autor: Ángel Ruiz Zúñiga.

(Décima Novena Entrega)

ÁNGEL RUIZ ZÚÑIGA, matemático, filósofo y educador nacido en San José, Costa Rica. Campo de investigación: educación matemática, historia y filosofía de las matemáticas,

filosofía política y desarrollo social, sociología e historia de las ciencias y la tecnología, problemas de la educación superior, y asuntos de la paz mundial y el progreso humano. Autor

de numerosos libros y artículos académicos, expositor y conferencista en más de un centenar de congresos internacionales, y organizador constante de eventos científicos

internacionales y nacionales, ha sido, también, consultor y asesor en asuntos científicos, académicos, universitarios y políticos durante muchos años dentro y fuera de Costa Rica.

Continuación.-

Quinta Parte: MATEMÁTICAS EN LOS ESTADOS NACIONALES

Capítulo XIX: Las Matemáticas en Las Islas Británicas.- En el Reino Unido las matemáticas también tuvieron importantes desarrollos, especialmente en el álgebra y la lógica. Los aspectos lógicos los desarrollaremos posteriormente en otro capítulo.

19.1 En el siglo XVIII.-

M aclaurin, Taylor.-

En cuanto a los matemáticos en el mundo británico del siglo XVIII después de Newton, el más importante fue Colin Maclaurin, quien fue profesor de la Universidad de Edimburgo, Escocia, discípulo directo de Newton.

Al igual que en el continente con Euler o Clairaut, Maclaurin trabajó en la extensión de los métodos diferenciales, las curvas de segundo y órdenes superiores, la atracción de los elipsoides de revolución; también trabajó en geometría proyectiva, métodos cinemáticos para describir curvas planas de diferentes grados, etc. Dos de su obras: Geometria organica (1720) y Tratado sobre fluxiones (2 volúmenes, 1742).

En este último aparece la famosa "serie de Maclaurin'' que en realidad había sido introducida por Brook Taylor en 1715. Las "series de Taylor'' fueron aplicadas por Euler en 1755. Taylor también estudió el problema de la cuerda vibrante.

Implicaciones de la polémica.-

Asunto de gran importancia para la historia de las matemáticas en Gran Bretaña fueron las consecuencias de la confrontación entre Newton y Leibniz. La escuela Newtoniana en Inglaterra y la de Leibniz se separaron de una manera muy profunda, que hizo que se generara un estancamiento en las islas británicas en relación con las matemáticas que se desarrollaban en el continente. En particular, como señala Bell:

"La lealtad patriótica hacia Newton ocultó a los matemáticos ingleses la evidente superioridad de la notación de Leibniz sobre los puntos de Newton, y...; el resultado fue que a principios del siglo XVIII Suiza y Francia quedaron a la cabeza de las matemáticas. Los herederos científicos de Newton fueron los matemáticos del continente, no sus paisanos. Finalmente, en 1820, los matemáticos jóvenes de Cambridge se dieron cuenta de que sus reaccionarios mayores no honraban la memoria de Newton con su obstinado nacionalismo, y adoptaron las mejoras llevadas al cálculo por los del continente, e introdujeron la geometría analítica y la notación de Leibniz en los exámenes. Cambridge revivió matemáticamente”. [Bell, E.T.: Historia de las matemáticas, p. 157].

Mientras que Alemania y Francia tuvieron un gran dominio en el análisis y la geometría, fue en las islas británicas donde se darían los resultados más importantes en el álgebra, excepto por la teoría de grupos.

Page 9: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 7

19.2 Siglo XIX.-

Peacock, De Morgan, Babbage, Herschel.-

No fue sino hasta principios de la segunda década del siglo XIX que un grupo de matemáticos en Cambridge buscó propagar la notación diferencial y promover una reinserción de los matemáticos británicos en los trabajos que se hacían en Europa. Entre ellos se encontraban George Peacock, Charles Babbage y John Herschel, que incluso formaban parte de una llamada Sociedad Analítica. Esta fue fundada en el Trinity College de Cambridge en 1815.

Babbage es conocido por su construcción de máquinas calculadoras. Herschel fue más bien astrónomo.

Peacock no generó resultados de mucho relieve en las matemáticas pero trató de ofrecer al álgebra una estructura lógica similar a la de los Elementos de Euclides en la geometría (Treatise on Algebra, 1830); sugirió que los símbolos algebraicos no necesariamente referían a números. Fue una figura relevante en la organización de las matemáticas y las ciencias británicas: fundador de las Astronomical Society of London, la Philosophical Society of Cambridge y la British Association for the Advancement of Science.

Algunos de sus puntos de vista fueron apoyados por August De Morgan; fue más lejos en la potenciación del carácter abstracto de los símbolos en el álgebra: las interpretaciones de los símbolos de operaciones podían ser arbitrarias; pero sin ir en toda la línea; es decir, las leyes y conceptos del álgebra arbitrarios en todo su carácter. De hecho, De Morgan creyó que los números reales y complejos agotaban los tipos de álgebras posibles, algo que Hamilton se encargaría de cambiar.

Green, Hamilton.-

En un sentido similar, debe entenderse la contribución de otros matemáticos que buscaron asociarse con el trabajo de los matemáticos continentales: William R. Hamilton y George Green.

Este último desarrolló una primera aproximación para una teoría matemática del electromagnetismo, a partir de una obra que se supone fue influenciada por la Mécanique céleste de Laplace: Essay on the Application of Mathematical Analysis to Theories of Electricity and Magnetism (1828). Para algunos historiadores de las matemáticas, éste se trata del principio de la física matemática en Inglaterra. Había una cercanía entre los resultados y términos usados por Green y aquellos que usó Gauss. Algunos de estos trabajos empujaron contribuciones en las probabilidades y la teoría de funciones complejas.

De igual manera, fueron relevantes para los trabajos decisivos de James Clerk Maxwell sobre el electromagnetismo, la que tuvo importancia, también, en la teoría de la relatividad.

Jacobi había estudiado las ecuaciones diferenciales parciales de primer orden y sus aplicaciones en la dinámica, y su trabajo encuentra intersección con el del irlandés William Rowan Hamilton, asociado al Trinity College de Dublín. De hecho, en unas conferencias que ofreció Jacobi entre 1842 y 1843, luego publicadas en 1866 (como Vorlesungen über Dynamik), usó una ecuación diferencial parcial relevante en la dinámica que precisamente se conoce con el nombre de "Hamilton-Jacobi''.

HAMILTON, ESTAMPILLA.

Esta era una de las ecuaciones que satisfacía la función característica establecida por Hamilton dentro de su búsqueda por derivar la óptica y la dinámica de un principio general (lo que lo llevó a convertirlas en aspectos del cálculo de variaciones).

La obra representativa de Hamilton es General Method in Dynamics (1834-1835).

Cabe decir que Hamilton estableció la derivación de las leyes de la física y la mecánica a partir de la variación de una integral, lo que fue usado posteriormente tanto por la Teoría de la Relatividad como la Mecánica Cuántica.

Uno de los asuntos más conocidos de Hamilton fue el descubrimiento-construcción de los cuaterniones en 1843, un resultado en la última etapa de su vida que dedicó al álgebra después de haber trabajado la dinámica y la mecánica. En su obra Theory of Algebraic Couples (1835), Hamilton construyó un álgebra de los números complejos tomando a los complejos como pares ordenados (más o menos como Gauss, quien había considerado los complejos como puntos de un plano, desde 1831). Como parte de estudios de mayor generalización (tripletes ordenados, etc.) llegó a los cuaterniones y a una teoría de vectores. Incluso fue Hamilton quien les dio ese nombre a ellos. Lo más relevante es que sus cuaterniones abandonan la conmutatividad de la multiplicación, creando un salto cualitativo en el carácter abstracto y libre de las matemáticas.

Sus obras sobre esto son Lectures on Quaternions (1853) y la póstuma Elements of Quaternions (1866, publicada por su hijo). En esta línea de estudio sobre el álgebra, se colocó el trabajo de Grassmann en Alemania. Pero ya volveremos sobre esto.

Cayley, Sylvester, Salmon.-

Siempre en el mundo británico deben mencionarse los nombres de Arthur Cayley, James Joseph Sylvester y George Salmon por sus contribuciones en el álgebra.

Cayley contribuyó en la geometría analítica y en los determinantes. En particular, fue importante su trabajo en las matrices, las que mediante apropiadas definiciones de operaciones se pueden considerar como un álgebra.

Fue Cayley quien ofreció una definición proyectiva de la métrica euclidiana (lo que sería retomado por Klein).

Sylvester fue el creador del método dialítico para eliminar una incógnita entre dos ecuaciones polinomiales.

Cayley y Sylvester en colaboración desarrollaron la teoría de los invariantes de las formas algebraicas. Esta sería posteriormente retomada y ampliada por los matemáticos alemanes Aronhold y Clebsch.

Sylvester ofreció una teoría de divisores elementales y la ley de inercia de las formas cuadráticas, entre los años 1851 y 1852. Al igual que Leibniz contribuyó en la creación de muchas notaciones y términos de las matemáticas modernas. Por ejemplo, son de su cosecha: invariante, covariante, contravariante. Además, este matemático fue decisivo en el florecimiento de las matemáticas en los Estados Unidos, país en el cual enseñó. Salmon se conoce por la elaboración de libros de texto de gran calidad y claridad en geometría analítica y álgebra.

Page 10: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014

Los trabajos de Cayley y Sylvester sobre los invariantes algebraicos fueron retomados en Alemania por Hesse, Aronhold, Alfred Clebsch y Paul Gordan. Estos matemáticos usaron las coordenadas homogéneas y los determinantes en su desarrollo algebraico de la geometría analíticaimportante simbolismo para la teoría invariante ("ClebschGrassmann o Gibbs, se generaron fundamentos de algunas dimensiones relevantes del análisis vectorial.

Clifford.-

También deben mencionarse en álgebra los trabajos de William Kingdon Clifford. Ya analizaremos la visión del espacio de estfue sumamente relevante. Pero aquí es necesario decir un par de cosas. Clifford, profesor del University College de Londres, que murió muy joven: con 34 años, en 1879. Generalizó los cuaterniones hacienlos bicuaterniones y los octoniones (desarrollados entre 1873 y 1876), que podían ser usados en el estudio del movimiento en Estos son casos particulares de las llamadas "álgebras de Clifford''. Los bicuaterniones no poseen una multiplicación asociativa.

Su obra Common Sense of the Exact Sciences, muestra elementos en común con Klein.

Boole, Peirce.-

Suele enmarcarse en esta misma corriente algebraica la obramejor ideal de la characteristica universalis de Leibniz. Para que en su contenido. En su Mathematical Analysis of Logicla magnitud.

Boole, también, apuntalaría corrientes logicistas en la búsqueda por ofrecer una fundamentación de las matemáticas. Ya volveremos

La obra de Boole fue continuada por De Morgan y Peirce

Aunque sin ser británico pero influenciado por los trabajos algebraicos en esa nación, el norteamericano

Harvard, hizo contribuciones en los números hipercomplejos:

Advancement of Science, y publicado en 1881 en el American Journal of Mathematics

análisis vectorial, los cuaterniones y otras más. En este trabajo se introduce la noción de elemento nilpotente: es decir, un

entero positivo n .

Tanto Benjamin como su hijo Charles Sanders realizaron trabajos sobre las matrices.

19.3 Biografías.-

GEORGE PEACOCK

George Peacock nació el 9 de abril de 1791 en Denton, Inglaterra. Fue educado por su padre en su casa hasta le edad de diecisaños, después asistió a una escuela en Richmons, Yorkshire y finalmente en 1809, ingresó a la Dentro de la Universidad entabló amistad con John Herschel y Charles Babbage. En 1812, se graduó y ganó en segundo lugar el premio Smith. En 1815, se convirtió en tutor y conferencista en la Universidad Trinity.

Junto a Herschel y Babbage, sus amigos, fundaron la Sociedad Analítica, que pretendía traer a la universidad métodos avanzados de cálculo. En 1816, la Sociedad Analítica tradujo un libro de Lacroix acerca de cálculo diferencial e integral. En 1831, fue fuAsociación Británica para el Avance de la Ciencia; uno de sus objetivos era obtener informes sobre el estado y el progreso de vciencias en diversos campos. Peacock preparó el primero de estos informes, aunque lo restringió al Álgebra, Trigonometría y Aritmética. Este informe fue leído en 1833, en la Asociación en Cambridge y se imprimió inmediatamente.

En 1836, fue asignado profesor de astronomía y geometría en Cambridge y tres años después, fue nombrado el deán de la CatedraEly. Allí permaneció, desempeñando ese puesto por veinte años.

Murió el 8 de noviembre de 1858 en Ely, Inglaterra.

James Joseph Sylvester nació el 3 de septiembre de 1814 en Londres, Inglaterra. Sus estudios primarios los realizó en Londreslos secundarios, en el Instituto Real en Liverpool. En 1833, ingresó a la Universidad St. John en Cambridge. En el tiempo en Sylvester estudió, para graduarse era necesario firmar un juramento religioso a la Iglesia de Inglaterra: Como Sylvester era se negó a tomar el juramento y, entonces, no pudo graduarse. Esto también lo afectó porque lo descalificó como candidato papremio Smith.

Desde 1838 enseñó física, durante tres años, en la Universidad de Londres, donde fue colega de su antiguo profesor Augusto DeMorgan.

Obtuvo un puesto en la Universidad de Virginia, el cual tuvo que dejar después de unos meses debido estudiante que lo insultó. Sylvester lo golpeó y al creer que lo había matado huyó a Inglaterra.

Durante este periodo en Inglaterra trabajó al lado de Arthur Cayley, como abogado en el Colegio de Abogados de Lincoln, en Londres.

Se convirtió en profesor de matemáticas de la Academia Real Militar en Woolwich. Además, fue el segundo presidente de la Sociedad Matemática de Londres.

A los cincuenta y cinco años se retiró de la Academia Militar.

En 1877, aceptó la presidencia de la sección de matemáticas en la Universidad Johns Hopkins y, en 1878, fundó el American Journal of Mathematics, la primera revista matemática de Estados Unidos. En 1883, asumió la presidencia del departamento de geometría en Oxford, pero, pocos años después, comenzó a perder la memoria y regresó a Londres.

Murió el 15 de marzo de 1897 en Londres, Inglaterra.

Miércoles, 5 de Marzo de 2014

sobre los invariantes algebraicos fueron retomados en Alemania por Hesse, Aronhold, Alfred Clebsch y Paul Gordan. Estos matemáticos usaron las coordenadas homogéneas y los determinantes en su desarrollo algebraico de la geometría analíticaimportante simbolismo para la teoría invariante ("Clebsch-Aronhold'') que perdura hasta nuestros días. Con la participación de otros matemáticos, como

o Gibbs, se generaron fundamentos de algunas dimensiones relevantes del análisis vectorial.

También deben mencionarse en álgebra los trabajos de William Kingdon Clifford. Ya analizaremos la visión del espacio de estfue sumamente relevante. Pero aquí es necesario decir un par de cosas. Clifford, profesor del University College de Londres, que murió muy joven: con 34 años, en 1879. Generalizó los cuaterniones haciendo que sus coeficientes pudieran ser tomados de los números complejos: los bicuaterniones y los octoniones (desarrollados entre 1873 y 1876), que podían ser usados en el estudio del movimiento en

as llamadas "álgebras de Clifford''. Los bicuaterniones no poseen una multiplicación asociativa.

, muestra elementos en común con Klein.

Suele enmarcarse en esta misma corriente algebraica la obra de George Boole, que buscó hacer de la lógica un cálculo matemático y simbólico, en el . Para Boole, más allá de Peacock y De Morgan, el carácter de las matemáticas está en su forma más

Mathematical Analysis of Logic señala con toda claridad que las matemáticas no se pueden considerar la ciencia del número y

, también, apuntalaría corrientes logicistas en la búsqueda por ofrecer una fundamentación de las matemáticas. Ya volveremos

Peirce, quienes descubrieron de manera independiente la llamada "ley de dualidad''.

os trabajos algebraicos en esa nación, el norteamericano Benjamin Peirce

números hipercomplejos: Linnear Associative Algebra (leído en 1864 ante la

American Journal of Mathematics). Estas álgebras lineales asociativas incluyen el álgebra usual, el

análisis vectorial, los cuaterniones y otras más. En este trabajo se introduce la noción de elemento nilpotente: es decir, un

como su hijo Charles Sanders realizaron trabajos sobre las matrices.

George Peacock nació el 9 de abril de 1791 en Denton, Inglaterra. Fue educado por su padre en su casa hasta le edad de diecisaños, después asistió a una escuela en Richmons, Yorkshire y finalmente en 1809, ingresó a la Dentro de la Universidad entabló amistad con John Herschel y Charles Babbage. En 1812, se graduó y ganó en segundo lugar el premio Smith. En 1815, se convirtió en tutor y conferencista en la Universidad Trinity.

rschel y Babbage, sus amigos, fundaron la Sociedad Analítica, que pretendía traer a la universidad métodos avanzados de cálculo. En 1816, la Sociedad Analítica tradujo un libro de Lacroix acerca de cálculo diferencial e integral. En 1831, fue fu

ociación Británica para el Avance de la Ciencia; uno de sus objetivos era obtener informes sobre el estado y el progreso de vciencias en diversos campos. Peacock preparó el primero de estos informes, aunque lo restringió al Álgebra, Trigonometría y

ritmética. Este informe fue leído en 1833, en la Asociación en Cambridge y se imprimió inmediatamente.

En 1836, fue asignado profesor de astronomía y geometría en Cambridge y tres años después, fue nombrado el deán de la Catedraesempeñando ese puesto por veinte años.

Murió el 8 de noviembre de 1858 en Ely, Inglaterra.

James Joseph Sylvester nació el 3 de septiembre de 1814 en Londres, Inglaterra. Sus estudios primarios los realizó en Londreslos secundarios, en el Instituto Real en Liverpool. En 1833, ingresó a la Universidad St. John en Cambridge. En el tiempo en Sylvester estudió, para graduarse era necesario firmar un juramento religioso a la Iglesia de Inglaterra: Como Sylvester era se negó a tomar el juramento y, entonces, no pudo graduarse. Esto también lo afectó porque lo descalificó como candidato pa

Desde 1838 enseñó física, durante tres años, en la Universidad de Londres, donde fue colega de su antiguo profesor Augusto De

Obtuvo un puesto en la Universidad de Virginia, el cual tuvo que dejar después de unos meses debido a un incidente con un estudiante que lo insultó. Sylvester lo golpeó y al creer que lo había matado huyó a Inglaterra.

Durante este periodo en Inglaterra trabajó al lado de Arthur Cayley, como abogado en el Colegio de Abogados de Lincoln, en

convirtió en profesor de matemáticas de la Academia Real Militar en Woolwich. Además, fue el segundo presidente de la

A los cincuenta y cinco años se retiró de la Academia Militar.

ión de matemáticas en la Universidad Johns Hopkins y, en 1878, fundó el American Journal of Mathematics, la primera revista matemática de Estados Unidos. En 1883, asumió la presidencia del departamento de

nzó a perder la memoria y regresó a Londres.

8

sobre los invariantes algebraicos fueron retomados en Alemania por Hesse, Aronhold, Alfred Clebsch y Paul Gordan. Estos matemáticos usaron las coordenadas homogéneas y los determinantes en su desarrollo algebraico de la geometría analítica y construyeron un

Aronhold'') que perdura hasta nuestros días. Con la participación de otros matemáticos, como

También deben mencionarse en álgebra los trabajos de William Kingdon Clifford. Ya analizaremos la visión del espacio de este último matemático, que fue sumamente relevante. Pero aquí es necesario decir un par de cosas. Clifford, profesor del University College de Londres, fue otro de esos matemáticos

do que sus coeficientes pudieran ser tomados de los números complejos: los bicuaterniones y los octoniones (desarrollados entre 1873 y 1876), que podían ser usados en el estudio del movimiento en geometrías no euclidianas.

as llamadas "álgebras de Clifford''. Los bicuaterniones no poseen una multiplicación asociativa.

, que buscó hacer de la lógica un cálculo matemático y simbólico, en el , el carácter de las matemáticas está en su forma más

señala con toda claridad que las matemáticas no se pueden considerar la ciencia del número y

, también, apuntalaría corrientes logicistas en la búsqueda por ofrecer una fundamentación de las matemáticas. Ya volveremos a esto.

, quienes descubrieron de manera independiente la llamada "ley de dualidad''.

Benjamin Peirce, asociado a la Universidad de

(leído en 1864 ante la American Association for the

). Estas álgebras lineales asociativas incluyen el álgebra usual, el

análisis vectorial, los cuaterniones y otras más. En este trabajo se introduce la noción de elemento nilpotente: es decir, un a tal que 0=na , para algún

George Peacock nació el 9 de abril de 1791 en Denton, Inglaterra. Fue educado por su padre en su casa hasta le edad de diecisiete años, después asistió a una escuela en Richmons, Yorkshire y finalmente en 1809, ingresó a la Universidad Trinity en Cambridge. Dentro de la Universidad entabló amistad con John Herschel y Charles Babbage. En 1812, se graduó y ganó en segundo lugar el

rschel y Babbage, sus amigos, fundaron la Sociedad Analítica, que pretendía traer a la universidad métodos avanzados de cálculo. En 1816, la Sociedad Analítica tradujo un libro de Lacroix acerca de cálculo diferencial e integral. En 1831, fue fundada la

ociación Británica para el Avance de la Ciencia; uno de sus objetivos era obtener informes sobre el estado y el progreso de varias ciencias en diversos campos. Peacock preparó el primero de estos informes, aunque lo restringió al Álgebra, Trigonometría y

ritmética. Este informe fue leído en 1833, en la Asociación en Cambridge y se imprimió inmediatamente.

En 1836, fue asignado profesor de astronomía y geometría en Cambridge y tres años después, fue nombrado el deán de la Catedral de

James Joseph Sylvester nació el 3 de septiembre de 1814 en Londres, Inglaterra. Sus estudios primarios los realizó en Londres, y los secundarios, en el Instituto Real en Liverpool. En 1833, ingresó a la Universidad St. John en Cambridge. En el tiempo en que Sylvester estudió, para graduarse era necesario firmar un juramento religioso a la Iglesia de Inglaterra: Como Sylvester era judío se negó a tomar el juramento y, entonces, no pudo graduarse. Esto también lo afectó porque lo descalificó como candidato para el

Desde 1838 enseñó física, durante tres años, en la Universidad de Londres, donde fue colega de su antiguo profesor Augusto De

a un incidente con un

Durante este periodo en Inglaterra trabajó al lado de Arthur Cayley, como abogado en el Colegio de Abogados de Lincoln, en

convirtió en profesor de matemáticas de la Academia Real Militar en Woolwich. Además, fue el segundo presidente de la

ión de matemáticas en la Universidad Johns Hopkins y, en 1878, fundó el American Journal of Mathematics, la primera revista matemática de Estados Unidos. En 1883, asumió la presidencia del departamento de

JAMES JOSEPH SYLVESTER

Page 11: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 9

GEORGE GREEN

George Green nació en julio de 1793 en Sneinton, Nottingham, Inglaterra. Su padre era panadero en Nottingham. En 1801, George fue a la escuela de Robert Goodacre y el año siguiente la abandonó para trabajar en el negocio de su padre. Se desconoce casi en totalidad como Green tuvo las posibilidades de aprender matemáticas, se supone que John Toplis, un matemático graduado de la Universidad de Cambridge, pudo perfectamente ser el mentor de Green. Tuvo siete hijos junto a Jane Smith; en 1824 nació su primer hijo.

En 1823, Green comenzó a visitar la Biblioteca de Nottingham lo que le dio acceso a importantes trabajos matemáticos. Entre 1823 y 1828 se dedicó a estudiar matemáticas por su cuenta. Su madre murió en 1825 y su padre en 1829. A pesar de estos acontecimientos Green publicó uno de los trabajos más importantes en toda la historia, un ensayo acerca del análisis matemático a las teorías de electricidad y magnetismo. En 1830, Green hizo caso de la oferta de Sir Edward Bromead de enviar su estudio a la Sociedad Real de Londres, Sociedad Real de Edinburgh o a la Sociedad Filosófica de Cambridge.

Green escribió otros tres estudios que fueron publicados en 1833, 1834 y 1836. Bromhead le propuso estudiar en Cambridge y en octubre de 1833 a la edad de cuarenta años, Green fue admitido y se graduó en 1837.

Murió el 31 de mayo de 1841 en Nottingham.

COLIN MACLAURIN

Colin Maclaurin nació en febrero de 1698 en Kilmodan, Cowal, Escocia. Su padre John Maclaurin fue ministro de la parroquia de Glendaruel y murió cuando Colin tenía apenas seis semanas de edad. Colin tuvo dos hermanos mayores: John y Daniel. Su madre deseaba la mejor educación para sus hijos, así que se mudaron a Dumbarton, con el fin de que sus hijos la recibieran. En 1707, su madre murió, Colin y John quedaron a cargo de su tío Daniel.

En 1709, a la edad de once años, comenzó a estudiar en la Universidad de Glasgow. Un año después, al familiarizarse con una copia de los Elementos de Euclides, surgió su interés por la matemática avanzada. Su profesor de matemáticas, Roberto Simon, lo involucró en el estudio de la geometría de la Antigua Grecia.

En 1714, regresó a vivir durante un tiempo con su tío. Tres años después, fue nombrado profesor de matemáticas en el Colegio Mariscal en la Universidad de Aberdeen. En 1719, fue a Londres donde la Sociedad Real lo hizo miembro.

En esos tiempos al igual que ahora, los hijos de los personajes importantes acostumbraban realizar un viaje alrededor de Europa con el fin de completar su educación; Maclaurin tuvo también la oportunidad de realizarlo cuando Lord Polwarth le ofreció que acompañara a su hijo. El viaje duró dos años, tiempo que aprovechó para estudiar matemáticas francesas y hasta llegó a recibir el Gran Premio otorgado por la Academia de Ciencias por su trabajo sobre el impacto de los cuerpos.

En 1725, recomendado por Newton, obtiene un puesto en la Universidad de Edinburgh. En 1733, se casó con Anne Stewart, hija del Procurador General de Escocia. Tuvieron siete hijos pero sólo cinco llegaron a su vida adulta.

Además, desempeñó un papel activo durante la defensa de Edimburgo durante la rebelión jacobita de 1745. Ayudó en la preparación de las defensas para la ciudad. Al comenzar el ataque, huyó a Inglaterra y dejó en Escocia a su familia. Cuando los jacobitas salieron de Edinburgh en noviembre de 1745, regresó a la ciudad.

Durante el tiempo que viajó entre Edimburgo e Inglaterra, contrajo una grave enfermedad, la cual finalmente le causó la muerte el 14 de junio de 1746 en Edinburgh, Escocia.

19.4 Síntesis, análisis, investigación.-

1. Comente acerca de las implicaciones de la polémica Newton-Leibniz sobre el desarrollo de las matemáticas en las islas británicas y la creación de la Sociedad Analítica.

2. ¿Cuál fue la idea de Peacock sobre la estructura del álgebra?

3. Mencione un resultado de George Green.

4. Mencione algunas de las contribuciones de William Hamilton en las matemáticas.

5. ¿Quiénes crearon la teoría de invariantes de formas algebraicas?

6. ¿Quién creó los bicuaterniones?

7. Lea cuidadosamente el siguiente texto.

"La teoría de probabilidades no es más que la ciencia de la lógica tratada cuantitativamente. Hay dos certezas concebibles con respecto a cualquier hipótesis: la certeza de su verdad y la certeza de su falsedad. Los números uno y cero son apropiados, en este cálculo, para marcar dichos puntos extremos del conocimiento, mientras que las fracciones, al representar valores intermedios entre ellos, indican, vagamente hablando, los grados en que la evidencia se inclina hacia el uno o hacia el otro. El problema general de las probabilidades consiste en fijar, a base de un determinado cuadro de hechos dados, la probabilidad numérica de un hecho posible. Esto es lo mismo que buscar el valor de los hechos dados, considerados como evidencia para demostrar el hecho posible. Así el problema de las probabilidades no es más que el problema general de la lógica.

La probabilidad es una variable continua, por lo que cabe esperar grandes ventajas de este sistema de estudiar la lógica. Algunos autores han llegado a sostener que, mediante el cálculo de probabilidades, toda ilación sólida puede representarse por legítimas operaciones aritméticas a base de los números dados en las premisas. Si esto es realmente cierto, el gran problema de la lógica, el problema de cómo es que la observación de un hecho puede darnos el conocimiento de otro hecho independiente, se reduce a una mera cuestión de aritmética. Parece oportuno examinar tal afirmación antes de intentar cualquier solución más profunda de la paradoja”. [Peirce, Charles Sanders: "Las rojas y las negras'', p. 20].

Explique qué son las probabilidades según Peirce. Relacione lógica y probabilidades en Peirce. Comente el anterior texto.

Continuará en el próximo número…

Page 12: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 10

Aportes al conocimiento

RRaazzoonnaammiieennttoo NNuumméérriiccoo:: EEjjeerrcciicciiooss ((SSeerriiee BB))

A continuación, seguimos con la publicación sucesiva de una serie de ejercicios resueltos con la finalidad de mostrar representaciones de razonamientos numéricos que posiblemente se suceden cuando un estudiante es retado con algún tipo de situación problemática, contextualizada a la matemática.

Ejercicio No 1:

El volumen de un disco (cilindro) se calcula por la fórmula Volumen= π. Radio al cuadrado. Altura ( )hRV ⋅⋅= 2π . La

figura adjunta representa un sólido que se forma cuando se montan uno sobre otro, discos de diferentes tamaño. Todos los discos tienen la misma altura (1,5 dm). El disco menor tiene un radio de 1,5 dm. Los demás discos van aumentando su radio 0,5 dm con respecto al radio del disco anterior. ¿Cuál es el volumen de este sólido? (Utilice 14,3=π ).

Razonamiento:

La figura representa el agrupamiento de 6 discos. Para todos 14,3=π y la altura 1,5 dm.

La diferencia entre los discos son los radios, los que aumentan secuencialmente, a partir del más pequeño, en 0,5 dm. Luego el volumen del sólido se calcula sumando los volúmenes de cada uno de los discos:

( )( ) ( ) ( ) ( ) ( ) ( )[ ]3

222222

26

25

24

23

22

21

654321

3225,234

45,335,225,15,114,3

dm

dmdmdmdmdmdmdm

RRRRRRh

VVVVVVVs

=

=+++++⋅⋅=

=+++++⋅⋅=

=+++++=

π

Ejercicio No 2:

El volumen de un disco (cilindro) se calcula por la fórmula Volumen= π. Radio al cuadrado. Altura ( )hRV ⋅⋅= 2π . La

figura adjunta representa un sólido que se forma cuando se montan uno sobre otro, discos de diferentes tamaño. Todos los discos tienen la misma altura (1,5 dm). El disco menor tiene un radio de 1,5 dm. Los demás discos van aumentando su radio 0,5 dm con respecto al radio del disco anterior. ¿Cuál es el volumen del sólido si nada más se consideran los cuatro discos de mayor radio? (Utilice 14,3=π ).

Razonamiento:

Al igual que el ejercicio anterior, la figura representa el agrupamiento de 6 discos. Para todos 14,3=π y la altura 1,5 dm.

La diferencia entre los discos son los radios, que aumentan secuencialmente a partir del más pequeño, en 0,5 dm. Luego el volumen del sólido formado por los cuatro discos de mayor radio es:

( )( ) ( ) ( ) ( )[ ]

3

2222

26

25

24

23

6543

885,204

45,335,25,114,3

dm

dmdmdmdmdm

RRRRh

VVVVVs

==+++⋅⋅=

=+++⋅⋅=

=+++=

π

Ejercicio No 3:

El volumen de un disco (cilindro) se calcula por la fórmula Volumen= π. Radio al cuadrado. Altura ( )hRV ⋅⋅= 2π . La

figura adjunta representa un sólido que se forma cuando se montan uno sobre otro, discos de diferentes tamaño. Todos los discos tienen la misma altura (1,5 dm). El disco menor tiene un radio de 1,5 dm. Los demás discos van aumentando su radio 0,5 dm con respecto al radio del disco anterior. ¿Cuál es el volumen del sólido si nada más se consideran los cuatro discos de menor radio? (Utilice 14,3=π ).

Page 13: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 11

Razonamiento:

La figura representa el agrupamiento de 6 discos. Para todos 14,3=π y la altura 1,5 dm.

La diferencia entre los discos son los radios, que aumentan secuencialmente a partir del más pequeño, en 0,5 dm. Luego el volumen del sólido formado por los cuatro discos de menor radio es:

( )( ) ( ) ( ) ( )[ ]

3

2222

24

23

22

21

4321

265,101

35,225,15,114,3

dm

dmdmdmdmdm

RRRRh

VVVVVs

==+++⋅⋅=

=+++⋅⋅=

=+++=

π

Ejercicio No 4:

El volumen de un disco (cilindro) se calcula por la fórmula Volumen= π. Radio al cuadrado. Altura

( )hRV ⋅⋅= 2π . La figura adjunta representa un sólido que se forma cuando se montan uno sobre otro, discos de

diferentes tamaño. Todos los discos tienen la misma altura (1,5 dm). El disco menor tiene un radio de 1,5 dm. Los demás discos van aumentando su radio 0,5 dm con respecto al radio del disco anterior. ¿Cuál es el volumen del sólido si no se consideran los discos de mayor y menor radio? (Utilice 14,3=π ).

Razonamiento:

La figura representa el agrupamiento de 6 discos. Para todos 14,3=π y la altura 1,5 dm.

La diferencia entre los discos son los radios, que aumentan secuencialmente a partir del más pequeño, en 0,5 dm. Luego el volumen del sólido formado si no se consideran los discos de mayor y menor radio es:

( )( ) ( ) ( ) ( )[ ]

3

2222

25

24

23

22

5432

365,148

5,335,225,114,3

dm

dmdmdmdmdm

RRRRh

VVVVVs

==+++⋅⋅=

=+++⋅⋅=

=+++=

π

Ejercicio No 5:

Una persona tiene seis cilindros huecos de diferentes diámetros externo e interno cada uno. Para ahorrar espacio de almacenamiento quiere introducir uno dentro del otro, tal como se muestra en la figura adjunta.

El cilindro mayor tiene un diámetro externo de 10 cm e interno 9,5 cm. Los otros cilindros, secuencialmente van disminuyendo sus diámetros 0,75 cm con respecto al mayor. ¿Cuántos cilindros se pueden introducir uno dentro del otro?

Razonamiento:

El detalle radica en que el diámetro interno de cada cilindro hueco sea mayor que el diámetro externo del siguiente cilindro. Como cada diámetro por cilindro, tanto externo como interno, disminuye en 0,75 cm con respecto al anterior, la siguiente tabla muestra que sí se pueden introducir todos uno dentro del otro.

N° DIÁMETROS EXTERNO INTERNO 1 10 9,5 2 9,25 8,75 3 8,5 8 4 7,75 7,25 5 7 6,5 6 6,25 5,5

En el próximo número, la siguiente serie.

Page 14: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 12

TTeeoorrííaa ddeell aapprreennddiizzaajjee ssiiggnniiffiiccaattiivvoo ddee DDaavviidd AAuussuubbeell Versión del trabajo enviado por: W. Palomino N. [email protected]

Fuente: monografía.com

DDAAVVIIDD AAUUSSUUBBEELL ((11991188--22000088))

1. Introducción

El presente Documento pretende ser una contribución a la Cultura Pedagógica, en estos momentos en que el Sistema Educativo […] enfrenta cambios estructurales se hace necesario que los Docentes seamos poseedores de conocimientos que nos permitan desenvolvernos al tono de los cambios dentro de nuestras aulas, de manera que propiciemos en nuestros alumnos aprendizajes realmente significativos y que promuevan la evolución de sus estructuras cognitivas.

En este sentido, se presenta un resumen de la Teoría del Aprendizaje Significativo de Ausubel discutiendo sus características e implicancias para la labor educativa, se remarca la diferencia entre el Aprendizaje Significativo y el Mecánico, con la finalidad de diferenciar los tipos de aprendizaje y su respectiva asimilación en la estructura cognitiva.

2. Psicología educativa y la labor docente

Durante mucho tiempo se consideró que el aprendizaje era sinónimo de cambio de conducta, esto, porque dominó una perspectiva conductista de la labor educativa; sin embargo, se puede afirmar con certeza que el aprendizaje humano va más allá de un simple cambio de conducta, conduce a un cambio en el significado de la experiencia.

La experiencia humana no solo implica pensamiento, sino también afectividad y únicamente cuando se consideran en conjunto se capacita al individuo para enriquecer el significado de su experiencia.

Para entender la labor educativa, es necesario tener en consideración otros tres elementos del proceso educativo: los profesores y su manera de enseñar; la estructura de los conocimientos que conforman el currículo y el modo en que éste se produce y el entramado social en el que se desarrolla el proceso educativo.

Lo anterior se desarrolla dentro de un marco psicoeducativo, puesto que la psicología educativa trata de explicar la naturaleza del aprendizaje en el salón de clases y los factores que lo influyen, estos fundamentos psicológicos proporcionan los principios para que los profesores descubran por si mismos los métodos de enseñanza más eficaces, puesto que intentar descubrir métodos por "Ensayo y error" es un procedimiento ciego y, por tanto innecesariamente difícil y antieconómico (Ausubel: 1983).

En este sentido una "teoría del aprendizaje" ofrece una explicación sistemática, coherente y unitaria del ¿cómo se aprende?, ¿Cuáles son los límites del aprendizaje?, ¿Porqué se olvida lo aprendido?, y complementando a las teorías del aprendizaje encontramos a los "principios del aprendizaje", ya que se ocupan de estudiar a los factores que contribuyen a que ocurra el aprendizaje, en los que se fundamentará la labor educativa; en este sentido, si el docente desempeña su labor fundamentándola en principios de aprendizaje bien establecidos, podrá racionalmente elegir nuevas técnicas de enseñanza y mejorar la efectividad de su labor.

La teoría del aprendizaje significativo de Ausubel, ofrece en este sentido el marco apropiado para el desarrollo de la labor educativa, así como para el diseño de técnicas educacionales coherentes con tales principios, constituyéndose en un marco teórico que favorecerá dicho proceso.

Teoría del Aprendizaje Significativo

Ausubel plantea que el aprendizaje del alumno depende de la estructura cognitiva previa que se relaciona con la nueva información, debe entenderse por "estructura cognitiva", al conjunto de conceptos, ideas que un individuo posee en un determinado campo del conocimiento, así como su organización.

En el proceso de orientación del aprendizaje, es de vital importancia conocer la estructura cognitiva del alumno; no sólo se trata de saber la cantidad de información que posee, sino cuales son los conceptos y proposiciones que maneja así como de su grado de estabilidad. Los principios de aprendizaje propuestos por Ausubel, ofrecen el marco para el diseño de herramientas metacognitivas que permiten conocer la organización de la estructura cognitiva del educando, lo cual permitirá una mejor orientación de la labor educativa, ésta ya no se verá como una labor que deba desarrollarse con "mentes en blanco" o que el aprendizaje de los alumnos comience de "cero", pues no es así, sino que, los educandos tienen una serie de experiencias y conocimientos que afectan su aprendizaje y pueden ser aprovechados para su beneficio.

Ausubel resume este hecho en el epígrafe de su obra de la siguiente manera: "Si tuviese que reducir toda la psicología educativa a un solo principio, enunciaría este: El factor más importante que influye en el aprendizaje es lo que el alumno ya sabe. Averígüese esto y enséñese consecuentemente".

Page 15: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 13

Aprendizaje Significativo y Aprendizaje Mecánico.

Un aprendizaje es significativo cuando los contenidos: Son relacionados de modo no arbitrario y sustancial (no al pie de la letra) con lo que el alumno ya sabe. Por relación sustancial y no arbitraria se debe entender que las ideas se relacionan con algún aspecto existente específicamente relevante de la estructura cognoscitiva del alumno, como una imagen, un símbolo ya significativo, un concepto o una proposición (AUSUBEL; 1983:18).

Esto quiere decir que en el proceso educativo, es importante considerar lo que el individuo ya sabe de tal manera que establezca una relación con aquello que debe aprender. Este proceso tiene lugar si el educando tiene en su estructura cognitiva conceptos, estos son: ideas, proposiciones, estables y definidos, con los cuales la nueva información puede interactuar.

El aprendizaje significativo ocurre cuando una nueva información "se conecta" con un concepto relevante ("subsunsor") pre existente en la estructura cognitiva, esto implica que, las nuevas ideas, conceptos y proposiciones pueden ser aprendidos significativamente en la medida en que otras ideas, conceptos o proposiciones relevantes estén adecuadamente claras y disponibles en la estructura cognitiva del individuo y que funcionen como un punto de "anclaje" a las primeras.

A manera de ejemplo en física, si los conceptos de sistema, trabajo, presión, temperatura y conservación de energía ya existen en la estructura cognitiva del alumno, estos servirán de subsunsores para nuevos conocimientos referidos a termodinámica, tales como máquinas térmicas, ya sea turbinas de vapor, reactores de fusión o simplemente la teoría básica de los refrigeradores; el proceso de interacción de la nueva información con la ya existente, produce una nueva modificación de los conceptos subsunsores (trabajo, conservación de energía, etc.), esto implica que los subsunsores pueden ser conceptos amplios, claros, estables o inestables. Todo ello de pende de la manera y la frecuencia con que son expuestos a interacción con nuevas informaciones.

En el ejemplo dado, la idea de conservación de energía y trabajo mecánico servirá de "anclaje" para nuevas informaciones referidas a máquinas térmicas, pero en la medida de que esos nuevos conceptos sean aprendidos significativamente, crecerán y se modificarían los subsunsores iniciales; es decir los conceptos de conservación de la energía y trabajo mecánico, evolucionarían para servir de subsunsores para conceptos como la segunda ley termodinámica y entropía.

La característica más importante del aprendizaje significativo es que, produce una interacción entre los conocimientos más relevantes de la estructura cognitiva y las nuevas informaciones (no es una simple asociación), de tal modo que éstas adquieren un significado y son integradas a la estructura cognitiva de manera no arbitraria y sustancial, favoreciendo la diferenciación, evolución y estabilidad de los subsunsores pre existentes y consecuentemente de toda la estructura cognitiva.

El aprendizaje mecánico, contrariamente al aprendizaje significativo, se produce cuando no existen subsunsores adecuados, de tal forma que la nueva información es almacenada arbitrariamente, sin interactuar con conocimientos pre- existentes, un ejemplo de ello sería el simple aprendizaje de fórmulas en física, esta nueva información es incorporada a la estructura cognitiva de manera literal y arbitraria puesto que consta de puras asociaciones arbitrarias, [cuando], "el alumno carece de conocimientos previos relevantes y necesarios para hacer que la tarea de aprendizaje sea potencialmente significativo" (independientemente de la cantidad de significado potencial que la tarea tenga)… (AUSUBEL; 1983: 37).

Obviamente, el aprendizaje mecánico no se da en un "vacío cognitivo" puesto que debe existir algún tipo de asociación, pero no en el sentido de una interacción como en el aprendizaje significativo. El aprendizaje mecánico puede ser necesario en algunos casos, por ejemplo en la fase inicial de un nuevo cuerpo de conocimientos, cuando no existen conceptos relevantes con los cuales pueda interactuar, en todo caso el aprendizaje significativo debe ser preferido, pues, este facilita la adquisición de significados, la retención y la transferencia de lo aprendido.

Finalmente Ausubel no establece una distinción entre aprendizaje significativo y mecánico como una dicotomía, sino como un "continuum", es más, ambos tipos de aprendizaje pueden ocurrir concomitantemente en la misma tarea de aprendizaje (Ausubel; 1983); por ejemplo la simple memorización de fórmulas se ubicaría en uno de los extremos de ese continuo( aprendizaje mecánico) y el aprendizaje de relaciones entre conceptos podría ubicarse en el otro extremo (Ap. Significativo) cabe resaltar que existen tipos de aprendizaje intermedios que comparten algunas propiedades de los aprendizajes antes mencionados, por ejemplo Aprendizaje de representaciones o el aprendizaje de los nombres de los objetos.

Aprendizaje por descubrimiento y aprendizaje por recepción.

En la vida diaria se producen muchas actividades y aprendizajes, por ejemplo, en el juego de "tirar la cuerda" ¿No hay algo que tira del extremo derecho de la cuerda con la misma fuerza que yo tiro del lado izquierdo? ¿Acaso no sería igual el tirón si la cuerda estuviera atada a un árbol que si mi amigo tirara de ella?, Para ganar el juego ¿no es mejor empujar con más fuerza sobre el suelo que tirar con más fuerza de la cuerda? Y ¿acaso no se requiere energía para ejercer está fuerza e impartir movimiento? Estás ideas conforman el fundamento en física de la mecánica, pero ¿Cómo deberían ser aprendidos?, ¿Se debería comunicar estos fundamentos en su forma final o debería esperarse que los alumnos los descubran?, Antes de buscar una respuesta a estas cuestiones, evaluemos la naturaleza de estos aprendizajes.

En el aprendizaje por recepción, el contenido o motivo de aprendizaje se presenta al alumno en su forma final, sólo se le exige que internalice o incorpore el material (leyes, un poema, un teorema de geometría, etc.) que se le presenta de tal modo que pueda recuperarlo o reproducirlo en un momento posterior.

En el caso anterior la tarea de aprendizaje no es potencialmente significativa ni tampoco convertida en tal durante el proceso de internalización, por otra parte el aprendizaje por recepción puede ser significativo si la tarea o material potencialmente significativos son comprendidos e interactúan con los "subsunsores" existentes en la estructura cognitiva previa del educando.

En el aprendizaje por descubrimiento, lo que va a ser aprendido no se da en su forma final, sino que debe ser re-construido por el alumno antes de ser aprendido e incorporado significativamente en la estructura cognitiva.

Page 16: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 14

El aprendizaje por descubrimiento involucra que el alumno debe reordenar la información, integrarla con la estructura cognitiva y reorganizar o transformar la combinación integrada de manera que se produzca el aprendizaje deseado. Si la condición para que un aprendizaje sea potencialmente significativo es que la nueva información interactúe con la estructura cognitiva previa y que exista una disposición para ello del que aprende, esto implica que el aprendizaje por descubrimiento no necesariamente es significativo y que el aprendizaje por recepción sea obligatoriamente mecánico. Tanto uno como el otro pueden ser significativo o mecánico, dependiendo de la manera como la nueva información es almacenada en la estructura cognitiva; por ejemplo el armado de un rompecabezas por ensayo y error es un tipo de aprendizaje por descubrimiento en el cual, el contenido descubierto ( el armado) es incorporado de manera arbitraria a la estructura cognitiva y por lo tanto aprendido mecánicamente, por otro lado una ley física puede ser aprendida significativamente sin necesidad de ser descubierta por el alumno, está puede ser oída, comprendida y usada significativamente, siempre que exista en su estructura cognitiva los conocimientos previos apropiados.

Las sesiones de clase están caracterizadas por orientarse hacia el aprendizaje por recepción, esta situación motiva la crítica por parte de aquellos que propician el aprendizaje por descubrimiento, pero desde el punto de vista de la transmisión del conocimiento, es injustificado, pues en ningún estadio de la evolución cognitiva del educando, tienen necesariamente que descubrir los contenidos de aprendizaje a fin de que estos sean comprendidos y empleados significativamente.

El "método del descubrimiento" puede ser especialmente apropiado para ciertos aprendizajes como por ejemplo, el aprendizaje de procedimientos científicos para una disciplina en particular, pero para la adquisición de volúmenes grandes de conocimiento, es simplemente inoperante e innecesario según Ausubel, por otro lado, el "método expositivo" puede ser organizado de tal manera que propicie un aprendizaje por recepción significativo y ser más eficiente que cualquier otro método en el proceso de aprendizaje-enseñanza para la asimilación de contenidos a la estructura cognitiva.

Finalmente es necesario considerar lo siguiente: "El aprendizaje por recepción, si bien es fenomenológicamente más sencillo que el aprendizaje por descubrimiento, surge paradójicamente ya muy avanzado el desarrollo y especialmente en sus formas verbales más puras logradas, implica un nivel mayor de madurez cognoscitiva (AUSUBEL; 1983,36).

Siendo así, un niño en edad pre escolar y tal vez durante los primeros años de escolarización, adquiere conceptos y proposiciones a través de un proceso inductivo basado en la experiencia no verbal, concreta y empírica. Se puede decir que en esta etapa predomina el aprendizaje por descubrimiento, puesto que el aprendizaje por recepción surge solamente cuando el niño alcanza un nivel de madurez cognitiva tal, que le permita comprender conceptos y proposiciones presentados verbalmente sin que sea necesario el soporte empírico concreto.

Requisitos Para El Aprendizaje Significativo

Al respecto AUSUBEL dice: El alumno debe manifestar […] una disposición para relacionar sustancial y no arbitrariamente el nuevo material con su estructura cognoscitiva, como que el material que aprende es potencialmente significativo para él, es decir, relacionable con su estructura de conocimiento sobre una base no arbitraria (AUSUBEL;1983: 48).

Lo anterior presupone:

Que el material sea potencialmente significativo, esto implica que el material de aprendizaje pueda relacionarse de manera no arbitraria y sustancial (no al pie de la letra) con alguna estructura cognoscitiva específica del alumno, la misma que debe poseer "significado lógico" es decir, ser relacionable de forma intencional y sustancial con las ideas correspondientes y pertinentes que se hallan disponibles en la estructura cognitiva del alumno, este significado se refiere a las características inherentes del material que se va aprender y a su naturaleza.

Cuando el significado potencial se convierte en contenido cognoscitivo nuevo, diferenciado e idiosincrático dentro de un individuo en particular como resultado del aprendizaje significativo, se puede decir que ha adquirido un "significado psicológico" de esta forma el emerger del significado psicológico no solo depende de la representación que el alumno haga del material lógicamente significativo, " sino también que tal alumno posea realmente los antecedentes ideativos necesarios" (AUSUBEL:1983:55) en su estructura cognitiva.

El que el significado psicológico sea individual no excluye la posibilidad de que existan significados que sean compartidos por diferentes individuos, estos significados de conceptos y proposiciones de diferentes individuos son lo suficientemente homogéneos como para posibilitar la comunicación y el entendimiento entre las personas.

Por ejemplo, la proposición: "en todos los casos en que un cuerpo sea acelerado, es necesario que actúe una fuerza externa sobre tal para producir la aceleración", tiene significado psicológico para los individuos que ya poseen algún grado de conocimientos acerca de los conceptos de aceleración, masa y fuerza.

Disposición para el aprendizaje significativo, es decir que el alumno muestre una disposición para relacionar de manera sustantiva y no literal el nuevo conocimiento con su estructura cognitiva. Así independientemente de cuanto significado potencial posea el material a ser aprendido, si la intención del alumno es memorizar arbitraria y literalmente, tanto el proceso de aprendizaje como sus resultados serán mecánicos; de manera inversa, sin importar lo significativo de la disposición del alumno, ni el proceso, ni el resultado serán significativos, si el material no es potencialmente significativo, y si no es relacionable con su estructura cognitiva.

3. Tipos de aprendizaje significativo.

Es importante recalcar que el aprendizaje significativo no es la "simple conexión" de la información nueva con la ya existente en la estructura cognoscitiva del que aprende, por el contrario, sólo el aprendizaje mecánico es la "simple conexión", arbitraria y no sustantiva; el aprendizaje significativo involucra la modificación y evolución de la nueva información, así como de la estructura cognoscitiva envuelta en el aprendizaje.

Ausubel distingue tres tipos de aprendizaje significativo: de representaciones, conceptos y de proposiciones.

Page 17: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 15

Aprendizaje de Representaciones

Es el aprendizaje más elemental del cual dependen los demás tipos de aprendizaje. Consiste en la atribución de significados a determinados símbolos, al respecto AUSUBEL dice:

Ocurre cuando se igualan en significado símbolos arbitrarios con sus referentes (objetos, eventos, conceptos) y significan para el alumno cualquier significado al que sus referentes aludan (AUSUBEL; 1983:46).

Este tipo de aprendizaje se presenta generalmente en los niños, por ejemplo, el aprendizaje de la palabra "Pelota", ocurre cuando el significado de esa palabra pasa a representar, o se convierte en equivalente para la pelota que el niño está percibiendo en ese momento, por consiguiente, significan la misma cosa para él; no se trata de una simple asociación entre el símbolo y el objeto sino que el niño los relaciona de manera relativamente sustantiva y no arbitraria, como una equivalencia representacional con los contenidos relevantes existentes en su estructura cognitiva.

Aprendizaje de Conceptos

Los conceptos se definen como "objetos, eventos, situaciones o propiedades de que posee atributos de criterios comunes y que se designan mediante algún símbolo o signos" (AUSUBEL 1983:61), partiendo de ello podemos afirmar que en cierta forma también es un aprendizaje de representaciones.

Los conceptos son adquiridos a través de dos procesos. Formación y asimilación. En la formación de conceptos, los atributos de criterio (características) del concepto se adquieren a través de la experiencia directa, en sucesivas etapas de formulación y prueba de hipótesis, del ejemplo anterior podemos decir que el niño adquiere el significado genérico de la palabra "pelota”, ese símbolo sirve también como significante para el concepto cultural "pelota", en este caso se establece una equivalencia entre el símbolo y sus atributos de criterios comunes. De allí que los niños aprendan el concepto de "pelota" a través de varios encuentros con su pelota y las de otros niños.

El aprendizaje de conceptos por asimilación se produce a medida que el niño amplía su vocabulario, pues los atributos de criterio de los conceptos se pueden definir usando las combinaciones disponibles en la estructura cognitiva por ello el niño podrá distinguir distintos colores, tamaños y afirmar que se trata de una "Pelota", cuando vea otras en cualquier momento.

Aprendizaje de proposiciones.

Este tipo de aprendizaje va más allá de la simple asimilación de lo que representan las palabras, combinadas o aisladas, puesto que exige captar el significado de las ideas expresadas en forma de proposiciones.

El aprendizaje de proposiciones implica la combinación y relación de varias palabras cada una de las cuales constituye un referente unitario, luego estas se combinan de tal forma que la idea resultante es más que la simple suma de los significados de las palabras componentes individuales, produciendo un nuevo significado que es asimilado a la estructura cognoscitiva. Es decir, que una proposición potencialmente significativa, expresada verbalmente, como una declaración que posee significado denotativo (las características evocadas al oír los conceptos) y connotativo (la carga emotiva, actitudinal e idiosincrática provocada por los conceptos) de los conceptos involucrados, interactúa con las ideas relevantes ya establecidas en la estructura cognoscitiva y, de esa interacción, surgen los significados de la nueva proposición.

4. Principio de la Asimilación

El Principio de asimilación se refiere a la interacción entre el nuevo material que será aprendido y la estructura cognoscitiva existente origina una reorganización de los nuevos y antiguos significados para formar una estructura cognoscitiva diferenciada, esta interacción de la información nueva con las ideas pertinentes que existen en la estructura cognitiva propician su asimilación.

Por asimilación entendemos el proceso mediante el cual " la nueva información es vinculada con aspectos relevantes y pre existentes en la estructura cognoscitiva, proceso en que se modifica la información recientemente adquirida y la estructura pre existente (AUSUBEL; 1983:71), al respecto Ausubel recalca: Este proceso de interacción modifica tanto el significado de la nueva información como el significado del concepto o proposición al cual está afianzada. (AUSUBEL; 1983:120).

El producto de la interacción del proceso de aprendizaje no es solamente el nuevo significado de (a’), sino que incluye la modificación del subsunsor y es el significado compuesto (A’a’).

Consideremos el siguiente caso: si queremos que el alumno aprenda el concepto de cambio de fase (a) este debe poseer el concepto de calor (energía en tránsito) (A) en su estructura cognoscitiva previa, el nuevo concepto (cambio de fase) se asimila al concepto más inclusivo (calor) (A’a’), pero si consideramos que los cambios de fase se deben a una transferencia de energía, no solamente el concepto de cambio de fase podrá adquirir significado para el alumno, sino también el concepto de calor que el ya poseía será modificado y se volverá más inclusivo, esto le permitirá por ejemplo entender conceptos como energía interna, capacidad calorífica específica. etc.

Evidentemente, el producto de la interacción A’ a’ puede modificarse después de un tiempo; por lo tanto la asimilación no es un proceso que concluye después de un aprendizaje significativo sino, que continua a lo largo del tiempo y puede involucrar nuevos aprendizajes así como la pérdida de la capacidad de reminiscencia y reproducción de las ideas subordinadas.

Para tener una idea más clara de cómo los significados recién asimilados llegan a estar disponibles durante el periodo de aprendizaje, AUSUBEL plantea que durante cierto tiempo "son disociables de sus subsunsores, por lo que pueden ser reproducidos como entidades individuales lo que favorece la retención de a'.

Page 18: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 16

La teoría de la asimilación considera también un proceso posterior de "olvido" y que consiste en la "reducción" gradual de los significados con respecto a los subsunsores. Olvidar representa así una pérdida progresiva de disociabilidad de las ideas recién asimiladas respecto a la matriz ideativa a la que estén incorporadas en relación con la cual surgen sus significados (AUSUBEL; 1983:126).

Se puede decir entonces que, inmediatamente después de producirse el aprendizaje significativo como resultado de la interacción A’a’, comienza una segunda etapa de asimilación a la que AUSUBEL llama: asimilación obliteradora.

En esta etapa las nuevas ideas se vuelven espontánea y progresivamente menos disociables de los subsunsores (ideas ancla). Hasta que no son reproducibles como entidades individuales, esto quiere decir que en determinado momento la interacción A’a’ , es simplemente indisociable y se reduce a (A’) y se dice que se olvidan, desde esta perspectiva el olvido es una continuación de "fase temporal posterior" del proceso de aprendizaje significativo, esto se debe que es más fácil retener los conceptos y proposiciones subsunsores, que son más estables que recordar las ideas nuevas que son asimiladas en relación con dichos conceptos y proposiciones.

Es necesario mencionar que la asimilación obliterada "sacrifica" un cierto volumen de información detallada y específica de cualquier cuerpo de conocimientos.

La asimilación obliteradora, es una consecuencia natural de la asimilación, sin embargo, no significa que el subsunsor vuelva a su forma y estado inicial, sino, que el residuo de la asimilación obliteradora (A’), es el miembro más estable de la interacción (A’a’), que es el subsunsor modificado. Es importante destacar que describir el proceso de asimilación como única interacción A’a’, sería una simplificación, pues en grado menor, una nueva información interactúa también con otros subsunsores y la calidad de asimilación depende en cada caso de la relevancia del subsunsor.

Resumiendo, la esencia la teoría de la asimilación reside en que los nuevos significados son adquiridos a través de la interacción de los nuevos conocimientos con los conceptos o proposiciones previas, existentes en la estructura cognitiva del que aprende, de esa interacción resulta de un producto (A’a’), en el que no solo la nueva información adquiere un nuevo significado (a’) sino, también el submundo (A) adquiere significados adicionales (A’). Durante la etapa de retención el producto es disociable en A’ y a’; para luego entrar en la fase obliteradora donde (A’a’) se reduce a A’ dando lugar al olvido.

Dependiendo como la nueva información interactúa con la estructura cognitiva, las formas de aprendizaje planteadas por la teoría de asimilación son las siguientes.

Aprendizaje Subordinado.

Este aprendizaje se presenta cuando la nueva información es vinculada con los conocimientos pertinentes de la estructura cognoscitiva previa del alumno, es decir cuando existe una relación de subordinación entre el nuevo material y la estructura cognitiva pre existente, es el típico proceso de subsunción.

El aprendizaje de conceptos y de proposiciones, hasta aquí descritos reflejan una relación de subordinación, pues involucran la subsunción de conceptos y proposiciones potencialmente significativos a las ideas más generales e inclusivas ya existentes en la estructura cognoscitiva.

Ausubel afirma que la estructura cognitiva tiende a una organización jerárquica en relación al nivel de abstracción, generalidad e inclusividad de las ideas, y que, "la organización mental" […] ejemplifica una pirámide […] en que las ideas más inclusivas se encuentran en el ápice, e incluyen ideas progresivamente menos amplias (AUSUBEL; 1983:121).

El aprendizaje subordinado puede a su vez ser de dos tipos: Derivativo y Correlativo. El primero ocurre cuando el material es aprendido y entendido como un ejemplo específico de un concepto ya existente, confirma o ilustra una proposición general previamente aprendida. El significado del nuevo concepto surge sin mucho esfuerzo, debido a que es directamente derivable o está implícito en un concepto o proposición más inclusiva ya existente en la estructura cognitiva, por ejemplo, si estamos hablando de los cambios de fase del agua, mencionar que en estado líquido se encuentra en las "piletas", sólido en el hielo y como gas en las nubes se estará promoviendo un aprendizaje derivativo en el alumno, que tenga claro y preciso el concepto de cambios de fase en su estructura cognitiva. Cabe indicar que los atributos de criterio del concepto no cambian, sino que se reconocen nuevos ejemplos.

El aprendizaje subordinado es correlativo, "si es una extensión elaboración, modificación o limitación de proposiciones previamente aprendidas"(AUSUBEL; 1983: 47). En este caso la nueva información también es integrada con los subsunsores relevantes más inclusivos pero su significado no es implícito por lo que los atributos de criterio del concepto incluido pueden ser modificados. Este es el típico proceso a través del cual un nuevo concepto es aprendido.

Aprendizaje Supraordinado.

Ocurre cuando una nueva proposición se relaciona con ideas subordinadas específicas ya establecidas, "tienen lugar en el curso del razonamiento inductivo o cuando el material expuesto […]implica la síntesis de ideas componentes" (AUSUBEL; 1983:83), por ejemplo: cuando se adquieren los conceptos de presión, temperatura y volumen, el alumno más tarde podrá aprender significado de la ecuación del estado de los gases perfectos; los primeros se subordinan al concepto de ecuación de estado lo que representaría un aprendizaje supraordinado. Partiendo de ello se puede decir que la idea supraordinada se define mediante un conjunto nuevo de atributos de criterio que abarcan las ideas subordinadas, por otro lado el concepto de ecuación de estado, puede servir para aprender la teoría cinética de los gases.

El hecho que el aprendizaje supraordinado se torne subordinado en determinado momento, nos confirma que ella estructura cognitiva es modificada constantemente; pues el individuo puede estar aprendiendo nuevos conceptos por subordinación y a la vez, estar realizando aprendizajes supraordinados (como en el anterior) posteriormente puede ocurrir lo inverso resaltando la característica dinámica de la evolución de la estructura cognitiva.

Page 19: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 17

Aprendizaje Combinatorio.

Este tipo de aprendizaje se caracteriza por que la nueva información no se relaciona de manera subordinada, ni supraordinada con la estructura cognoscitiva previa, sino se relaciona de manera general con aspectos relevantes de la estructura cognoscitiva. Es como si la nueva información fuera potencialmente significativa con toda la estructura cognoscitiva.

Considerando la disponibilidad de contenidos relevantes apenas en forma general, en este tipo de aprendizaje, las proposiciones son, probablemente las menos relacionables y menos capaces de "conectarse" en los conocimientos existentes, y por lo tanto más dificultosa para su aprendizaje y retención que las proposiciones subordinadas y supraordinadas; este hecho es una consecuencia directa del papel crucial que juega la disponibilidad subsunsores relevantes y específicos para el aprendizaje significativo.

Finalmente el material nuevo, en relación con los conocimientos previos no es más inclusivo ni más específico, sino que se puede considerar que tiene algunos atributos de criterio en común con ellos, y pese a ser aprendidos con mayor dificultad que en los casos anteriores se puede afirmar que "Tienen la misma estabilidad […] en la estructura cognoscitiva" (AUSUBEL;1983:64), por que fueron elaboradas y diferenciadas en función de aprendizajes derivativos y correlativos, son ejemplos de estos aprendizajes las relaciones entre masa y energía, entre calor y volumen esto muestran que implican análisis, diferenciación, y en escasas ocasiones generalización , síntesis.

5. Diferenciación progresiva y reconciliación integradora

Como ya fue dicho antes, en el proceso de asimilación las ideas previas existentes en la estructura cognitiva se modifican adquiriendo nuevos significados. La presencia sucesiva de este hecho "Produce una elaboración adicional jerárquica de los conceptos o proposiciones" (AUSUBEL; 1983:539), dando lugar a una diferenciación progresiva. Este es un hecho que se presenta durante la asimilación, pues los conceptos subsunsores están siendo reelaborados y modificados constantemente, adquiriendo nuevos significados, es decir, progresivamente diferenciados. Este proceso se presenta generalmente en el aprendizaje subordinado (especialmente en el correlativo).

Por otro lado, si durante la asimilación las ideas ya establecidas en la estructura cognitiva son reconocidas y relacionadas en el curso de un nuevo aprendizaje posibilitando una nueva organización y la atribución de un significado nuevo, a este proceso se le podrá denominar según AUSUBEL reconciliación integradora, este proceso se presentan durante los aprendizajes supraordinados y combinatorios, pues demandan de una recombinación de los elementos existentes en la estructura cognitiva.(MOREIRA: 1993).

La diferenciación progresiva y la reconciliación integradora son procesos dinámicos que se presentan durante el aprendizaje significativo. La estructura cognitiva se caracteriza por lo tanto, por presentar una organización dinámica de los contenidos aprendidos. Según AUSUBEL, la organización de éstos, para un área determinada del saber en la mente del individuo tiende a ser una estructura jerárquica en la que las ideas más inclusivas se sitúan en la cima y progresivamente incluyen proposiciones, conceptos y datos menos inclusivos y menos diferenciados (AHUAMADA:1983).

Todo aprendizaje producido por la reconciliación integradora también dará a una mayor diferenciación de los conceptos o proposiciones ya existentes pues la reconciliación integradora es una forma de diferenciación progresiva presente durante el aprendizaje significativo.

Los conceptos de diferenciación progresiva y reconciliación integradora pueden ser aprovechados en la labor educativa, puesto que la diferenciación progresiva puede provocarse presentando al inicio del proceso educativo, las ideas más generales e inclusivas que serán enseñadas, para diferenciarlos paulatinamente en términos de detalle y especificidad, por ello se puede afirmar que: Es más fácil para los seres humanos captar aspectos diferenciados de un todo inclusivo previamente aprendido, que llegar al todo a partir de sus componentes diferenciados ya que la organización de los contenidos de una cierta disciplina en la mente de un individuo es una estructura jerárquica(AHUAMADA 1983:87).

Por ello la programación de los contenidos no solo debe proporcionar una diferenciación progresiva sino también debe explorar explícitamente las relaciones entre conceptos y relaciones, para resaltar las diferencias y similitudes importantes, para luego reconciliar las incongruencias reales o aparentes.

Finalmente, la diferenciación progresiva y la reconciliación integradora son procesos estrechamente relacionados que ocurren a medida que el aprendizaje significativo ocurre. En el aprendizaje subordinado se presenta una asimilación (subsunción) que conduce a una diferenciación progresiva del concepto o proposición subsunsor; mientras que en el proceso de aprendizaje supraordinado y en el combinatorio a medida que las nuevas informaciones son adquiridas, los elementos ya existentes en la estructura cognitiva pueden ser precisados, relacionados y adquirir nuevos significados y como consecuencia ser reorganizados así como adquirir nuevos significados. En esto último consiste la reconciliación integradora.

6. Bibliografía

AUSUBEL-NOVAK-HANESIAN (1983). Psicología Educativa: Un punto de vista cognoscitivo .2° Ed. México: TRILLAS.

AHUAMADA GUERRA Waldo (1983). Mapas Conceptuales Como Instrumento para Investigar a Estructura Cognitiva en Física. Disertación de Maestría Inédita. Instituto de Física Universidad Federal de Río Grande Do Sul Sao Paulo.

AYMA GIRALDO, Víctor. (1996). Curso: Enseñanza de las Ciencias: Un enfoque Constructivista. Febrero UNSAAC.

AYMA GIRALDO, Víctor. (1996ª). Aulas de Laboratorio Usando Material Experimental Conceptual. Disertación de maestría inédita. Instituto de Física y facultad de Educación. Universidad de Sao Paulo.

COLL-PALACIOS-MARCHESI (1992). Desarrollo Psicológico y Educación II. Madrid: Ed. Alianza.

GIL – PESSOA (1992). Tendencias y Experiencias Innovadoras en la Formación del Profesorado de Ciencias. Taller Sub regional Sobre formación y capacitación docente. Caracas

NOVAK, J - GOWIN, B. (1988). Aprendiendo a Aprender. Barcelona: Martínez Roca.

MOREIRA, M.A. (1993). A Teoría da Aprendizagem Significativa de David Ausubel. Fascículos de CIEF Universidad de Río Grande do Sul Sao Paulo.

MOREIRA M.A. Metodología da pesquisa e metodología de encino: uma aplicaçao práctica. En: Ciencia e Cultura, 37 (10), OCTUBRO DE 1985.

PALOMINO-DELGADO-VALCARCEL (1996). Enseñanza Termodinámica: Un Enfoque Constructivista. II Encuentro de Físicos en la Región Inka. UNSAAC.

Page 20: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014

MMuujjeerreess cciieennttííffiiccaass iimm

En física Albert Einstein e Isaac Newton, en química Melvin Calvin, en biología Charles Darwin, en sociología Auguste Comte, en antropología Claude Lévi-Strauss o Bronislaw Malinowski, en matemáticasincontables científicos más que importantes dentro de cada disciplimayoría son hombres.

Pero ¿qué hay de las mujeres científicas? ¿De las mujeres que a lo largo de la historia han realizado espectaculares avances en lasaño, las universidades forman miles y miles de futuras científicas, pero a la hora de ocupar la primera plana, lo cierto es qrelega. Por eso es que hoy presentamos esta lista con

CIENTÍFICAS SIGNIFICATIVAS

Entre las mujeres, en la historia se han destacados un número significativo de ellas como grandes científicas. Imposible en treferencias a todas. En la lista que publicamos hoy, ciencias y a la humanidad. Dicho esto, conozcamos a

HIPATIA DE ALEJANDRÍA

JANE GOODALL

Valerie Jane Morris-Goodall nació en Londres, Inglaterra, en el año 1934. Como primatóloga, estudió el uso de herramientas en chimpancés, a quienes ha dedicado el estudio de toda su vida. Jane ha realizado profundas y fructíferas investigaciones científicas sobre el comportamiento, el uso de herramientas y los modos de vida de los chimpancés. En 200fueron reconocidos por la comunidad científica con el Premio Príncipe de Asturias de Investigación Científica y Técnica.

SOPHIE GERMAIN

EMMY NOETHER

Amalie Emmy Noether podría considerarse como la historia de las matemáticas y de hecho, vale destacar que entre otros tantos, así la consideraba Einstein. Nació en Erlangen, Alemania, en el año 1882 y falleció en el 1935 en EEUU, luego de ser expulsada por los nazis unos años antes. La figura de Noether ocupa un imprescindible lugar en el ámbito de las matemáticas, especialmente en la física teórica y el álgebra abstracta, con grandes avances en cuanto a las teorías de anillos, grupos y campos. A lo largo de su vida realizó unas 40 publicaciones realmente ejemplares.

Año 12 Miércoles, 5 de Marzo de 2014

mmppoorrttaanntteess eenn llaa hhiissttoorriiaa

, en química Melvin Calvin, en biología Charles Darwin, en sociología Auguste Comte, en antropología ski, en matemáticas Blaise Pascal, en psicología Sigmund Freud y así... Uno puede citar el nombre de

incontables científicos más que importantes dentro de cada disciplina y sean sus nombres populares o no, la realidad es que generalmente, la gran

? ¿De las mujeres que a lo largo de la historia han realizado espectaculares avances en lasaño, las universidades forman miles y miles de futuras científicas, pero a la hora de ocupar la primera plana, lo cierto es qrelega. Por eso es que hoy presentamos esta lista con mujeres científicas importantes en la historia.

Entre las mujeres, en la historia se han destacados un número significativo de ellas como grandes científicas. Imposible en tque publicamos hoy, incluimos pocas pero las mismas se han destacado por sus grandes e importantes

Dicho esto, conozcamos a estas grandes señoras de las ciencias.

Hipatia de Alejandría fue la primera mujer en realizar una contribución sustancial al desarrollo de las matemáticas. Es necesario colocarla en esta lista pues fue una verdadera precursora y hasta una mártir comoNació en el año 370 en Alejandría (Egipto) y falleció en el 416, cuando sus trabajos en filosofía, física y astronomía fueron considerados como una herejía por un amplio grupo de cristianos, quienes la asesinaron brutalmente. Desde entonces, Hipatia fue considerada casi que como una santa patrona de las ciencias y su imagen se considera un símbolo de la defensa de las ciencias, contra la irracionalidad y la estupidez de las embestidas religiosas, siempre carentes del mínimo sentido. Sin dudas, la mejor manera de comenzar esta lista.

nació en Londres, Inglaterra, en el año 1934. Como primatóloga, estudió el uso de herramientas en chimpancés, a quienes

ha realizado profundas y fructíferas investigaciones científicas sobre el comportamiento, el uso de herramientas y los modos de vida de los chimpancés. En 2003, sus trabajos fueron reconocidos por la comunidad científica con el Premio Príncipe de

Marie-Sophie Germain fue una matemática francesa que se destacó por su aporte a la teoría de números. Nació en París, Francia, en el año 1776 y falleció en 1831, dejando una amplia serie de aportes sumamente importantes sobre la teoría de la elasticidad y números, entre otros: el de los números primos de Sophie Germain.

la mujer más importante en y de hecho, vale destacar que entre otros tantos,

así la consideraba Einstein. Nació en Erlangen, Alemania, en el año 1882 y falleció en el 1935 en EEUU, luego de ser expulsada por los nazis unos años

cindible lugar en el ámbito de las matemáticas, especialmente en la física teórica y el álgebra abstracta, con grandes avances en cuanto a las teorías de anillos, grupos y campos. A lo largo de su vida realizó unas 40 publicaciones realmente ejemplares.

18

, en química Melvin Calvin, en biología Charles Darwin, en sociología Auguste Comte, en antropología

, en psicología Sigmund Freud y así... Uno puede citar el nombre de na y sean sus nombres populares o no, la realidad es que generalmente, la gran

? ¿De las mujeres que a lo largo de la historia han realizado espectaculares avances en las ciencias? Cada año, las universidades forman miles y miles de futuras científicas, pero a la hora de ocupar la primera plana, lo cierto es que nuestra sociedad las

Entre las mujeres, en la historia se han destacados un número significativo de ellas como grandes científicas. Imposible en tan poco espacio hacer grandes e importantes aportes a las

en realizar una contribución sustancial al desarrollo de las matemáticas. Es necesario colocarla en esta lista

adera precursora y hasta una mártir como mujer de ciencias. Nació en el año 370 en Alejandría (Egipto) y falleció en el 416, cuando sus trabajos en filosofía, física y astronomía fueron considerados como una herejía

es la asesinaron brutalmente. Desde fue considerada casi que como una santa patrona de las

símbolo de la defensa de las ciencias, contra la irracionalidad y la estupidez de las embestidas religiosas, siempre carentes del mínimo sentido. Sin dudas, la mejor manera de comenzar esta lista.

fue una matemática francesa que se destacó por su aporte a la teoría de números. Nació en París, Francia, en el año 1776 y falleció en 1831, dejando una amplia serie de aportes sumamente importantes sobre la teoría de la elasticidad y los números, entre otros: el de los números primos de Sophie Germain.

Page 21: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 19

BÁRBARA McCLINTOCK

De origen también estadounidense, Bárbara McClintock nació en Hartford en el año 1902 y falleció en 1992, dejando un importante descubrimiento en el campo de la genética. Bárbara se especializó en la citogenética y obtuvo un doctorado en botánica en el año 1927. A pesar de que durante mucho tiempo, injustamente sus trabajos no fueron tomados en cuenta, 30 años más tarde se le otorgó el premio Nobel por su excepcional e increíblemente aportes, adelantados para su época: teoría de los genes saltarines, revelando el hecho de que los genes eran capaces de saltar entre diferentes cromosomas. Hoy, este es un concepto esencial en genética.

LISE MEITNER

Lise Meitner nació en la Viena del Imperio Austrohúngaro, hoy Austria, en el año 1878 y falleció en 1968. Fue una física con un amplio desarrollo en el campo de la radioactividad y la física nuclear, siendo parte fundamental del equipo que descubrió la fisión nuclear, aunque solo su colega Otto Hahn obtuvo el reconocimiento (imaginen el por qué). Años más tarde, el meitnerio (elemento químico de valor atómico 109) fue nombrado así en su honor.

AUGUSTA ADA BYRON (CONDESA DE LOVELACE)

Mejor conocida como Ada Lovelace, Augusta Ada Byron, Condesa de Lovelace, fue una brillante matemática inglesa. Nació en Londres en el año 1815 y falleció en 1852. Absolutamente adelantada a su tiempo, la gran Ada fue la primera científica de la computación de la historia, la primera programadora del mundo. Ella descubrió que mediante una serie de símbolos y normas matemáticas era posible calcular una importante serie de números, ella previó las capacidades que una máquina (más tarde sería el ordenador) tenía para el desarrollo de los cálculos numéricos y más, de acuerdo a los principios de Babbage y su “motor analítico”. Como curiosidad y por si su apellido te suena, ella fue la hija de uno de los poetas más grandes en la historia de la literatura universal, por supuesto: el magnífico Lord Byron.

JOCELYN BELL

Susan Jocelyn Bell Burnell es la astrofísica británica que descubrió de la primera radioseñal de un púlsar. Nació el 15 de julio de 1943, en Belfast, Irlanda del Norte y su descubrimiento fue parte de su propia tesis. Sin embargo, el reconocimiento sobre este descubrimiento fue para Antony Hewish, su tutor, a quien se le otorgó el premio Nobel de Física en 1974. Este injusto acto, que aunque como ya vimos no es nada nuevo, fue cuestionado durante años, siendo hasta hoy un tema de controversia.

ROSALIND FRANKLIN

Rosalind Elsie Franklin nació en 1920 en Londres y falleció en el año 1958. Fue biofísica y cristalógrafa, teniendo participación crucial en la comprensión de la estructura del ADN, ámbito en el que dejó grandes contribuciones. No obstante y a la vez, volvemos a encontrarnos con bochornosos actos dentro de la comunidad científica, uno de sus más grandes trabajos: hizo posible la observación de la estructura del ADN mediante imágenes tomadas con rayos X, tampoco fue reconocido. Por el contrario y como ya sabemos, el crédito y el premio Nobel en Medicina se lo llevaron Watson (quien más tarde fue cuestionado por sus polémicas declaraciones racistas y homofóbicas) y Crick.

MARIE CURIE

Como muchos esperarían, la más importante de todas podría ser la química y física polaca MARIE SALOMEA SKŁODOWSKA CURIE , mejor conocida por el apellido de casada, Marie Curie, la mujer que dedicó su vida entera a la radioactividad, siendo la máxima pionera en este ámbito. Ella nació en el año 1867 y murió en 1934, siendo la primera persona en conseguir dos premios Nobel, para los cuales literalmente dio su vida y hoy, a más de 75 años de su muerte, sus papeles archivados son tan radiactivos que no pueden manejarse sin un equipo especial. Su legado y sus conocimientos en física y química impulsaron grandes avances.

Page 22: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014

MARIA GOEPPERT MAYER

DOROTHY CROWFOOT HODGKIN

Dorothy Mary Crowfoot Hodgkin nació en El Cairobritánico, el 12 de mayo de 1910 ; y murió en Shiptonsjulio de1994. Fue una química y profesora universitariagalardonada con el Premio Nobel de Química del añopionera en la técnica de determinación de estructuras de sustancias de interés bioquímico mediante rayos X. Convirtió la

investigación primaria, iniciando sus investigaciones enLa difracción de rayos X en la década de 1930 todavía no estaba suficientemente desarrollada, por la que decidió mejorar la técnica cristalográfica, consiguiendo determinar la estructura tridimensional de las siguientesinsulina en 1969; así como la de la lactoglobulinaencaminaron al calciferol o vitamina D2, así como alde la estructura de muchas sustancias biológicas mediante los rayos Xel intercambio intelectual entre científicos y preocupde las Conferencias Pugwash de Ciencia y Asuntos Mundiales. Además fue galardonada con el Soviético en 1985-1986.

GERTRUDE BELLE ELION

Nunca obtuvo un título formal de doctora, pero posteriormente fue reconocida con un título honorario por laEnseñó en la Universidad de Duke. Trabajando en solitario o simultáneamente con Hitchings, Elion desarrolló gran cavaliéndose de nuevos e innovadores métodos de investigación que posteriormente conducirían al desarrollo del fármacodel sida. Antes que basarse en el método de ensayo y errory patógenas (agentes causantes de enfermedades) para diseñar fármacos que pudieran eliminar o inhibir la reproducción de patógenos particdañar las células huéspedes. Los descubrimientos de Elion incluyen: Azatioprina (Imuran), el primer agente inmunosupresorPirimetamina (Daraprim), contra la malaria.Trimetoprime infecciones bacterianas deltracto urinario y respiratorioMedicina, conjuntamente con Hitchings y Sir James BlackLemelson-MIT al logro de toda una vida (1997). En 1991 se convirtió en la primera mujer perteneciente alElion murió por causas naturales en Carolina del Norte

ROSALYN SUSSMAN YALOW

Miércoles, 5 de Marzo de 2014

Maria Goeppert Mayer fue una física estadounidense, ganadora del premio Nobel. Nació el 28 de junio de 1906 en Universidad de Gotinga en Alemania. En 1931 contrae matrimonio con el físico estadounidense Joseph E. Mayer, con el que se traslada aobteniendo la nacionalidad en 1933. Fue profesora en divede incorporarse en la Universidad de California, San Diego, en 1960.compartió el Premio Nobel de Física y fue nominada por la Comisión Nobel por sus trabajos, realizados en los últimos años de la década de 1940, en los que demostró que el núcleo atómico tiene una estructura que contiene sucesivas capas de protones y neutrones unidas por fuerzas complejas.falleció el 20 de febrero de 1972 en San Diego, California.

El Cairo, Egipto, bajo el Imperio Shiptons-on-Stour, Inglaterra, 29 de

y profesora universitaria de nacionalidad inglesa del año 1964. Hodgkin fue

pionera en la técnica de determinación de estructuras de sustancias de insulina en su proyecto de

investigación primaria, iniciando sus investigaciones en 1934 cuando Robert Robinson le ofreció una muestra pequeña de insulina cristalina. todavía no estaba suficientemente desarrollada, por la que decidió mejorar la técnica cristalográfica,

ura tridimensional de las siguientes biomoléculas: colesterol en 1937, penicilinalactoglobulina, ferritina, y virus del mosaico del tabaco. Posteriormente Hodgkin y sus colaboradores se

, así como al antibiótico gramicidina. En 1964 se le otorgó el Premio Nobel de Químicauchas sustancias biológicas mediante los rayos X, convirtiéndose en la tercera mujer en conseguir este galardón

y preocupada por los problemas que la ciencia ocasionaba a la población, entrede Ciencia y Asuntos Mundiales. Además fue galardonada con el Premio Lenin por la Paz

Gertrude Belle Elion nació en Nueva York, el en Carolina del Norte, el 21 de febrerofarmacóloga de nacionalidad estadounidenseNobel de Fisiología y Medicina. Nacida en la ciudad deemigrantes judíos, se licenció en el Hunter Collegela Universidad de Nueva York en 1941. Impedida de obtener un puesto de investigadora debido a su condición de mujerlaboratorio y profesora de instituto, antes de convertirse en asistente deH. Hitchings en la compañía farmacéutica Wellcome (actualmente GlaxoSmithKline).

pero posteriormente fue reconocida con un título honorario por la . Trabajando en solitario o simultáneamente con Hitchings, Elion desarrolló gran ca

valiéndose de nuevos e innovadores métodos de investigación que posteriormente conducirían al desarrollo del fármacoensayo y error, Elion e Hitchings utilizaron las diferencias bioquímicas entre células humanas normales

(agentes causantes de enfermedades) para diseñar fármacos que pudieran eliminar o inhibir la reproducción de patógenos particdañar las células huéspedes. Los descubrimientos de Elion incluyen: 6-mercaptopurina (Purinetol), el primer tratamiento contra la

agente inmunosupresor, usado en los trasplante de órganos. AlopurinolTrimetoprim (Septra), eficaz frente a las meningitis bacterianas y algunos tipos derespiratorio. Aciclovir (Zovirax), contra virus Herpes. En 1988 Elion recibió el Premio Nobel de

Sir James Black. Otros premios que recibió son la Medalla Nacional a la Ciencia(1997). En 1991 se convirtió en la primera mujer perteneciente al National Inventors Hall of Fame

Carolina del Norte en 1999, a la edad de 81 años. Permaneció soltera y nunca tuvo hijos.

Rosalyn Sussman Yalow. Física, médico y premio Nobel estadounidense. Nació el 19 de julio de 1921 en elYork (Estados Unidos). Graduada con matrícula de honor enQuímica en Hunter College. Doctorada en Illinois en 1945. Fue profesora en el Hunter College1950 y trabajó más tarde en el Veterans Administration Hospital de Nueva York. En la década de 1950, junto a el médico estadounidense Solomon Aaron Berson, dinmuno ensayo para medir cantidades muy pequeñas de sustancias biológicas en los líquidos corporales empleando un producto marcado radiactivamente. En 1977 compartió elMedicina por este trabajo. Rosalyn Yalow falleció el 30 de mayo de 2011 en el Bronx.

20

ísica estadounidense, ganadora del premio Katowice. Cursó estudios en la

Universidad de Gotinga en Alemania. En 1931 contrae matrimonio con el físico , con el que se traslada a Estados Unidos,

obteniendo la nacionalidad en 1933. Fue profesora en diversas instituciones antes de incorporarse en la Universidad de California, San Diego, en 1960. En 1963

fue nominada por la Comisión Nobel por sus trabajos, realizados en los últimos años de la década de 1940, en los que

tiene una estructura que contiene sucesivas capas de protones y neutrones unidas por fuerzas complejas. Maria Goeppert Mayer

, California.

le ofreció una muestra pequeña de insulina cristalina.

todavía no estaba suficientemente desarrollada, por la que decidió mejorar la técnica cristalográfica, penicilina en 1945, vitamina B12 en 1954,

Posteriormente Hodgkin y sus colaboradores se Premio Nobel de Química por la determinación

, convirtiéndose en la tercera mujer en conseguir este galardón. Interesada en ada por los problemas que la ciencia ocasionaba a la población, entre 1976 y 1988 fue presidenta

Premio Lenin por la Paz concedido por el Gobierno

Nueva York, el 23 de enero de 1918 y murió 21 de febrero de 1999). Fue una bioquímica y estadounidense, que recibió en 1988 el Premio

. Nacida en la ciudad de Nueva York, hija de Hunter College en 1937 y en

en 1941. Impedida de obtener un puesto de mujer, trabajó como asistente de

laboratorio y profesora de instituto, antes de convertirse en asistente de George en la compañía farmacéutica Burroughs-

Universidad George Washington.

. Trabajando en solitario o simultáneamente con Hitchings, Elion desarrolló gran cantidad de nuevos fármacos, valiéndose de nuevos e innovadores métodos de investigación que posteriormente conducirían al desarrollo del fármaco AZT para el tratamiento

zaron las diferencias bioquímicas entre células humanas normales (agentes causantes de enfermedades) para diseñar fármacos que pudieran eliminar o inhibir la reproducción de patógenos particulares sin

(Purinetol), el primer tratamiento contra la leucemia. Alopurinol (Zyloprim), contra la gota.

bacterianas y algunos tipos de septicemia, . En 1988 Elion recibió el Premio Nobel de

Medalla Nacional a la Ciencia (1991) y el Premio National Inventors Hall of Fame. Gertrude

en 1999, a la edad de 81 años. Permaneció soltera y nunca tuvo hijos. Física, médico y premio Nobel

estadounidense. Nació el 19 de julio de 1921 en el Bronx, Nueva Graduada con matrícula de honor en Física y

Doctorada en Física por la Universidad de profesora en el Hunter College desde 1945 hasta

1950 y trabajó más tarde en el Veterans Administration Hospital de En la década de 1950, junto a el médico

, desarrolló la técnica de radio para medir cantidades muy pequeñas de sustancias

biológicas en los líquidos corporales empleando un producto marcado En 1977 compartió el Premio Nobel de Fisiología y

Rosalyn Yalow falleció el 30 de mayo de 2011

Page 23: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 21

¿¿JJuueeggaa DDiiooss aa llooss ddaaddooss?? Autor: Stephen Hawking,

EL DIARIO DE CARACAS Publicado el Sábado, 01/02/2014 - 10:30

Fuente: http://www.fortinmapocho.com/detalle.asp?iPro=1576&iType=146 / Traducción: José Luis Acuña / Adriana Martínez

STEPHEN HAWKING

¿Podemos predecir el futuro o bien éste es arbitrario y aleatorio?... En la antigüedad, el mundo debía de haber parecido bastante arbitrario. Desastres como las inundaciones o las enfermedades debían de haber parecido producirse sin aviso o razón aparente. La gente primitiva atribuía esos fenómenos naturales a un panteón de dioses y diosas que se comportaban de una forma caprichosa e impulsiva. No había forma de predecir lo que harían, y la única esperanza era ganarse su favor mediante regalos o conductas. Mucha gente todavía suscribe parcialmente esta creencia, y tratan de firmar un pacto con la fortuna. Se ofrecen para hacer ciertas cosas a cambio de un sobresaliente en una asignatura, o de aprobar el examen de conducir.

Sin embargo, la gente se debió de dar cuenta gradualmente de ciertas regularidades en el comportamiento de la naturaleza. Estas regularidades eran más obvias en el movimiento de los cuerpos celestes a través del firmamento. Por eso la Astronomía fue la primera ciencia en desarrollarse. Fue puesta sobre una firme base matemática por Newton hace más de 300 años, y todavía usamos su teoría de la gravedad para predecir el movimiento de casi todos los cuerpos celestes. Siguiendo el ejemplo de la Astronomía, se encontró que otros fenómenos naturales también obedecían leyes científicas definidas. Esto llevó a la idea del determinismo científico, que parece haber sido expresada públicamente por primera vez por el científico francés Laplace. Me pareció que me gustaría citar literalmente las palabras de Laplace. Y le pedí a un amigo que me las buscara. Por supuesto que están en francés, aunque no esperaba que la audiencia tuviera ningún problema con esto. El problema es que Laplace, como Prewst [N. del T.: Hawking probablemente se refiere a Proust], escribía frases de una longitud y complejidad exageradas. Por eso he decidido parafrasear la cita. En efecto, lo que él dijo era que, si en un instante determinado conociéramos las posiciones y velocidades de todas las partículas en el Universo, podríamos calcular su comportamiento en cualquier otro momento del pasado o del futuro. Hay una historia probablemente apócrifa según la cual Napoleón le preguntó a Laplace sobre el lugar de Dios en este sistema, a lo que él replicó 'Caballero, yo no he necesitado esa hipótesis'. No creo que Laplace estuviera reclamando que Dios no existe. Es simplemente que El no interviene para romper las leyes de la Ciencia. Esa debe ser la postura de todo científico. Una ley científica no lo es si solo se cumple cuando algún ser sobrenatural lo permite y no interviene.

La idea de que el estado del universo en un instante dado determina el estado en cualquier otro momento ha sido uno de los dogmas centrales de la ciencia desde los tiempos de Laplace. Eso implica que podemos predecir el futuro, al menos en principio. Sin embargo, en la práctica nuestra capacidad para predecir el futuro está severamente limitada por la complejidad de las ecuaciones, y por el hecho de que a menudo exhiben una propiedad denominada caos. Como sabrán bien todos los que han visto Parque Jurásico, esto significa que una pequeña perturbación en un lugar puede producir un gran cambio en otro. Una mariposa que bate sus alas puede hacer que llueva en Central Park, Nueva York. El problema es que eso no se puede repetir. La siguiente vez que una mariposa bata sus alas, una multitud de otras cosas serán diferentes, lo que también tendrá influencia sobre la meteorología. Por eso las predicciones meteorológicas son tan poco fiables.

A pesar de estas dificultades prácticas, el determinismo científico permaneció como dogma durante el siglo 19. Sin embargo, en el siglo 20 ha habido dos desarrollos que muestran que la visión de Laplace sobre una predicción completa del futuro no puede ser llevada a cabo. El primero de esos desarrollos es lo que se denomina mecánica cuántica. Fue propuesta por primera vez en 1900, por el físico alemán Max Planck, como hipótesis ad hoc para resolver una paradoja destacada. De acuerdo con las ideas clásicas del siglo 19, que se remontan a los tiempos de Laplace, un cuerpo caliente, como una pieza de al rojo, debería emitir radiación. Perdería energía en forma de ondas de radio, infrarrojos, luz visible, ultravioleta, rayos x, y rayos gamma, todos a la misma tasa. Esto no sólo significaría que todos moriríamos de cáncer de piel, sino que además todo en el universo estaría a la misma temperatura, lo que claramente no es así. Sin embargo, Planck mostró que se puede evitar este desastre si se abandonara la idea de que la cantidad de radiación puede tener cualquier valor, y se dijera en su lugar que la radiación llega únicamente en paquetes o cuantos de un cierto tamaño. Es un poco como decir que en el supermercado no se puede comprar azúcar a granel, sino sólo en bolsas de un kilo. La energía en los paquetes o cuantos es mayor para los rayos x y ultravioleta, que para la luz infrarroja o visible. Esto significa que a menos que un cuerpo esté muy caliente, como el Sol, no tendrá suficiente energía para producir ni siquiera un único cuanto de rayos x o ultravioleta. Por eso no nos quemamos por insolación con una taza de café.

Para Planck los cuantos no eran más que un truco matemático que no tenía una realidad física, lo que quiera que eso signifique. Sin embargo, los físicos empezaron a encontrar otro comportamiento, que sólo podía ser explicado en términos de cantidades con valores discretos o cuantizados, más que variables continuas. Por ejemplo, se encontró que las partículas elementales se comportaban más bien como pequeñas peonzas girando sobre un eje. Pero la cantidad de giro no podía tener cualquier valor.

Page 24: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 22

Tenía que ser algún múltiplo de una unidad básica. Debido a que esa unidad es muy pequeña, uno no se da cuenta de que una peonza normal desacelera mediante una rápida secuencia de pequeños pasos, más que mediante un proceso continuo. Pero para peonzas tan pequeñas como los átomos, la naturaleza discreta del giro es muy importante.

Pasó algún tiempo antes de que la gente se diera cuenta de las implicaciones que tenía este comportamiento cuántico para el determinismo. No sería hasta 1926, cuando Werner Heisenberg, otro físico alemán, indicó que no podrías medir exactamente la posición y la velocidad de una partícula a la vez. Para ver dónde está una partícula hay que iluminarla. Pero de acuerdo con el trabajo de Planck, uno no puede usar una cantidad de luz arbitrariamente pequeña. Uno tiene que usar al menos un cuanto. Esto perturbará la partícula, y cambiará su velocidad de una forma que no puede ser predicha. Para medir la posición de la partícula con exactitud, deberás usar luz de una longitud de onda muy corta, como la ultravioleta, rayos x o rayos gamma. Pero nuevamente, por el trabajo de Planck, los cuantos de esas formas de luz tienen energías más altas que las de la luz visible. Por eso perturbarán aún más la velocidad de la partícula. Es un callejón sin salida: cuanto más exactamente quieres medir la posición de la partícula, con menos exactitud puedes conocer la velocidad, y viceversa. Esto queda resumido en el Principio de Incertidumbre formulado por Heisenberg; la incertidumbre en la posición de una partícula, multiplicada por la incertidumbre en su velocidad, es siempre mayor que una cantidad llamada la constante de Planck, dividida por la masa de la partícula.

La visión de Laplace del determinismo científico implicaba conocer las posiciones y velocidades de las partículas en el universo en un instante dado del tiempo. Por lo tanto, fue seriamente socavado por el Principio de Incertidumbre de Heisenberg. ¿Cómo puede uno predecir el futuro, cuando uno no puede medir exactamente las posiciones ni las velocidades de las partículas en el instante actual? No importa lo potente que sea el ordenador de que dispongas, si lo alimentas con datos deplorables, obtendrás predicciones deplorables.

Einstein estaba muy descontento por esta aparente aleatoriedad en la naturaleza. Su opinión se resumía en su famosa frase 'Dios no juega a los dados'. Parecía que había presentido que la incertidumbre era sólo provisional, y que existía una realidad subyacente en la que las partículas tendrían posiciones y velocidades bien definidas y se comportarían de acuerdo con leyes deterministas, en consonancia con Laplace. Esta realidad podría ser conocida por Dios, pero la naturaleza cuántica de la luz nos impediría verla, excepto tenuemente a través de un cristal.

La visión de Einstein era lo que ahora se llamaría una teoría de variable oculta. Las teorías de variable oculta podrían parecer ser la forma más obvia de incorporar el Principio de Incertidumbre en la física. Forman la base de la imagen mental del universo, sostenida por muchos científicos, y prácticamente por todos los filósofos de la ciencia. Pero esas teorías de variable oculta están equivocadas. El físico británico John Bell, que murió recientemente, ideó una comprobación experimental que distinguiría teorías de variable oculta. Cuando el experimento se llevaba a cabo cuidadosamente, los resultados eran inconsistentes con las variables ocultas. Por lo tanto parece que incluso Dios está limitado por el Principio de Incertidumbre y no puede conocer la posición y la velocidad de una partícula al mismo tiempo. O sea que Dios juega a los dados con el universo. Toda la evidencia lo señala como un jugador empedernido, que tira los dados siempre que tiene ocasión.

Otros científicos estaban mucho más dispuestos que Einstein a modificar la visión clásica del determinismo del siglo 19. Una nueva teoría, denominada la mecánica cuántica, fue propuesta por Heisenberg, el austríaco Erwin Schroedinger, y el físico británico Paul Dirac. Dirac fue mi penúltimo predecesor en la cátedra Lucasiana de Cambridge. Aunque la mecánica cuántica ha estado entre nosotros durante cerca de 70 años, todavía no es generalmente entendida o apreciada, incluso por aquellos que la usan para hacer cálculos. Sin embargo, debería preocuparnos a todos, puesto que es una imagen completamente diferente del universo físico y de la misma realidad. En la mecánica cuántica, las partículas no tienen posiciones ni velocidades bien definidas. En su lugar, son representadas por lo que se llama una función de onda. Esta es un número en cada punto del espacio. El tamaño de la función de onda indica la probabilidad de que la partícula sea encontrada en esa posición. La tasa con la que la función de onda cambia de punto a punto, proporciona la velocidad de la partícula. Uno puede tener una función de onda con un gran pico en una región muy pequeña. Esto significará que la incertidumbre en la posición es muy pequeña. Pero la función de onda variará muy rápidamente cerca del pico, hacia arriba en un lado, hacia abajo en el otro. Por lo tanto la incertidumbre en la velocidad será grande. De la misma manera, uno puede tener funciones de onda en las que la incertidumbre en la velocidad es pequeña, pero la incertidumbre en la posición es grande.

La función de onda contiene todo lo que uno puede saber de la partícula, tanto su posición como su velocidad. Si sabes la función de onda en un momento dado, entonces sus valores en otros momentos son determinados por lo que se llama la ecuación de Schroedinger. Por lo tanto uno tiene aún un cierto determinismo, pero no del tipo que Laplace imaginaba. En lugar de ser capaces de predecir las posiciones y las velocidades de las partículas, todo lo que podemos predecir es la función de onda. Esto significa que podemos predecir sólo la mitad de lo que podríamos de acuerdo con la visión clásica del siglo 19.

Aunque la mecánica cuántica lleva a la incertidumbre cuando tratamos de predecir la posición y la velocidad a un mismo tiempo, todavía nos permite predecir con certidumbre una combinación de posición y velocidad. Sin embargo, incluso este grado de certidumbre parece estar amenazado por desarrollos más recientes. El problema surge porque la gravedad puede torcer el espacio-tiempo tanto que puede haber regiones que no observamos.

Curiosamente, el mismo Laplace escribió un artículo en 1799 sobre cómo algunas estrellas pueden tener un campo gravitatorio tan fuerte que la luz no podría escapar, siendo por tanto arrastrada de vuelta a la estrella. Incluso calculó que una estrella de la misma densidad que el Sol, pero doscientas cincuenta veces más pequeña, tendría esta propiedad. Pero aunque Laplace podría no haberse dado cuenta, la misma idea había sido propuesta 16 años antes por un hombre de Cambridge, John Mitchell, en un artículo en Phylosophical Transactions of the Royal Society.

Page 25: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 23

Tanto Mitchel como Laplace concebían a la luz como formada por partículas, más bien como bolas de cañón, que podían ser deceleradas por la gravedad, y hechas caer de vuelta a la estrella. Pero un famoso experimento llevado a cabo por dos americanos, Michelson y Morley, en 1887, mostraron que la luz siempre viajaba a una velocidad de ciento ochenta y seis mil millas por segundo, no importa de dónde viniera. Cómo podía entonces la gravedad decelerarla, y hacerla caer de nuevo.

De acuerdo con las ideas sobre el espacio y el tiempo vigentes en aquel momento esto era imposible. Sin embargo, en 1915 Einstein presentó al mundo su revolucionaria Teoría General de la Relatividad en la cual espacio y tiempo dejaban de ser entidades separadas e independientes. Por el contrario, eran meramente diferentes direcciones de una única noción llamada espacio-tiempo. Esta noción espacio-tiempo no era uniforme sino deformada y curvada debido a su energía inherente. Para que se entienda mejor, imagínese que colocamos un peso [que hará las veces de estrella] sobre una lámina de goma. El peso [estrella] formará una depresión en la goma curvándose la zona alrededor del mismo en contraposición a la planicie anterior. Si hacemos rodar canicas sobre la lámina de goma, sus rastros serán espirales más que líneas rectas. En 1919, una expedición británica en el Oeste de África observaba la luz de estrellas lejanas que cruzaba cerca del sol durante un eclipse. Descubrieron que las imágenes de las estrellas variaban ligeramente de sus posiciones habituales; esto revelaba que las trayectorias de la luz de las estrellas habían sido curvadas por el influjo del espacio-tiempo que rodea al sol. La Relatividad General había sido confirmada.

Imagínese ahora que colocamos pesos sobre la lámina de goma cada vez más cuantiosos y de manera más intensiva. Hundirán la plancha cada vez más. Con el tiempo, alcanzado el peso y la masa crítica se hará un agujero en la lámina por el que podrán caer las partículas pero del que no podrá salir nada.

Según la Teoría General de la Relatividad lo que sucede con el espacio-tiempo es bastante similar. Cuanto más ingente y más densa sea una estrella, tanto más se curvará y distorsionará el espacio-tiempo alrededor de la misma. Si una estrella inmensa que ha consumido ya su energía nuclear se enfría encogiéndose por debajo de su masa crítica, formará literalmente un agujero sin fondo en el espacio-tiempo por el que no puede pasar la luz. El físico americano John Wheeler llamó a estos objetos 'agujeros negros' siendo el primero en destacar su importancia y los enigmas que encierran. El término se hizo popular rápidamente. Para los americanos sugería algo oscuro y misterioso mientras que para los británicos existía además la amplia difusión del Agujero Negro de Calcuta. Sin embargo los franceses, muy franceses ellos, percibieron algo indecente en el vocablo. Durante años se resistieron a utilizar el término, demasiado negro, arguyendo que era obsceno; pero era parecido a intentar luchar contra préstamos lingüísticos como 'le weekend' y otras mezcolanzas del 'franglés'. Al final tuvieron que claudicar. ¿Quién puede resistirse a una expresión así de conquistadora?

Ahora tenemos evidencias de la existencia de agujeros negros en diferentes tipos de entidades, desde sistemas de estrellas binarios al centro de las galaxias. Por lo tanto, la existencia de agujeros negros está ampliamente aceptada hoy en día. Con todo y al margen de su potencial para la ciencia ficción, ¿cuál sería su relevancia para el determinismo? La respuesta reside en una pegatina de parachoques que tenía en la puerta de mi despacho: 'los agujeros negros son invisibles'. No sólo ocurre que las partículas y los astronautas desafortunados que caen en un agujero negro no vuelven nunca, sino que la información que estos portan se pierde para siempre, al menos en nuestra demarcación del universo. Puede lanzar al agujero negro aparatos de televisión, sortijas de diamantes e incluso a sus peores enemigos y todo lo que recordará el agujero negro será su masa total y su estado de rotación. John Wheeler llamó a esto 'un agujero negro no tiene pelo'. Esto confirma las sospechas de los franceses.

Mientras hubo el convencimiento de que los agujeros negros existirían siempre, esta pérdida de información pareció no importar demasiado. Se podía pensar que la información seguía existiendo dentro de los agujeros negros. Simplemente es que no podemos saber lo que hay desde fuera de ellos pero la situación cambió cuando descubrí que los agujeros negros no son del todo negros. La Mecánica Cuántica hace que estos emitan partículas y radiaciones a un ritmo constante. Estos hallazgos me asombraron no sólo a mí si no al resto del mundo pero con la perspectiva del tiempo esto habría resultado obvio. Lo que se entiende comúnmente como 'el vacío' no está realmente vacío ya que está formado por pares de partículas y antipartículas. Estas permanecen juntas en cierto momento del espacio-tiempo, en otro se separan para después volver a unirse y finalmente aniquilarse la una a las otra. Estas partículas y antipartículas existen porque un campo, tal como los campos que transportan la luz y la gravedad no puede valer exactamente cero. Esto denotaría que el valor del campo tendría tanto una posición exacta [en cero] como una velocidad o ritmo de cambio exacto [también cero]. Esto violaría el Principio de Incertidumbre porque una partícula no puede tener al tiempo una posición y una velocidad constantes. Por lo tanto, todos los campos deben tener lo que se denomina fluctuaciones del vacío. Debido al comportamiento cuántico de la naturaleza se puede interpretar estas fluctuaciones del vacío como partículas y antipartículas como he descrito anteriormente.

Estos pares de partículas se dan en conjunción con todas las variedades de partículas elementarias. Se denominan partículas virtuales porque se producen incluso en el vacío y no pueden ser mostradas directamente por los detectores de partículas. Sin embargo, los efectos indirectos de las partículas virtuales o fluctuaciones del vacío han sido estudiados en diferentes experimentos, siendo confirmada su existencia.

Si hay un agujero negro cerca, uno de los componentes de un par de partículas y antipartículas podría deslizarse en dicho agujero dejando al otro componente sin compañero. La partícula abandonada puede caerse también en el agujero o bien desplazarse a larga distancia del mismo donde se convertirá en una verdadera partícula que podrá ser apreciada por un detector de partículas. A alguien muy alejado del agujero negro le parecerá que la partícula ha sido emitida por el mismo agujero.

Esta explicación de cómo los agujeros negros no son tan negros clarifica que la emisión dependerá de la magnitud del agujero negro y del ritmo al que esté rotando.

Page 26: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 24

Sin embargo, como un agujero negro no tiene pelo, citando a Wheeler, la radiación será por otra parte independiente de lo que se deslizó por el agujero. No importa lo que arroje a un agujero negro: aparatos de televisión, sortijas de diamantes o a sus peores enemigos. Lo que de allí sale es siempre lo mismo.

Pero ¿qué tiene esto que ver con el determinismo que es sobre lo que se supone que versa esta conferencia? Lo que esto demuestra es que hay muchos estados iniciales [incluyendo aparatos de televisión, sortijas de diamantes e incluso gente] que evolucionan hacia el mismo estado final, al menos fuera del agujero negro. Sin embargo, en la visión de Laplace sobre el determinismo había una correspondencia exacta entre los estados iniciales y los finales. Si usted supiera el estado del universo en algún momento del pasado podría predecirlo en el futuro. De manera similar, si lo supiera en el futuro, podría deducir lo que habría sido en el pasado. Con el advenimiento de la Teoría del Cuanto en los años 20 del siglo pasado se redujo a la mitad lo que uno podía predecir pero aún dejó una correspondencia directa entre los estados del universo en diferentes momentos. Si uno supiera la función de onda en un momento dado, podría calcularla en cualquier otro.

Sin embargo, la situación es bastante diferente con los agujeros negros. Uno se encontrará con el mismo estado fuera del agujero, independientemente de lo que haya lanzado dentro, a condición de que tenga la misma masa. Por lo tanto, no hay una correspondencia exacta entre el estado inicial y el estado final ya fuera del agujero negro. Habrá una correspondencia exacta entre el estado inicial y el final ambos fuera o ambos dentro del agujero negro. Sin embargo, lo importante es que la emisión de partículas y la radiación alrededor del agujero provocan una reducción en la masa del mismo y se empequeñece. Finalmente, parece que el agujero negro llega a la masa cero y desaparece del todo. Pero, ¿qué ocurre con todos los objetos que fueron lanzados al agujero y con toda la gente que o bien saltó o fue empujada? No pueden volver a salir porque no existe la suficiente masa o energía sobrante en el agujero negro para enviarlos fuera de nuevo. Puede que pasen a otro universo pero eso nos da lo mismo a los que somos lo suficientemente prudentes como para no saltar dentro de un agujero negro. Incluso la información de lo que cayó dentro del agujero no podría salir de nuevo cuando el agujero desaparezca por último. La información no se distribuye gratuitamente como bien sabrán aquellos de ustedes que paguen facturas telefónicas. La información necesita energía para transportarse, y no habrá suficiente energía de sobra cuando el agujero negro desaparezca.

Lo que todo esto significa es que la información se perderá de nuestra demarcación del universo cuando se formen los agujeros negros para después desvanecerse. Esta pérdida de información implica que podemos predecir incluso menos de lo pensamos, partiendo de la base de la teoría cuántica. En esta teoría puede no ser factible predecir con certidumbre la posición y la velocidad de una partícula al mismo tiempo. Hay sin embargo una combinación de posición y velocidad que sí puede ser predicha. En el caso de un agujero negro, esta predicción específica concierne a los dos miembros de un par de partículas-antipartículas pero únicamente podemos detectar la partícula expulsada. No hay modo alguno, incluso en un principio, de poner de manifiesto la partícula que se precipita al agujero. Por lo tanto, por lo que sabemos, podría estar en cualquier estado. Esto significa que no podemos hacer ninguna predicción concreta acerca de la partícula que expulsa el agujero. Podemos calcular la probabilidad de que la partícula tenga esta o aquella posición o velocidad pero no podemos predecir con precisión una combinación de la posición y velocidad de sólo una partícula porque su velocidad y posición van a depender de la otra partícula, la cual no está bajo nuestra observación. Así que Einstein estaba sin lugar a dudas equivocado cuando dijo, 'Dios no juega a los dados'. No sólo Dios juega definitivamente a los dados sino que además a veces los lanzas a donde no podemos verlos.

Muchos científicos son como Einstein en el sentido de que tienen un lazo emocional muy fuerte con el determinismo pero al contrario que Einstein han aceptado la reducción en nuestra capacidad para predecir que nos había traído consigo la teoría cuántica. Pero ya era mucho. A estos no les gustó la consiguiente reducción que los agujeros negros parecían implicar. Pensar que el universo es determinista, como creía Laplace, es simplemente inocente. Presiento que estos científicos no se han aprendido la lección de la historia. El universo no se comporta de acuerdo a nuestras preconcebidas ideas. Continúa sorprendiéndonos.

Podría pensarse que no importa demasiado si el determinismo hizo aguas cerca de los agujeros negros. Estamos casi seguros de estar al menos a unos pocos años luz de agujero negro de cualquier tamaño pero según el Principio de Incertidumbre, cada región del espacio debería estar llena de diminutos agujeros negros virtuales que aparecerían y desaparecerían una y otra vez. Uno pensaría que las partículas y la información podrían precipitarse en estos agujeros negros y perderse. Sin embargo, como estos agujeros negros virtuales son tan pequeños [cien billones de billones más pequeños que el núcleo de un átomo] el ritmo al cual se perdería la información sería muy bajo. Esto es por lo que las leyes de la ciencia parecen deterministas, observándolas con detenimiento. Sin embargo, en condiciones extremas, tales como las del universo temprano o las de la colisión de partículas de alta energía, podría haber una significativa pérdida de información. Esto conduce a la imprevisibilidad en la evolución del universo.

En resumen, de lo que he estado hablando es de si el universo evoluciona de manera arbitraria o de si es determinista. La visión clásica propuesta por Laplace estaba fundada en la idea de que el movimiento futuro de las partículas estaba determinado por completo, si su sabían sus posiciones y velocidades en un momento dado. Esta hipótesis tuvo que ser modificada cuando Heisenberg presentó su Principio de Incertidumbre el cual postulaba que no se podía saber al mismo tiempo y con precisión la posición y la velocidad. Sin embargo, sí que era posible predecir una combinación de posición y velocidad pero incluso está limitada certidumbre desapareció cuando se tuvieron en cuenta los efectos de los agujeros negros: la pérdida de partículas e información dentro de los agujeros negros dio a entender que las partículas que salían eran fortuitas.

Se pueden calcular las probabilidades pero no hacer ninguna predicción en firme. Así, el futuro del universo no está del todo determinado por las leyes de la ciencia, ni su presente, en contra de lo que creía Laplace. Dios todavía se guarda algunos ases en su manga.

Es todo lo que tengo que decir por el momento.

Page 27: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014

…… mmááss ssoobbrreeMMiisstteerriioossaa eessppeecciiee hhuummaannaa

nnuueessttrrooss aanntteeppaassaaddooss hh

Por: Martín Cagliani - 3 Diciembre 2013 Fuente: Nature.

Consultado en: SINAPSIT.COM

El estudio del genoma de dos parientes de los humanos la relación entre las diferentes especies humanas que vivían por aquellos tiempos en el mundo. genoma de los neandertales y de los denisovanossí y con los Homo sapiens de hace 30 mil años, mucho más de lo que se pensaba.

El pasado 18 de noviembre se presentó el genoma de dos especies humanas que convivieron con la nuestra hasta hace unos 30 mil añatrás, se trata de los neandertales, que vivieron principalmente en Europa, y de los denisovanos, que habitaron gran parte depresentación fue en las conferencias sobre ADN antiguo en la Royal Society, en Londres.

Los resultados sugieren que estas antiguas especies se cruzaban más seguido de lo que segundo grupo humano asiático antes desconocido, cómo había ocurrido hace unos años con los denisovanos, que tampoco tienen muchos fósiles para identificarlos, sino apenas unos fragmentos de los cua

Lo que comienza a sugerir es que estamos mirando a un mundo tipode homínidos diferentes al mismo tiempo, dice Mark Thomas, genetista del University College London, asistente de las conferencias.

Los primeros genomas publicados de neandertales y denisovanos, revolucionaron el estudio de laprehistóricos, no sólo porque demostraron que estos grupos se cruzaban entre sí y con nuestros ancestros directos Homo sapienporque nos ayudó a comprender mucho más de cómo eran físicamente, y cómo se relacionaban con su mundo.contribuyó mucho al conocimiento de la diversidad genética de la población viva actual.

Sabemos que todos los humanos que se originaron fuera de África tienen un 2% de genoma heredado de los neandertales. Algunas poblaciones de Oceanía, como por ejemplo los habitantes de Papúa Nueva Guinea, y los aborígenes australianos, comparten un 4% de su ADN con los denisovanos.

Pero esos primeros resultados estaban basados en secuencias genómicas de baja calidad, con errores y baches. Con el tieproducido versiones mucho más completas de los genomas de neandertales y denisovanos, que igualan en calidad a las que se tiehumanos actuales. Todas obtenidas a partir de huesos fósiles.

Así se pudo ver que también los neandertales y denisovanos. Pero lo más sorpresivo que se mostró en estas conferencias, fue que los denisovanos también se reproducían con opoblación de humanos antiguos que vivían en Asia hace unos 30 mil años, de la cual no se tenía noticias. No eran denisovanos, ni neandertales, ni Homo sapiens, sino unos humanos nuevos y desconocidos a los que todavía no se ha nombrado, ni de los que tenemos el menor rastro fósil.

Al menos que se sepa, ya que posiblemente se lo termine identificando con alguno de los miles y miles de fragmentos que se tisabe a qué especies pertenecen con exactitud. Habrá denisovanos.

Año 12 Miércoles, 5 de Marzo de 2014

ee llaa pprreehhiissttoorriiaa hhaa ssee rreepprroodduuccííaa ccoonn

hhaaccee 3300 mmiill aaññooss

El estudio del genoma de dos parientes de los humanos actuales que se extinguieron hace 30 mil años, nos acerca cada vez más a cómo era humanas que vivían por aquellos tiempos en el mundo. Según la información actualizada del

denisovanos (que proviene de la cueva de Denisoba, Siberia), estas especies se reproducían entre de hace 30 mil años, mucho más de lo que se pensaba.

pasado 18 de noviembre se presentó el genoma de dos especies humanas que convivieron con la nuestra hasta hace unos 30 mil añatrás, se trata de los neandertales, que vivieron principalmente en Europa, y de los denisovanos, que habitaron gran parte depresentación fue en las conferencias sobre ADN antiguo en la Royal Society, en Londres.

Los resultados sugieren que estas antiguas especies se cruzaban más seguido de lo que se pensaba, e incluso se llegó a descubrir un asiático antes desconocido, cómo había ocurrido hace unos años con los denisovanos, que tampoco tienen

para identificarlos, sino apenas unos fragmentos de los cuales se ha obtenido el ADN.

Lo que comienza a sugerir es que estamos mirando a un mundo tipo El señor de los anillos, dónde había muchas poblaciones tiempo, dice Mark Thomas, genetista del University College London, asistente de las conferencias.

Los primeros genomas publicados de neandertales y denisovanos, revolucionaron el estudio de la historiaprehistóricos, no sólo porque demostraron que estos grupos se cruzaban entre sí y con nuestros ancestros directos Homo sapien

mucho más de cómo eran físicamente, y cómo se relacionaban con su mundo.contribuyó mucho al conocimiento de la diversidad genética de la población viva actual.

Sabemos que todos los humanos que se originaron fuera de África tienen un 2% de genoma heredado de los neandertales. Algunas ía, como por ejemplo los habitantes de Papúa Nueva Guinea, y los aborígenes australianos, comparten un 4% de su

Pero esos primeros resultados estaban basados en secuencias genómicas de baja calidad, con errores y baches. Con el tieproducido versiones mucho más completas de los genomas de neandertales y denisovanos, que igualan en calidad a las que se tiehumanos actuales. Todas obtenidas a partir de huesos fósiles.

Así se pudo ver que también los neandertales y los Homo sapiens de Chine y otras partes del este asiático tenían relaciones con los denisovanos. Pero lo más sorpresivo que se mostró en estas conferencias, fue que los denisovanos también se reproducían con o

n Asia hace unos 30 mil años, de la cual no se tenía noticias. No eran denisovanos, ni , sino unos humanos nuevos y desconocidos a los que todavía no se ha nombrado, ni de los que tenemos el

Al menos que se sepa, ya que posiblemente se lo termine identificando con alguno de los miles y miles de fragmentos que se tisabe a qué especies pertenecen con exactitud. Habrá que trabajar mucho ahora para identificar a ese nuevo grupo, como ocurrió con los

25

hhuummaannaa

actuales que se extinguieron hace 30 mil años, nos acerca cada vez más a cómo era Según la información actualizada del , estas especies se reproducían entre

pasado 18 de noviembre se presentó el genoma de dos especies humanas que convivieron con la nuestra hasta hace unos 30 mil años atrás, se trata de los neandertales, que vivieron principalmente en Europa, y de los denisovanos, que habitaron gran parte de Asia. La

pensaba, e incluso se llegó a descubrir un asiático antes desconocido, cómo había ocurrido hace unos años con los denisovanos, que tampoco tienen

, dónde había muchas poblaciones tiempo, dice Mark Thomas, genetista del University College London, asistente de las conferencias.

historia de nuestros antepasados prehistóricos, no sólo porque demostraron que estos grupos se cruzaban entre sí y con nuestros ancestros directos Homo sapiens, sino

mucho más de cómo eran físicamente, y cómo se relacionaban con su mundo. Sin dejar de lado que

Sabemos que todos los humanos que se originaron fuera de África tienen un 2% de genoma heredado de los neandertales. Algunas ía, como por ejemplo los habitantes de Papúa Nueva Guinea, y los aborígenes australianos, comparten un 4% de su

Pero esos primeros resultados estaban basados en secuencias genómicas de baja calidad, con errores y baches. Con el tiempo se han producido versiones mucho más completas de los genomas de neandertales y denisovanos, que igualan en calidad a las que se tienen de los

los Homo sapiens de Chine y otras partes del este asiático tenían relaciones con los denisovanos. Pero lo más sorpresivo que se mostró en estas conferencias, fue que los denisovanos también se reproducían con otra

n Asia hace unos 30 mil años, de la cual no se tenía noticias. No eran denisovanos, ni , sino unos humanos nuevos y desconocidos a los que todavía no se ha nombrado, ni de los que tenemos el

Al menos que se sepa, ya que posiblemente se lo termine identificando con alguno de los miles y miles de fragmentos que se tienen, y no se que trabajar mucho ahora para identificar a ese nuevo grupo, como ocurrió con los

Page 28: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014

LLooss nneeaannddeerrttaalleess nnooss ppaarreellaacciioonnaaddoo aa llaa ddii

Por: Martín Cagliani - 3 Enero 2014

Entre los latinoamericanos se ve la variante de un gen que incrementa el riesgo de diabetes, una variante

que hemos heredado de los neandertalesconvivieron con nuestros antepasados

cruzamientos, al menos lo suficiente como para que quedase una impronta neandertal del 2 por ciento en

nuestro genoma.

La variante del gen, detectada en un estudio genómico de más de 8000 mexicanos y otros latinoamericanos,

fue descubierta por científicos de la Harvard Medical School, Massachusetts, Estados Unidos, y

en Nature.

Al parecer, quienes tienen esta variante del gen

diabetes, y quienes heredaron esa copia del gen de sus dos padres, tienen un 50 por ciento de

probabilidades.

El gen en cuestión es el SLC16A11, que se encuentra entre más de la mitad de los nativos

incluyendo a los latinoamericanos. Recordemos que América fue poblada hace unos 30 mil años, desde Asia,

por poblaciones que cruzaron el Estrecho de Bering que por aquellos tiempos no estaba bajo el nivel del

mar.

Seguramente esos primeros americanos de origen asiático eran descendientes de los Homo sapiens que

habían interactuado con los neandertales asiáticos. Así es que la variante también se encuentra en un 20

por ciento de los habitantes de Asia del Este, pero es muy raro entre europeos y

Este gen SLC16A11 es parte de una familia de genes que codifican para proteínas que transportan

metabolitos, moléculas involucradas en varias reacciones químicas del cuerpo. Al alterar el nivel de las

proteínas, el SLC16A11 puede cambiar la cant

Al comparar la muestra de los genomas actuales con el que fue

un neandertal de la cueva de Denisoba, Siberia, los autores del estudio descubrieron que el gen SLC16A11

fue introducido en los Homo sapiens a través de cruzamientos que ocurrieron hace más de 30 mil años entre

nuestros antepasados sapiens y los neandertales

Es interesante que el análisis del genoma neandertal

sobre nosotros mismos. Recién, tras más de diez años de análisis genéticos de

compartieron tiempo y espacio con nuestros antepasados, como los neandertales y los

empezando a descubrir las implicaciones

genoma.

Año 12 Miércoles, 5 de Marzo de 2014

aassaarroonn uunn ggeenn iiaabbeetteess

3 Enero 2014

Entre los latinoamericanos se ve la variante de un gen que incrementa el riesgo de diabetes, una variante

neandertales. Estos humanos que se extinguieron hace unos 30 mil años,

convivieron con nuestros antepasados Homo sapiens en Europa y partes de Asia, donde hubo

cruzamientos, al menos lo suficiente como para que quedase una impronta neandertal del 2 por ciento en

el gen, detectada en un estudio genómico de más de 8000 mexicanos y otros latinoamericanos,

fue descubierta por científicos de la Harvard Medical School, Massachusetts, Estados Unidos, y

Al parecer, quienes tienen esta variante del gen tienen un 25 por ciento más de probabilidades de padecer

diabetes, y quienes heredaron esa copia del gen de sus dos padres, tienen un 50 por ciento de

El gen en cuestión es el SLC16A11, que se encuentra entre más de la mitad de los nativos

incluyendo a los latinoamericanos. Recordemos que América fue poblada hace unos 30 mil años, desde Asia,

por poblaciones que cruzaron el Estrecho de Bering que por aquellos tiempos no estaba bajo el nivel del

ricanos de origen asiático eran descendientes de los Homo sapiens que

habían interactuado con los neandertales asiáticos. Así es que la variante también se encuentra en un 20

por ciento de los habitantes de Asia del Este, pero es muy raro entre europeos y africanos.

Este gen SLC16A11 es parte de una familia de genes que codifican para proteínas que transportan

metabolitos, moléculas involucradas en varias reacciones químicas del cuerpo. Al alterar el nivel de las

proteínas, el SLC16A11 puede cambiar la cantidad de cierto tipo de grasa implicada en el riesgo de diabetes.

Al comparar la muestra de los genomas actuales con el que fue publicado recientemente en Nature

de la cueva de Denisoba, Siberia, los autores del estudio descubrieron que el gen SLC16A11

sapiens a través de cruzamientos que ocurrieron hace más de 30 mil años entre

neandertales.

genoma neandertal, no sólo nos permite conocer más sobre ellos, sino

sobre nosotros mismos. Recién, tras más de diez años de análisis genéticos de fósiles

compartieron tiempo y espacio con nuestros antepasados, como los neandertales y los

ones del aporte que han realizado esos otros humanos a nuestro

26

Entre los latinoamericanos se ve la variante de un gen que incrementa el riesgo de diabetes, una variante

. Estos humanos que se extinguieron hace unos 30 mil años,

en Europa y partes de Asia, donde hubo

cruzamientos, al menos lo suficiente como para que quedase una impronta neandertal del 2 por ciento en

el gen, detectada en un estudio genómico de más de 8000 mexicanos y otros latinoamericanos,

fue descubierta por científicos de la Harvard Medical School, Massachusetts, Estados Unidos, y publicada

tienen un 25 por ciento más de probabilidades de padecer

diabetes, y quienes heredaron esa copia del gen de sus dos padres, tienen un 50 por ciento de

El gen en cuestión es el SLC16A11, que se encuentra entre más de la mitad de los nativos americanos,

incluyendo a los latinoamericanos. Recordemos que América fue poblada hace unos 30 mil años, desde Asia,

por poblaciones que cruzaron el Estrecho de Bering que por aquellos tiempos no estaba bajo el nivel del

ricanos de origen asiático eran descendientes de los Homo sapiens que

habían interactuado con los neandertales asiáticos. Así es que la variante también se encuentra en un 20

africanos.

Este gen SLC16A11 es parte de una familia de genes que codifican para proteínas que transportan

metabolitos, moléculas involucradas en varias reacciones químicas del cuerpo. Al alterar el nivel de las

idad de cierto tipo de grasa implicada en el riesgo de diabetes.

publicado recientemente en Nature de

de la cueva de Denisoba, Siberia, los autores del estudio descubrieron que el gen SLC16A11

sapiens a través de cruzamientos que ocurrieron hace más de 30 mil años entre

, no sólo nos permite conocer más sobre ellos, sino

fósiles de otros humanos que

compartieron tiempo y espacio con nuestros antepasados, como los neandertales y los denisovanos, se está

porte que han realizado esos otros humanos a nuestro

Page 29: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles

EEll 2200%% ddeell ggeennoommaa nneeaannddeerrttaall ssii

Por: Martín Cagliani - 30 Enero 2014

Dos estudios publicados casi simultáneamente en S

en los últimos tiempos con cientos de genomas de humanos actuales de diversas partes del mundo. Los resultados arrojan que ha

ciento del genoma neandertal, se mantiene vivo en los humanos contemporáneos. También que tenemos genes neandertales que afectan a la

diabetes tipo 2, a la enfermedad de Crohn, el lupus, la cirrosis e incluso algunos que podrían ayudar a dejar de fumar.

El estudio publicado el 29 de enero en Nature, sugiere que la herencia

los humanos actuales. “Ahora que podemos estimar la probabilidad de que una variante genética en particular la heredamos de l

neandertales, podemos empezar a comprender cómo esa herencia genética nos afecta”, dijo David Reich, de la Harvard Medical Sc

principal del estudio. “También podremos aprender más sobre cómo eran los neandertales”.

Se sabe por diversos estudios que, en promedio, todos los human

neandertales. Fruto de que hace entre 40 y 80 mil años atrás,

los hijos fruto de ese amor, tuvieron descendencia que llega hasta la fecha de hoy. Los africanos nativos tienen o muy poco o

neandertales, ya que el cruce entre las especies ocurrió fuera de África, muy probablemente en Medio Oriente.

Reich y colegas, analizaron variantes genéticas de 846 genomas actuales de personas no africanas, y 176 de personas de la Á

y los compararon con el genoma neandertal de hace 50 mil años, de alta calidad, publicado a fines de 2013.

Pudieron ver que algunas de esas variantes genéticas que nos heredaron los neandertales fueron dañinas para nuestros antepasa

fueron luego removidas por la selección natural, pero dejaron igualmente una marca que los genetistas pueden identificas.

También pudieron notar que si bien neandertales y

estaban al borde de la incompatibilidad biológica que suele separar a las especies animales. Como por ejemplo cuando se cruza

un burro, que sale una mula, un híbrido estéril, es decir, que no puede tener hijos.

Un detalle interesante es que algunos de los genes neandertales que tenemos afectan a la producción de

compuesto el cabello y las uñas. También le da dureza a la piel, lo que la hace más aislante, que puede resultar muy benefici

climáticos fríos. Siempre se supo que los neandertales estaban especialmente adaptados a climas fríos, parece

esa adaptación. Otras nueve variantes genéticas de origen neandertal, están relacionadas con enfermedades del sistema inmune, y también

con algunos comportamientos, como la habilidad para dejar de fumar. Los relacionados con las enfermedades no son muy beneficiosos que

digamos, ya que nos han hecho más débiles frente a dolencias como la diabetes, lupus, enfermedad de Crohn y la cirrosis bilia

El otro estudio, publicado también el 29 de enero de 2014 en

nuestro genoma, puede variar muchísimo entre una persona y otra. Por

tienen más y menos herencia neandertal. Los asiáticos, por ejemplo, tienen un 21 por ciento más de herencia neandertal que lo

Este estudio también pudo comprobar que entre todos

genéticos humanos actuales, sobrevive hasta un 20 por ciento del genoma neandertal.

Pero el principal logro de este estudio resulta del método que utilizaron para identi

nuestro genoma, sin necesidad de extraer esos genes de restos

Le llevó décadas a la genética poder aprovechar el estudio de ADN de poblaciones extinguidas, pero hoy en día está codo a cod

a la hora de comprender cómo eran nuestros parientes humanos que han quedado en el camino de la carrera evolutiva humana.

Miércoles, 5 de Marzo de 2014

iigguuee vviivvoo eenn nnoossoottrrooss

30 Enero 2014

Science y en Nature, han comparado los genomas neandertales

en los últimos tiempos con cientos de genomas de humanos actuales de diversas partes del mundo. Los resultados arrojan que ha

, se mantiene vivo en los humanos contemporáneos. También que tenemos genes neandertales que afectan a la

o 2, a la enfermedad de Crohn, el lupus, la cirrosis e incluso algunos que podrían ayudar a dejar de fumar.

, sugiere que la herencia neandertal en nuestro genoma ha sido tanto benigna como dañina, para

los humanos actuales. “Ahora que podemos estimar la probabilidad de que una variante genética en particular la heredamos de l

neandertales, podemos empezar a comprender cómo esa herencia genética nos afecta”, dijo David Reich, de la Harvard Medical Sc

principal del estudio. “También podremos aprender más sobre cómo eran los neandertales”.

dios que, en promedio, todos los humanos no africanos tienen un 2 por ciento de su genoma heredado de los

neandertales. Fruto de que hace entre 40 y 80 mil años atrás, Homo sapiens y Homo neanderthalensis se relacionaron de una forma amorosa, y

los hijos fruto de ese amor, tuvieron descendencia que llega hasta la fecha de hoy. Los africanos nativos tienen o muy poco o

ocurrió fuera de África, muy probablemente en Medio Oriente.

Reich y colegas, analizaron variantes genéticas de 846 genomas actuales de personas no africanas, y 176 de personas de la Á

y los compararon con el genoma neandertal de hace 50 mil años, de alta calidad, publicado a fines de 2013.

Pudieron ver que algunas de esas variantes genéticas que nos heredaron los neandertales fueron dañinas para nuestros antepasa

, pero dejaron igualmente una marca que los genetistas pueden identificas.

ndertales y Homo sapiens, podrían tener relaciones y engendrar hijos que a su ve

estaban al borde de la incompatibilidad biológica que suele separar a las especies animales. Como por ejemplo cuando se cruza

le una mula, un híbrido estéril, es decir, que no puede tener hijos.

Un detalle interesante es que algunos de los genes neandertales que tenemos afectan a la producción de queratina

compuesto el cabello y las uñas. También le da dureza a la piel, lo que la hace más aislante, que puede resultar muy benefici

climáticos fríos. Siempre se supo que los neandertales estaban especialmente adaptados a climas fríos, parece

Otras nueve variantes genéticas de origen neandertal, están relacionadas con enfermedades del sistema inmune, y también

ntos, como la habilidad para dejar de fumar. Los relacionados con las enfermedades no son muy beneficiosos que

digamos, ya que nos han hecho más débiles frente a dolencias como la diabetes, lupus, enfermedad de Crohn y la cirrosis bilia

estudio, publicado también el 29 de enero de 2014 en Science, muestra que el promedio de un 2 por ciento de herencia neandertal en

nuestro genoma, puede variar muchísimo entre una persona y otra. Por lo que pudieron conocer cuáles son los linajes humanos actuales que

tienen más y menos herencia neandertal. Los asiáticos, por ejemplo, tienen un 21 por ciento más de herencia neandertal que lo

Este estudio también pudo comprobar que entre todos los pedacitos de genoma neandertal que se han inmortalizado en los diferentes linajes

genéticos humanos actuales, sobrevive hasta un 20 por ciento del genoma neandertal.

Pero el principal logro de este estudio resulta del método que utilizaron para identificar ADN perteneciente a humanos

nuestro genoma, sin necesidad de extraer esos genes de restos fósiles.

Le llevó décadas a la genética poder aprovechar el estudio de ADN de poblaciones extinguidas, pero hoy en día está codo a cod

mo eran nuestros parientes humanos que han quedado en el camino de la carrera evolutiva humana.

27

neandertales que han logrado secuenciarse

en los últimos tiempos con cientos de genomas de humanos actuales de diversas partes del mundo. Los resultados arrojan que hasta un 20 por

, se mantiene vivo en los humanos contemporáneos. También que tenemos genes neandertales que afectan a la

o 2, a la enfermedad de Crohn, el lupus, la cirrosis e incluso algunos que podrían ayudar a dejar de fumar.

en nuestro genoma ha sido tanto benigna como dañina, para

los humanos actuales. “Ahora que podemos estimar la probabilidad de que una variante genética en particular la heredamos de los

neandertales, podemos empezar a comprender cómo esa herencia genética nos afecta”, dijo David Reich, de la Harvard Medical School, y autor

s no africanos tienen un 2 por ciento de su genoma heredado de los

Homo neanderthalensis se relacionaron de una forma amorosa, y

los hijos fruto de ese amor, tuvieron descendencia que llega hasta la fecha de hoy. Los africanos nativos tienen o muy poco o nada de genes

Reich y colegas, analizaron variantes genéticas de 846 genomas actuales de personas no africanas, y 176 de personas de la África sub-Sahariana,

Pudieron ver que algunas de esas variantes genéticas que nos heredaron los neandertales fueron dañinas para nuestros antepasados, y que

, pero dejaron igualmente una marca que los genetistas pueden identificas.

, podrían tener relaciones y engendrar hijos que a su vez fuesen fértiles,

estaban al borde de la incompatibilidad biológica que suele separar a las especies animales. Como por ejemplo cuando se cruza un caballo con

queratina, proteína de la que está

compuesto el cabello y las uñas. También le da dureza a la piel, lo que la hace más aislante, que puede resultar muy beneficiosa en ambientes

climáticos fríos. Siempre se supo que los neandertales estaban especialmente adaptados a climas fríos, parece que nos legaron algo de

Otras nueve variantes genéticas de origen neandertal, están relacionadas con enfermedades del sistema inmune, y también

ntos, como la habilidad para dejar de fumar. Los relacionados con las enfermedades no son muy beneficiosos que

digamos, ya que nos han hecho más débiles frente a dolencias como la diabetes, lupus, enfermedad de Crohn y la cirrosis biliar primaria.

, muestra que el promedio de un 2 por ciento de herencia neandertal en

lo que pudieron conocer cuáles son los linajes humanos actuales que

tienen más y menos herencia neandertal. Los asiáticos, por ejemplo, tienen un 21 por ciento más de herencia neandertal que los europeos.

los pedacitos de genoma neandertal que se han inmortalizado en los diferentes linajes

ficar ADN perteneciente a humanos extintos presentes en

Le llevó décadas a la genética poder aprovechar el estudio de ADN de poblaciones extinguidas, pero hoy en día está codo a codo con los fósiles,

mo eran nuestros parientes humanos que han quedado en el camino de la carrera evolutiva humana.

Page 30: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles

CCoossaass qquuee aapprreenndd

2013 fue un año para la historia del estudio de la evolucióntodas las piezas del rompecabezas al suelo, porque la imagen que estábamos formando no era la correcta. Los principales avancle genética, que hasta hace algunos años no era muy confiable, pero ha avanzado de ADN fósil, que en los próximos años podemos esperar que se sigan produciendo revelaciones que nunca podríamos esperar sólolos fósiles.

Evolución de la mano humana

Para conocer la habilidad de nuestros antepasadosherramientas es vital poder contar con fósiles de manos, que suelen ser descubrimientos muy poco habituales. Existen dos fósiles completos de manos antiguas, la de Ardipithecus ramidus y Australopithecusde años la primera, y 1,8 la segunda. Luego otra parcial deafarensis, de la famosa Lucy, con 3,7 millones de años, y paremos de contar. Al parecer, esa característica típica de la mano humana se puede llevar hasta los Homo erectus. Se acaba de anunciar en PNAS, el descubrimiento de un fragmento de mano de 1,42 millones de años, en el oeste de Turkana, Kenya.

Migración del Homo sapiens fuera de

La expansión del Homo sapiens por el mundo es un debate en continuo movimiento. Nuestra especie evolucionó en África hace unos 200 mil añhace unos 60 mil años salieron de ese continente a poblar Asia, Europa, Oceanía y América. Pero cada vez se descubren más evidencias de que no fue una única salida pobladora, sino que el flujo poblacional empezó mucho antes, y no Evidencia de ello es un nuevo descubrimiento de 130 mil años en el noreste de la India.

Orrorin caminaba

El caminar en dos patas es una estrategia adaptativa muy extraña en la naturaleza, y nuestra forma de hacerlo es única en la naturaleza, porque estamos totalmente erguidos, a diferencia de lasotros de los animales que caminan en dos patas. Son muchos los que de vez en cuando caminan en dos patas, con alguna ayuda o no, pero que cuentan con un cuerpo que ha evolucionado especialmente para ello, sólo quedamos no

Si rastreamos hacia el pasado, se cree que los primerosvivieron hace unos 7 millones de años. Hasta la fecha eles Ardipithecustugenensis, descubierto en Kenia en 2001, con unos 6 millones de años de antigüedad, y que desde el momento de su descubrimiento ha dado mucho que hablar.

Miércoles, 5 de Marzo de 2014

ddiimmooss ssoobbrree eevvoolluucciióónn hhuummaannaa eePor: Martín Cagliani 13 Enero 2014

evolución humana. Hubo descubrimientos y avances de esos qtodas las piezas del rompecabezas al suelo, porque la imagen que estábamos formando no era la correcta. Los principales avancle genética, que hasta hace algunos años no era muy confiable, pero ha avanzado tanto la tecnología de secuenciación de genomas, y la obtención de ADN fósil, que en los próximos años podemos esperar que se sigan produciendo revelaciones que nunca podríamos esperar sólo

Para conocer la habilidad de nuestros antepasados homínidos con las herramientas es vital poder contar con fósiles de manos, que suelen ser descubrimientos muy poco habituales. Existen dos fósiles completos de manos

Australopithecus sediba, con 4,4 millones de años la primera, y 1,8 la segunda. Luego otra parcial de Australopithecus

, de la famosa Lucy, con 3,7 millones de años, y paremos de contar. Al parecer, esa característica típica de la mano humana se puede llevar hasta los

, el descubrimiento de un fragmento en el oeste de Turkana, Kenya.

El tamaño no lo es todo, al menos en el cerebro

Un nuevo estudio, publicado en Proceedings of the Royal Societytamaño, sino la organización cerebral es lo que aportó esa diferencia clave en el cerebro primate que le brindó su inteligencia

África hace 130 mil años

por el mundo es un debate en continuo movimiento. evolucionó en África hace unos 200 mil años, y se creía que recién

hace unos 60 mil años salieron de ese continente a poblar Asia, Europa, Oceanía y América. Pero cada vez se descubren más evidencias de que no fue una única salida pobladora, sino que el flujo poblacional empezó mucho antes, y no se detuvo. Evidencia de ello es un nuevo descubrimiento de 130 mil años en el noreste de la

caminaba en dos patas hace 6 millones de años

El caminar en dos patas es una estrategia adaptativa muy extraña en la naturaleza, y nuestra forma de es única en la naturaleza, porque estamos totalmente erguidos, a diferencia de las

otros de los animales que caminan en dos patas. Son muchos los que de vez en cuando caminan en dos patas, con alguna ayuda o no, pero que cuentan con un cuerpo que ha evolucionado especialmente para ello, sólo quedamos nosotros.

Si rastreamos hacia el pasado, se cree que los primeros primates que comenzar a caminar en dos patas vivieron hace unos 7 millones de años. Hasta la fecha el fósil bípedo habitual más antiguo descubierto

Ardipithecus ramidus, de 4,4 millones de años. Pero está el llamado Millenium Man, el, descubierto en Kenia en 2001, con unos 6 millones de años de antigüedad, y que desde el

momento de su descubrimiento ha dado mucho que hablar.

28

eenn 22001133

que patean el tablero, arrojando todas las piezas del rompecabezas al suelo, porque la imagen que estábamos formando no era la correcta. Los principales avances han llegado de

tanto la tecnología de secuenciación de genomas, y la obtención de ADN fósil, que en los próximos años podemos esperar que se sigan produciendo revelaciones que nunca podríamos esperar sólo observando

cerebro

Society B, dice que no tanto el tamaño, sino la organización cerebral es lo que aportó esa diferencia clave en el cerebro

El caminar en dos patas es una estrategia adaptativa muy extraña en la naturaleza, y nuestra forma de es única en la naturaleza, porque estamos totalmente erguidos, a diferencia de las aves, que son

otros de los animales que caminan en dos patas. Son muchos los que de vez en cuando caminan en dos patas, con alguna ayuda o no, pero que cuentan con un cuerpo que ha evolucionado especialmente para

que comenzar a caminar en dos patas bípedo habitual más antiguo descubierto

, de 4,4 millones de años. Pero está el llamado Millenium Man, el Orrorin , descubierto en Kenia en 2001, con unos 6 millones de años de antigüedad, y que desde el

Page 31: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles

Antepasado común entre neandertales

Hasta hace poco se miraba fijo a nuestro pariente elhablaba de un antepasado común entre neandertalesmiembro del género humano vivió hace unos 400 mil años, pero a la luz de un nuevo y concienzudo estudio, no estaría tan claro quién fue el antepasado común, pero sí que la fecha en que vivió se retrasaría hasta hace 1 millón de años.

Los neandertales podían hablar igual que

El hombre de Neandertal es utilizado como sinónimo de bruto, y es que la visión que tenía la ciencia sobre esta especie humana que se extinguió hace unos 30 años, era esa, pero ha cambiado muchísimo en las últimas décadas a la luz de nuevos descubrimientos. Se sabe que sus capacidades eran iguales que las nuestras en todo. Los psicolingüistas Dan Dediu y Stephen Levinson, investigadores del Instituto Max Planck, han publicado un estudio completo, analizando todo tipo de fuentes, genéticas, fósiles, y lingüísticas, para concluir que podían hablar exactamente como nosotros, ya que rastrean la antigüedad del lenguaje moderno y las capacidades para el habla hasta al menos el último ancestro común entresapiens, Homo neanderthalensis y los Denisovanos, hace unos 500 mil años.

ADN de hace 400 mil años desconcierta

Los misterios asociados a antiguos genomas no paran de sorprendernos. Una muestra de ADN obtenida de un fémur humano de 400 mantigüedad ha revelado un inesperado vínculo entre los

Miércoles, 5 de Marzo de 2014

neandertales y Homo sapiens

Hasta hace poco se miraba fijo a nuestro pariente el Homo heidelbergensis, cuando se neandertales y nosotros, los Homo sapiens. Este

humano vivió hace unos 400 mil años, pero a la luz de un nuevo y concienzudo estudio, no estaría tan claro quién fue el antepasado común, pero sí que la fecha en que vivió se retrasaría hasta hace 1 millón de años.

Marineros asiáticos de hace 50 mil años

Hace unos años se descubrió una especie humana desconocida, que convivió con la nuestra hace unos 50 mil años, los apodados Denisovanosque, de alguna forma, se las ingeniaron para cruzar una de las barreras marinas más profundas de Indonesia, la llamada Línea de Wallace. Lo que implicaría que hace más de 50 mil años, estos humanos ya eran marineros avezados.

que nosotros

El hombre de Neandertal es utilizado como sinónimo de bruto, y es que la visión sobre esta especie humana que se extinguió hace unos 30 mil

años, era esa, pero ha cambiado muchísimo en las últimas décadas a la luz de nuevos descubrimientos. Se sabe que sus capacidades eran iguales que las nuestras en todo. Los psicolingüistas Dan Dediu y Stephen Levinson, investigadores del

lanck, han publicado un estudio completo, analizando todo tipo de fuentes, genéticas, fósiles, y lingüísticas, para concluir que podían hablar exactamente como nosotros, ya que rastrean la antigüedad del lenguaje moderno y

ta al menos el último ancestro común entre Homo y los Denisovanos, hace unos 500 mil años.

desconcierta a los expertos

Los misterios asociados a antiguos genomas no paran de sorprendernos. Una muestra de ADN obtenida de un fémur humano de 400 mantigüedad ha revelado un inesperado vínculo entre los homininos habitantes de Europa y la enigmática población asiática de los

¿Una única especie humana hace 2 millones

El descubrimiento del cráneo más completo de hace 1,8 millones de años en Asia, obliga a repensar los orígenes del género humano. ¿Tenemos varias especies diferentes en el árbol familiar, o una sola? […] Esto sugiere que todos, los africanos y los asiáticos, podrían ser parte de una única especie. Una idea muy controversial, ya que iría contra lo que muchos paleoantropólogosnombrar como especie diferente a sus descubrimientos (de diferentes yacimientos y épocas).

Se puede leer más sobre este tema en: “Dmanisi,humanas“. Futuro, Página 12. Sábado, 2 de noviembre de 2013.

29

Hace unos años se descubrió una especie humana desconocida, que convivió con la Denisovanos. Ahora se ha descubierto

que, de alguna forma, se las ingeniaron para cruzar una de las barreras marinas más . Lo que implicaría que hace más

de 50 mil años, estos humanos ya eran marineros avezados.

Los misterios asociados a antiguos genomas no paran de sorprendernos. Una muestra de ADN obtenida de un fémur humano de 400 mil años de blación asiática de los Denisovanos.

millones de años?

El descubrimiento del cráneo más completo de hace 1,8 millones de años en Asia, humano. ¿Tenemos varias especies

diferentes en el árbol familiar, o una sola? […] Esto sugiere que todos, los africanos una única especie. Una idea muy controversial,

paleoantropólogos han luchado, el conseguir escubrimientos (de diferentes yacimientos y

Dmanisi, donde mueren las especies de noviembre de 2013.

Page 32: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 30

""EEll aarrttee ddee ddiissccuuttiirr"" Enviado por: Luis Montes ([email protected])

Fuente: [email protected] 19/12/2013 El País Semanal. <<PSICOLOGÍA>>: El arte de discutir

Muchas disputas no buscan un acuerdo, sino una victoria clara y rotunda, sin concesiones.

Respeto y mesura pueden convertirlas en puente de doble dirección para solucionar problemas.

Francesc Miralles, 15 DIC 2013.

No es casual que el término discusión tenga en castellano un sentido negativo, mientras que discusión en inglés apela –entre otras acepciones– al debate fértil y al intercambio de ideas. En los países mediterráneos, cuando surge un conflicto, demasiadas veces el golpe de genio domina sobre el diálogo. Solo hay que comparar las ordenadas intervenciones en un parlamento del norte con el vocerío y las salidas de tono que abundan entre nuestros políticos, muy especialmente durante las elecciones.

Bajo la falsa premisa de que la persona que más grita es quien lleva la razón, no nos hemos educado en el arte de disentir productivamente, una carencia que fomenta la rigidez mental y el pensamiento unidireccional. Sin tener que dar la razón a nadie que no la tenga, en este artículo estudiaremos cómo hacer de la discusión una fuente de soluciones, en lugar de un multiplicador de problemas. Pero veamos primero cómo se genera la discusión que desata tempestades.

"La mayoría de discusiones solo sirven para amplificar los malentendidos”

André Gide

Casi todo el mundo es capaz de defender con moderación su punto de vista en una reunión con extraños -por ejemplo, en el trabajo o en el banco- pero esto mismo a veces resulta difícil con la persona con la que compartimos techo y años de convivencia.

¿Por qué se recurre tan a menudo al arsenal de reproches y descalificaciones con la persona a la que más se ama?

"El opuesto del amor no es el odio, sino la indiferencia” Elie Wiesel

Hay diferentes opiniones sobre el tema, pero la mayoría de especialistas coinciden en que las batallas conyugales guardan siempre una relación con el poder. Por este motivo en el punto álgido de una discusión no se aceptan disculpas. Lo que pretende uno del otro es que ceda terreno a su favor, sea a través de concesiones, de la aceptación de errores o de conseguir un compromiso que cambie la correlación de fuerzas.

Pocas veces discutimos para entender al otro y acercar posiciones. Como boxeadores en un ring afectivo, la discusión de pareja la gana aquel que desarma al otro porque tiene una posición más favorable, mejores argumentos o bien conoce los puntos débiles de su contrincante -por ejemplo, el sentimiento de culpa- y golpea sobre ellos.

Enfrentamientos destructivos

Aunque luego nos arrepintamos, las heridas que se abren en una discusión en la que la adrenalina ha subido sin control pueden tardar mucho en cicatrizar o incluso pueden provocar una ruptura. Y no solo en una pareja. Más de una larga amistad ha quedado finiquitada tras una polémica innecesaria, así como hay miles de personas que pierden su empleo por decir lo que no deberían en el momento menos oportuno.

Cuando hablamos de violencia en las relaciones humanas, tendemos a restringirla a las agresiones físicas que nos horrorizan en la sección de sucesos o, como mucho, a las agresiones verbales que no ponen en peligro nuestra vida, pero sí nuestra autoestima y salud mental.

Un empleado sometido, un día tras otro, a los comentarios destructivos de un superior acabará sufriendo trastornos de ansiedad o incluso una depresión en toda regla.

Sin embargo, hay otra violencia que no emplea la fuerza física ni los insultos. Una forma de agresión que no acostumbra a reconocerse como tal, pero que puede tener un efecto devastador en quien la sufre: el silencio punitivo.

Cuando un conflicto de pareja no se ha resuelto y la parte que cree tener razón castiga a la otra con el silencio, por mucho que esta última intente dialogar, el daño psicológico es igual o peor que recibir una tormenta de gritos. Al menos en este último caso existe el recurso de la defensa, mientras que la daga del silencio mata todas las razones y se utiliza para incubar en la víctima sentimientos de culpa y autodesprecio.

En el entorno colectivo de una empresa, el silencio que solo busca hacer sentir mal a alguien recibe la etiqueta de mobbing, pero esta misma arma se puede utilizar en una guerra para dos.

Más allá de las tres formas de violencia –física, verbal y psicológica– que acabamos de ver, como seres humanos tenemos la posibilidad de convertir la discusión en una catarsis cuyo fin sea superar los malentendidos y conocernos mejor.

Page 33: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 31

Para ello, los especialistas en conflictos interpersonales recomiendan proceder así, en lugar de optar por su opuesto negativo:

1. Señala el hecho que está mal, en vez de descalificar a la persona. 2. Escucha en vez de interrumpir. 3. Pide aquello que te gustaría que sucediera, en vez de exigirlo. 4. Respeta la opinión del otro, en vez de ironizar sobre ella. 5. Pregúntale lo que siente y le motiva, en vez de interpretarlo a tu manera. 6. Acepta tus propios errores, en vez de centrar tu discurso en los del otro. 7. Reconoce también las cosas que el otro hace bien, en lugar de centrarte en sus equivocaciones. 8. Discute sobre un conflicto actual, en vez de sacar trapos viejos. 9. Calla aquello que puede herir, en vez de utilizarlo como arma. 10. Habla en vez de gritar.

Si discutes mucho para probar tu sabiduría, pronto probarás tu ignorancia” Muslih-Ud-Din Saadi

Si seguimos estas reglas, con toda seguridad terminaremos la discusión mejor de lo que estábamos al comenzarla. Al dialogar y sopesar diferencias de forma empática, reforzaremos la unión con la persona o personas sobre las que pendía el conflicto.

A veces lo que impide que una discusión dé un giro positivo no son viejas rencillas del pasado ni diferencias insalvables, sino el bloqueo que ejerce una de las partes para que las ideas preconcebidas no se muevan.

Hay situaciones en las que nuestro interlocutor se cierra en banda y es imposible resolver la cuestión que ha provocado el conflicto. Esto sucede a menudo con personas retraídas y poco acostumbradas a dialogar, así como con aquellos perfiles sanguíneos que hablan –o gritan– antes de pensar. En una tercera categoría, entre las personas difíciles, estarían aquellas que se parapetan tras un argumento y repiten una vez y otra lo mismo, como un mantra, por miedo a ser convencidas de lo contrario.

El objeto de toda discusión no debe ser el triunfo, sino el progreso” Joseph Joubert

Justamente contra estos bloqueos en la comunicación, Sócrates diseñó un método para abrir brecha en las certezas del otro y hacerle pensar. Muchas de las preguntas que el filósofo ateniense utilizaba entonces para que el interlocutor abandonara su rigidez mental siguen teniendo validez hoy día:

¿A qué te refieres exactamente con esto? ¿Cómo has llegado a esta conclusión? ¿Por qué es eso tan importante para ti? ¿Has contemplado la posibilidad de que estés equivocado?

A menudo estas preguntas no obtienen una reacción positiva inmediata por parte del interlocutor, pero sin duda acabarán por hacerle pensar. Hay personas que necesitan un tiempo de incubación para llegar por sí mismas a una conclusión positiva que entierre el hacha de guerra.

Toda discusión se convierte en un puente de doble circulación cuando la afrontamos con respeto y mesura, y tenemos la valentía de conocer al otro y darnos a conocer.

UNA PELÍCULA:

“Olvídate de mí”, de Michel Gondry

Traducida con un título muy alejado del original “Eternal sunshine of the spotless mind”, disecciona las discusiones y miserias cotidianas de una pareja que, pese a estar enamorados, necesitarán someterse a una cirugía de recuerdos para olvidarse del otro.

UNA NOVELA

“El desprecio”, de Alberto Moravia (De Bolsillo)

Publicada en 1954, muestra la compleja relación entre Emilia y su marido, un guionista de cine que ve cómo su matrimonio se va desmoronando a medida que el éxito llega a su carrera.

Al final, en esta clase de contiendas no hay ganador alguno. Solo se aplaza la resolución del problema cuando no se agranda directamente por culpa del resentimiento que sigue al intercambio de rencores e improperios.

Page 34: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 32

YVONNE SUZANNE MARIE-LOUISE CHOQUET-BRUHAT

NNaacciióó eell 2299 ddee ddiicc iieemmbbrree ddee 11992233 eenn LLii ll llee,, FFrraanncciiaa..

Yvonne Bruhat es también conocida por el nombre Yvonne Fourès-Bruhat, el cual usaba mientras estuvo casada con el matemático Léonce Fourès. Sin embargo, a ella se le conoce mejor por el nombre Yvonne Choquet-Bruhat, que ha utilizado desde que se casó con su segundo marido Gustave Choquet. Por razones de simplicidad, en este artículo se le referirá como Yvonne Bruhat.

Yvonne Bruhat es hija de Georges Bruhat (1887-1945) y Berthe Hubert (1892-1972). Georges Bruhat ocupó el primer lugar en el Concurso de Agregados en Física en 1909. Obtuvo su doctorado en física antes del estallido de la I Guerra Mundial en 1914, fue movilizado durante la guerra y entonces se le designó a la Universidad de Lille en 1919. Fue ascendido a profesor de física en Lille en 1921. Se casó con Berthe Hubert quien también había clasificado primera en el Concurso de Agregados en Artes en 1917. Ella deseaba convertirse en profesora de filosofía. Georges y Berthe Bruhat tuvieron dos hijos, Yvonne y un hijo llamado François Bruhat nacido en 1929. En 1927, cuando Yvonne tenía cuatro años, a su padre se le otorgó un cargo en la Facultad de Ciencias de París, siendo esta la ciudad de crianza de Yvonne.

Yvonne Bruhat emprendió su educación secundaria en París. En 1941, entró en el Concurso General, una competencia para determinar a los mejores alumnos de toda Francia, y ganó la medalla de plata para física. Por supuesto, en este momento Francia fue ocupada por las tropas alemanas. La segunda guerra mundial había comenzado el 1° de septiembre de 1939 cuando entraron las fuerzas alemanas en Polonia. Al día siguiente, Gran Bretaña, Francia y varios otros países, le declararon la guerra a Alemania, pero durante los meses siguientes Francia no estuvo involucrada en ningún tipo de lucha, pero pasó un tiempo tratando de construir defensas para proteger al país de una invasión por parte de Alemania.

La guerra cambió dramáticamente para Francia el 10 de mayo de 1940, cuando el ejército alemán cruzó las fronteras de Bélgica y Holanda y en junio June Francia se rindió y la lucha terminó. Georges Bruhat había sido designado como director adjunto de la École Normale Supérieure en 1935 y fue nombrado Jefe de la Cátedra de Física en 1941; el anterior titular había perdido el cargo por decisión del gobierno de Vichy. En 1943, Yvonne Bruhat comenzó sus estudios en la École Normale Supérieure de Jeunes Filles en Sèvres, a las afueras de París.

Esta universidad para mujeres era la institución asociada a la École Normale Supérieure, en Rue d ' Ulm. Seguir estudios universitarios en una París ocupada fue bastante difícil, pero la tragedia golpeó a la familia Bruhat en 1944 [1]:

Cuando la Gestapo detuvo a un estudiante que se ausentó de la Rue d'Ulm durante la noche del 04 de agosto de 1944, emprendieron una búsqueda sistemática local. Roger Apéry, que había estado elaborando papeles de identidad falsos en su habitación, apresuradamente quemó todos los documentos comprometedores. La Gestapo llevó la Sra. Bruhat y la Sra. Baillou como rehenes, cambiándolas por sus maridos al día siguiente; la mujer de la limpieza, sin darse cuenta de las implicaciones, se quejaba en voz alta sobre las cenizas que quedaron en la habitación de Apéry. Bruhat y Baillou fueron deportados y Bruhat pereció en Buchenwald.

Esta Baillou, mencionada en esta cita, es Jean Baillou que era secretaria general de la École Normale Supérieure. Yvonne estaba a mitad de sus estudios cuando esta tragedia pasó. Años después, refiriéndose a estos tiempos sumamente difíciles, ella dijo [10]:

Estaba muy protegida, incluso demasiado, así que podía continuar mis estudios. De una manera [mi padre] influyó mucho en mí, pero entonces él estaba más interesado en su hijo. No creía que su hija se podía convertir en una importante científica. Pensó que sería una buena madre para mi familia y profesora de secundaria.

Page 35: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 33

Años más tarde, dedicó a sus padres el libro de su autoría General Relativity and the Einstein Equations (2009):

A Georges Bruhat, 1887-1944, quien en vida me dio amor, amabilidad y explicaciones; y después de su muerte por sus libros. A Berthe Bruhat, nacida Hubert, 1892-1972, quien siempre me animó a intentar entender el mundo y a dedicarme a la investigación científica.

Los libros autoría de Georges Bruhat incluían cuatro volúmenes del Cours de physique générale (Curso de física general): Volumen 1 sobre Electricidad (1924); Volumen 2 sobre Termodinámica (1926); Volumen 3 sobre Óptica (1930) y Volumen 4 sobre Mecánica (1934). A estos hay que añadir que la madre de Yvonne, Berthe Hubert Bruhat, publicó Traite de pedagogie generale (Tratado de pedagogía general) en 1946.

Yvonne Bruhat se graduó en la École Normale Supérieure (Escuela Normal Superior) de Jeunes Filles en 1946 y emprendió investigaciones asesoradas por André Lichnerowicz. De 1946 a 1949 fue asistente en la École Normale Supérieure. En 1949-1951, fue primer asistente de investigación, luego fue promovida a investigadora asociada, en el Centre National de la Recherche Scientifique (Centro Nacional de Investigación Científica).

Yvonne obtuvo su doctorado en 1951 por su tesis Théorème d'existence pour certains systèmes d'équations aux dérivées partielles non linéaires. Sin embargo, tuvo muchos trabajos publicados antes de presentar su tesis. Todos fueron publicados bajo el nombre de Yvonne Fourès-Bruhat, debido a que en ese tiempo estaba casada con el matemático Léonce Guy Fourès, quien, como Bruhat, realizaba investigaciones en París. En 1951, él obtuvo su doctorado por su tesis Sur quelques points de la théorie des surfaces de Riemann.

Los primeros cuatro documentos de Bruhat fueron publicados en 1948: Sur une expression intrinsèque du théorème de Gauss en relativité générale; (con André Lichnerowicz) Sur un théorème global de réduction des ds2 statiques généraux d'Einstein; Sur l'intégration du problème des conditions initiales en mécanique relativiste; y Théorème global sur les ds2extérieurs généraux d'Einstein. Otros siguientes documentos fueron: Théorème d'existence pour les équations de la gravitation einsteinienne dans le cas non analytique (1950); Un théorème d'existence sur les systèmes d'équations aux dérivées partielles quasi linéaires(1950); y Théorèmes d'existence et d'unicité pour les équations de la théorie unitaire de Jordan-Thiry (1951). En 1952, además de dos artículos cortos, publicó un importante documento en Acta mathematica con el mismo título que su tesis [2]:

Uno tiene que enfrentar difíciles ecuaciones en derivadas parciales no lineales en la teoría de la gravedad de Einstein. Ella llevó a cabo esta tarea a un nuevo nivel de rigor matemático que ella misma creó. Esto condujo a un enriquecimiento de gran alcance de las matemáticas y la física. ... De gran importancia es que el análisis de Yvonne Bruhat permitió probar rigurosamente por primera vez la existencia y la unicidad de las soluciones de las ecuaciones de Einstein.

Bruhat permaneció parte del año académico 1951-1952 y todo el 1952-1953 en los Estados Unidos, en el Instituto de Estudios Avanzados de Princeton. Su esposo, Léonce Fourès, también fue miembro de este instituto durante el mismo periodo. Regresando a Francia, a ella se le asignó un cargo en la Facultad de Ciencias de Marsella en 1953. Fourès también se instaló en Marsella. Bruhat y su marido regresaron pronto a Princeton permaneciendo allí parte del año académico 1955-1956 en el Instituto de Estudios Avanzados. Ella permaneció en la facultad de Marsella durante cinco años antes de asumir un cargo en la Universidad de Reims en 1958. Allí permaneció en este cargo sólo un año antes de ser designada como profesor a dedicación exclusiva de la Facultad de Ciencias de París en 1960. El 16 de mayo de 1961, se casó con su segundo marido, Gustave Alfred Arturo Choquet (1915-2006). Él fue un matemático que había obtenido su doctorado en 1946, y desde 1950, había sido profesor en la Universidad de París. Aquí un extracto de su obituario [5]:

Él publicó más de 160 artículos matemáticos y 11 libros. Hizo contribuciones importantes a una variedad de campos: a la topología, a la teoría de la medida, a la teoría descriptiva de conjuntos, a la teoría del potencial, y al análisis funcional. Dos temas merecen mención particular. Su trabajo monumental de 1953-1954 sobre la Teoría de capacidades contiene entre muchas riquezas, su famoso Teorema de la Capacitabilidad. Un segundo gran tema es su teoría de representaciones íntegrales de conjuntos compactos convexos y conos completos débiles, ahora normalmente conocida como la Teoría de Choquet, desarrollada ampliamente. El trabajo sobre capacidades y el de las representaciones integrales, ambos han tenido muchas aplicaciones en análisis y probabilidades. Su distinción personal fue aliada de una manera notable a su gran bondad y humanidad. Era un maestro inspirador que dio estímulo generoso, y apoyo a sus alumnos y a sus colegas más jóvenes.

Bruhat fue nombrada Jefe de la Cátedra de Mecánica en la Universidad de París VI, la Universidad Pierre y Marie Curie, donde su esposo fue también profesor. Esta universidad fue fundada en 1971 cuando la Universidad de París fue dividida en varias universidades independientes. La Universidad Pierre y Marie Curie era en gran medida la antigua Facultad de Ciencias, en el Jussieu Campus del barrio latino de París. Ocupó esta jefatura hasta jubilarse en 1992, convirtiéndose en profesor emérito en aquel momento.

El Institut des Hautes Études Scientifiques (Instituto de Altos Estudios Científicos) da el siguiente Resumen sobre las contribuciones de Bruhat [4]:

Yvonne Choquet-Bruhat es una matemática reconocida internacionalmente. Su área de investigación se encuentra en la frontera entre las matemáticas y la física. Su investigación abarca una gama muy amplia de conocimiento desde la primera prueba matemática de la existencia de soluciones de la teoría relativista de Einstein de la gravitación hasta el estudio de la conversión de las ondas electromagnéticas en ondas gravitacionales (o al revés) en las proximidades de un agujero negro. Su investigación ha llevado a la creación de nuevos métodos matemáticos que han proporcionado una base sólida para el estudio de varias teorías físicas: la teoría de la relatividad general, teoría de la medida no abeliana, hidrodinámica relativista, la teoría de supergravedad, etc. Ella presentó algunas nuevas formulaciones de la teoría de la gravitación de Einstein que ha llevado a recientes avances espectaculares en la relatividad numérica, incluyendo el cálculo de las ondas gravitacionales emitidas durante el colapso y la fusión de dos agujeros negros. Estos resultados son de gran importancia para los detectores interferométricos gigantes de ondas gravitacionales como VIRGO (franco-italiano) o LIGO (americano).

Page 36: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 34

MathSciNet (revista especializada) lista 241 publicaciones producidas por Yvonne Choquet-Bruhat (algunas firmadas como Yvonne Fourès-Bruhat). Dado este increíble largo registro de publicaciones, es imposible hacer una buena reseña de sus contenidos. De todos, se pueden señalar algunos trabajos que son muy significativos. Ondes Asymptotiques et Approchees pour des Systemes d'Equations aux Derivees Partielles non Lineaires, publicado en 1969, donde da a un método para construir asíntotas y da soluciones aproximadas de ondas para sistemas no lineales de ecuaciones diferenciales parciales. Global Solutions of the Problem of Constraints on a Closed Manifold, publicado en 1973, donde muestra que la existencia de soluciones globales de las ecuaciones constreñidas de relatividad general de un colector cerrado depende de las propiedades sutiles del colector. Ella dio el primer estudio matemático profundo de supergravedad en Causalite des Theories de Supergravite (1984). Después de esta breve mirada a algunos de sus artículos significativos, se puede detallar las características de algunos de los libros que ha escrito.

En 1963 ella publicó Recueil de problèmes de mathématiques à l'usage des physiciens, el cual se tradujo al inglés como Problems and solutions in mathematical physics (1967). Consiste en la presentación de problemas con sus respectivas soluciones, utilizados en los exámenes de certificación sobre métodos matemáticos de la física. En 1968 ella publicó el Géométrie différentielle et systèmes extérieurs. J. D. Zund escribió en un informe:

Esta es una cuenta muy elegante de los métodos de geometría diferencial y sistemas diferenciales exteriores, que como André Lichnerowicz dice en su prefacio, sigue siendo fiel al espíritu de Élie Cartan. El libro es muy atractivo y muy bien escrito. ... [Este libro] lo recomiendo con el mejor de los entusiasmos tanto a los matemáticos puros como a los de matemáticas aplicadas, y será de particular valor para los físicos teóricos que deseen estudiar el apasionante campo de la geometría diferencial moderna.

Bruhat dio cursos en la Universidad de París a los estudiantes que aspiraban el grado de Magister en Matemáticas, a los cuales que preparaba para el uso práctico de las distribuciones en las ecuaciones diferenciales parciales de la física teórica. Estos cursos se convirtió en la base de su texto en francés Distributions (1973). En una colaboración con Cecile DeWitt-Morette y Margaret Dillard-Bleick dirigió la elaboración de la mejor obra entre tres autores: Analysis, manifolds and physics (1977). Rudolph Schmid, al reseñar la segunda edición aparecida en 1982, escribió en [8]:

El éxito de la primera edición de este excelente libro animó a las autoras a escribir una segunda edición ampliada y actualizada. Han logrado reunir en un solo volumen la infraestructura matemática de la física matemática moderna, que incluye las teorías de colectores diferenciables y su análisis global, la geometría de Riemann y Kählerian, los grupos de Lie, haces fibrosos y sus conexiones, clases características y teoremas de índice, distribuciones, y ecuaciones diferenciales parciales. ... En mi opinión, este libro cumple con su cometido, siendo un referente que puede utilizarse como un texto en un curso de física matemática avanzada.

Bruhat y Cecile DeWitt-Morette produjeron un volumen complementario en 1989. J. E. Marsden escribió en una reseña:

El libro original fue bien recibido en la comunidad y aún hoy es un recurso valioso. Cubre una increíble variedad de temas que son de utilidad para un gran número de matemáticos, físicos matemáticos e ingenieros matemáticos. El libro original ya incluía aplicaciones interesantes, como la ecuación de Schrödinger, burbujas de jabón, electromagnetismo, choques, gravedad, sistemas hamiltonianos, monopolos, espinores, teoría de grado aplicada al PDE, medida de Wiener, etc. Sin embargo, muchos de estos contenidos estaban en formatos de problemas extensos y tendían a ser un poco imprecisos debido a eso y también por falta de espacio, dada la amplitud de los temas que los autores querían cubrir en un todo coherente. Este volumen complementario extiende las aplicaciones a una discusión más detallada y también más sofisticada e interesante. Para ilustrar lo afirmado, aquí se indica un tema de cada capítulo: la identidad de Fierz, el tensor de energía de tensión, colectores de Stiefel, el grupo de Weyl Heisenberg, los espacios de Calabi-Yau, las Clases de Chern-Simons y las funciones de Wightman y Schwinger.

Se deben mencionar los dos libros más importantes escritos individualmente por Bruhat. El primero fue Graded bundles and supermanifolds (1989), sobre el cual Alice Rogers reseñó:

Estas notas de la Conferencia dan cuenta pedagógica de los conceptos básicos de la geometría diferencial de colectores graduales y supercolectores. El estilo es claro y legible. Ambos, colectores graduados y supercolectores amplían la geometría clásica al incluir variables anticommutadas, un enfoque que está motivado por el deseo de ampliar las técnicas geométricas utilizadas en física teórica en los sistemas que incluyen fermiones. El formalismo es particularmente apropiado para sistemas supersimétricos, los cuales tienen simetrías que mezclan los grados de libertad de bosones y fermiones, tratando a estos dos tipos de grados de libertad de manera similar.

En 2009 se publicó su último libro, General relativity and the Einstein equations (la Relatividad General y las ecuaciones de Einstein). Hans Peter Künzle se refiere al mismo de la siguiente manera:

Este libro enorme cubre en detalles las áreas de la teoría de la relatividad matemática clásica a la que la autora ha hecho contribuciones importantes durante su larga y activa carrera de investigación. Como el título indica, el énfasis está en las propiedades matemáticas de las ecuaciones de Einstein, en particular los teoremas de existencia local y global del problema de valor inicial. Pero la inclusión de algunos capítulos introductorios sobre colectores de Lorentz, relatividad especial y teoría cinética lo hace una obra de referencia actualizada o incluso un libro de texto para un curso de avanzado de postgrado.

Page 37: HOMOTECIA No. 3-12 Marzo 2014servicio.bc.uc.edu.ve/homotecia/2014/3-2014.pdfHOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 1 CALIDAD EDUCATIVA Y LA EVALUACIÓN DE LAS INSTITUCIONES

HOMOTECIA Nº 3 – Año 12 Miércoles, 5 de Marzo de 2014 35

Bruhat tuvo una hija, Michelle, con su primer marido, Léonce Fourès y un hijo, Daniel, y una hija, Geneviève, con su segundo esposo, Gustave Choquet. Daniel Choquet estudió bioingeniería en París y obtuvo un doctorado en la Universidad Pierre y Marie Curie en 1988. Ha hecho importantes avances en imágenes nanoscópicas y la organización de receptores en las neuronas, lo que le valió ser elegido a la Academia de Ciencias y varios premios.

Por sus contribuciones a la física matemática, Bruhat ha recibido muchos honores. En 1958 recibió la Medalla de Plata por el Centre National de la Recherche Scientifique (Centro Nacional de la Investigación Científica). En 1963 recibió el premio Henri de Parville por la Academia de Ciencias. Fue elegida miembro correspondiente de la Academia de Ciencias el 13 marzo 1978 y el 14 de mayo de 1979, se convirtió en miembro pleno, siendo la primera mujer en lograrlo. En 1985 fue elegida a la Academia Americana de Artes y Ciencias. Fue convertida en Comandante de la Legión de Honor el 22 de octubre de 1997. En 2003, junto con James York, de la Universidad de Cornell, recibió el Premio Dannie Heineman de Física Matemática:

... por su trabajo individual y en colaboración, así como probar la existencia y la unicidad de soluciones de las ecuaciones de campo gravitacional de Einstein con el fin de mejorar los procedimientos de solución numérica con relevancia para soluciones de la física realista.

El 11 de julio de 2008 fue elevada a las dos 'dignidades' de la Legión de honor, es decir “Grand Officier” y “Grand Croix”, el más alto nivel de honor.

Referencias.-

Artículos: 1. F Apéry, Roger Apéry, 1916-1994: A Radical Mathematician, The Mathematical Intelligencer 18 (2) (1996), 54-61. 2. N Byers and G Williams (eds.), Yvonne Choquet-Bruhat, in Out of the Shadows: Contributions of Twentieth-Century Women to

Physics (Cambridge University Press, 2006), 334-342. 3. Choquet-Bruhat, Yvonne, Contributions of 20th Century Women to Physics, University of California (1999).

http://www.physics.ucla.edu/~cwp 4. Choquet-Bruhat Yvonne, française, 1923-, ChronoMath, une chronologie des mathématique.

http://serge.mehl.free.fr/chrono/yvonneChB.html 5. D A Edwards, Gustave Choquet, London Mathematical Society Newsletter 355(January 2007). 6. B Orsted, Review: Analysis, manifolds and physics by Yvonne Choquet-Bruhat, Cecile de Witt-Morette, and Margaret Dillard-

Bleick, Bull. Amer. Math. Soc. 3 (2) (1980), 878-885. 7. L Riddle, Yvonne Choquet-Bruhat, Biographies of Women Mathematicians, Agnes Scott University (2012).

http://www.agnesscott.edu/lriddle/women/bruhat.htm 8. R Schmid, Review: Analysis, manifolds and physics by Yvonne Choquet-Bruhat, Cecile de Witt-Morette, and Margaret Dillard-

Bleick, American Scientist 72 (3) (1984), 293. 9. Yvonne Choquet-Bruhat, Association for Women in Mathematics (2005).

http://www.awm-math.org/noetherbrochure/Choquet86.html 10. Yvonne Choquet-Bruhat, première femme à entrer l'Académie des sciences, Canal Académie: Magazine francophone des Académies

sur Internet. http://www.canalacademie.com/ida8924-Yvonne-Choquet-Bruhat-premiere-femme-a-entrer-l-Academie-des-sciences.html

Versión en español por R. Ascanio H. del artículo en inglés de J. J. O’Connor y E. F. Robertson sobre “Yvonne Bruhat” (Enero 2013).

FUENTE: MacTutor History of Mathematics

[http://www-history.mcs.st-andrews.ac.uk/Biographies/Choquet-Bruhat.html]

YVONNE BRUHAT

Imágenes obtenidas de: