homotecia nº 6
TRANSCRIPT
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 1
En esta oportunidad trataremos sobre la Teoría Sociocultural de Vigotsky y su importancia en la educación.
Lev Semiónovich Vygotski o Lev Vygotsky fue un psicólogo ruso de origen judío, uno de los más destacados
teóricos de la psicología del desarrollo, fundador de la psicología histórico-cultural.
Nació el 17 de noviembre de 1896 en Orsha, Bilorusia; y falleció con apenas 37 años, el 11 de junio d e 1934
en Moscú, Rusia, debido al padecimiento de tuberculosis.
Siendo aún muy niño se trasladó con su familia a Gomel. Sus padres tenían gran interés en que estudiara
medicina y, aunque su vocación lo inclinaba a materias de carácter humanístico, consiguió el ingreso en la
Facultad de Medicina de Moscú. En el último momento, sin embargo, renunció a su plaza y se matriculó en la
Facultad de Derecho.
Paralelamente siguió estudios de filosofía e historia en la Universidad Shanyavsky, aunque su titulación no
estaba reconocida por las autoridades educativas zaristas. Muchos años después, en la última etapa de su vida,
Vigotsky comenzó a estudiar medicina, buscando en ello una explicación de la organización neurológica de
las funciones mentales superiores que había estudiado antes desde otras perspectivas. Su prematuro
fallecimiento le impidió completar estos estudios.
Durante toda su vida Vigotsky se dedicó a la enseñanza. Trabajó inicialmente en Gomel como profesor de
psicología y después se trasladó a Moscú, donde se convirtió muy pronto en una figura central de la psicología
de la época. Tuvo como alumnos a Alexander R. Luria y Alexei N. Leontiev, que se convirtieron en sus
primeros colaboradores y seguidores.
Fue jefe de la orientación sociocultural de la psicología soviética, junto a A. R. Luria y A. N. Leontiev. Con
sus investigaciones sobre el proceso de conceptualización en los esquizofrénicos (El desarrollo de los
procesos psicológicos superiores, Pensamiento y lenguaje), y su posterior seguimiento en la obra de sus
discípulos, ejerció una gran influencia en la psicología pedagógica occidental.
En aquella época la psicología se encontraba en un momento de crisis, escindida en dos tendencias opuestas.
Por un lado, se encontraba la psicología fisiológica o explicativa de Wilhelm Wundt y Hermann Ebbinghaus,
que reducía la explicación de los fenómenos psicológicos complejos a componentes fisiológicos elementales,
y negaba la posibilidad de abordar científicamente las funciones mentales superiores del hombre. Por otro
lado, la psicología descriptiva consideraba las formas superiores de experiencia consciente como una forma
espiritual de la vida mental, y se limitaba a una descripción fenomenológica de las mismas.
Vigotsky se planteó como objetivo la superación de esa división. La forma de hacerlo era intentar explicar
científicamente todos los procesos psicológicos, desde los más elementales a los más complejos. Vigotsky,
con una formación dialéctica y una concepción marxista, aunque no dogmática del mundo, pensaba que una
psicología científica debía dar cuenta de las creaciones de la cultura; era necesario introducir una dimensión
"histórica" en el núcleo mismo de la psicología y entender la conciencia desde su naturaleza y su estructu ra.
Su teoría defendió siempre el papel de la cultura en el desarrollo de los procesos mentales superiores,
considerándolos de naturaleza social.
El eminente psicólogo investigó también acerca del papel del lenguaje en la conducta humana y sobre el
desarrollo del mismo a lo largo de la vida de la persona. Interesado por los aspectos semánticos del lenguaje,
sostuvo la idea de que las palabras comienzan siendo emocionales; pasan luego a designar objetos concretos, y
asumen por último su significado abstracto.
El planteamiento del origen social de los procesos psicológicos llevó a Vigotsky a un nuevo enfoque en la
valoración del desarrollo mental del niño. No se debe contar sólo con la capacidad actual que el niño presenta,
sino que es preciso cuestionarse hasta dónde puede llegar si el contexto social y cultural lo hace avanzar. Esto
le llevó a formular el concepto de "zona de desarrollo potencial", entendido como "la distancia entre el nivel
actual de desarrollo, determinado por la capacidad de resolver independientemente un problema, y el nivel de
desarrollo potencial, determinado a través de la resolución de un problema bajo la guía de un adulto o en
colaboración con otro compañero más capaz".
Este concepto implica la concepción del desarrollo como interiorización de instrumentos proporcionados por
agentes culturales en interacción. Tales principios han sido de gran importancia para el desarrollo de la
práctica educativa y clínica, continuando hoy su vigencia y aplicación.
(CONTINÚA EN LA SIGUIENTE PÁGINA)
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 2
(VIENE DE LA PÁGINA ANTERIOR)
Ampliando la explicación:
¿Qué propone Vigotsky con la teoría socio cultural del desarrollo cognitivo?
La obra deVigotskyse ha convertido en la base de muchas teorías e investigaciones sobre el desarrollo
cognitivo en las últimas décadas, sobre todo desde la perspectiva de lo que se conoce como Teoría
Sociocultural del Desarrollo.
La teoría sociocultural surgió a partir del trabajo de Vygotsky como respuesta al Behaviorismo, su idea
principal se basa en la idea que la contribución más importante al desarrollo cognitivo individual proviene de
la sociedad.
Vygotsky creía que los padres, parientes, los pares y la cultura en general juegan un papel importante en la
formación de los niveles más altos del funcionamiento intelectual, por tanto, el aprendizaje humano es en gran
medida un proceso social.
Según Vygotsky, el aprendizaje tiene su base en la interacción con otras personas. Una vez que esto ha
ocurrido, la información se integra a nivel individual:
“Cada función en el desarrollo cultural del niño aparece dos veces: primero en el nivel social y
luego en el individual, primero en medio de otras personas (interpsicológica) y luego dentro del
niño (intrapsicológico). Esto aplica igualmente para la atención voluntaria, la memoria lógica y
la formación de conceptos. Todas las funciones superiores se originan como relaciones reales
entre individuos”.
Vygotsky fue contemporáneo de otros grandes pensadores tales como Freud, Skinner y Piaget, pero su muerte
temprana a los 37 años y la supresión de su trabajo en la Rusia estalinista lo dejaron en relativa oscuridad
hasta hace poco tiempo.
A medida que su trabajo se hizo más ampliamente publicado, sus ideas han crecido cada vez más influyentes
en áreas como el desarrollo del niño, la psicología cognitiva y la educación.
La teoría sociocultural se centra no sólo en cómo los adultos y los compañeros influyen en el aprendizaje
individual, sino también en cómo las creencias y actitudes culturales influyen en cómo se desarrollan la
enseñanza y el aprendizaje.
Según Vygotsky, los niños nacen con limitaciones biológicas básicas en sus mentes.
Sin embargo, Cada cultura proporciona lo que él denominó como ―herramientas de adaptación intelectual”.
Estas herramientas permiten a los niños utilizar sus habilidades mentales básicas de una manera que les
permita adaptarse a la cultura en la cual viven.
Un ejemplo de lo que sería las diferencias culturales en cuanto al desarrollo de habilidades cognitivas,
mientras que una cultura puede enfatizar estrategias de memoria tales como tomar notas, otras culturas podrían
emplear herramientas como los recordatorios o la memorización.
Diferencias clave entre Vygotsky y Piaget.
Entonces, ¿en qué difieren las teorías sociocultural de Vygotsky y la teoría del desarrollo cognitivo de Piaget?
1. Factores culturales del desarrollo cognitivo.
Vygotsky pone más énfasis en la cultura y como esta afecta el desarrollo cognitivo.
Contrario a Piaget y la concepción de unas etapas universales del desarrollo cognitivo y su progreso
secuencial, Vygotsky nunca hace referencia a etapas del desarrollo evolutivo.
En consecuencia, Vigotsky asume que el desarrollo cognitivo varía según la cultura, mientras que Piaget
establece el desarrollo cognitivo es sobre todo universal sin importar las diferencias culturales.
2. Los factores sociales del desarrollo cognitivo.
Vigotsky también enfatiza en los factores sociales que contribuyen al desarrollo cognitivo.
Para él, el desarrollo cognitivo se debe a las interacciones sociales de formación guiadas dentro de la zona de
desarrollo próximo como los niños y sus pares logran la co-construcción del conocimiento.
(CONTINÚA EN LA SIGUIENTE PÁGINA)
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 3
(VIENE DE LA PÁGINA ANTERIOR)
En contraste Piaget sostenía que el desarrollo cognitivo se deriva en gran parte de las exploraciones
independientes de los niños con las cuales van construyendo el conocimiento por su propia cuenta.
Para Vygotsky, el entorno en el cual crecen los niños influirá en lo que piensan y en la forma en como lo
harán.
3. El papel del lenguaje en el desarrollo cognitivo.
Vygotsky resalta la importancia del papel del lenguaje en el desarrollo cognitivo.
Según Piaget, el lenguaje depende del pensamiento para su desarrollo, es decir, el pensamiento viene antes que
el lenguaje.
Para Vygotsky, el pensamiento y el lenguaje son sistemas separados inicialmente desde el comienzo de la
vida, la fusión se produce alrededor de los tres años de edad, con la producción de pensamiento verbal
(lenguaje interior).
Como consecuencia el desarrollo cognitivo resulta de una interiorización del lenguaje.
4. El papel de los adultos en el desarrollo cognitivo.
De acuerdo con Vygotsky los adultos son un factor importante para el desarrollo cognitivo.
Los Adultos transmiten herramientas culturales de adaptación intelectual que los niños internalizan.
En contraste, Piaget hace hincapié en la importancia de la interacción entre pares para promover la toma de
una perspectiva social.
El efecto de la cultura: herramientas de adaptación intelectual .
Al igual que Piaget, Vygotsky afirmó que los niños nacen con un repertorio básico de habilidades que
permiten su desarrollo intelectual, pero mientras Piaget se centraba en los reflejos motores y las capacidades
sensoriales, Vygotsky se refiere a las funciones mentales elementales:
Atención
Sensación
Percepción
Memoria
Eventualmente, por medio de la interacción dentro del entorno sociocultural, estas funciones se desarrollan en
procesos mentales más sofisticados y eficaces las cuales han sido llamadas como las funciones psicológicas
superiores.
Por ejemplo, la memoria en los infantes está limitada por factores biológicos. Sin embargo, la cultura
determina qué tipo de estrategias de memoria irán desarrollando. En nuestra cultura, por ejemplo, se promueve
tomar notas como un apoyo a la memoria.
Sin embargo, en aquellas sociedades que carecen de escritura se deben desarrollar otras estrategias, tales como
atar nudos en una cuerda para recordar, emplear guijarros, o la repetición de los nombres de los antepasados
un gran número de veces hasta que se memoricen a la perfección.
Vygotsky describe las herramientas de adaptación intelectual, o sea aquellas estrategias que permiten que los
niños manipulen sus funciones mentales básicas con mayor eficacia adaptativa, y están determinadas
culturalmente (por ejemplo, las técnicas de mnemotecnia, mapas mentales).
Por lo tanto, Vygotsky ve las funciones cognitivas, incluso las realizadas solo, como afectados por las
creencias, valores y herramientas de adaptación intelectual de la cultura en la que una persona se desarrolla y
por lo tanto determina socioculturalmente.
Las herramientas de adaptación intelectual, por tanto, varían de una cultura a otra, como en el ejemplo de la
memoria.
La influencia social en el desarrollo cognitivo .
Al igual que Piaget, Vygotsky creía que los infantes son criaturas curiosas que participan activamente en su
propio proceso de aprendizaje y en el descubrimiento y desarrollo de nuevos esquemas. (CONTINÚA EN LA SIGUIENTE PÁGINA)
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 4 (VIENE DE LA PÁGINA ANTERIOR)
Sin embargo, Vygotsky realiza mayores énfasis en las contribuciones sociales al proceso de desarrollo,
mientras que Piaget enfatizó el descubrimiento por iniciativa propia.
Para Vigotsky es mucho más importante el aprendizaje que se produce a través de la interacción social por
parte del niño con un tutor competente. El cual puede modelar comportamientos y/o proporcionar
instrucciones verbales al niño.
Vygotsky se refiere a este fenómeno como un diálogo cooperativo o en colaboración.
El niño trata de comprender las acciones o instrucciones proporcionadas por el tutor, a menudo un padre o
maestro, a continuación, interioriza la información, para luego poder emplearla para guiar o regular su propio
comportamiento.
Por ejemplo, a una niña que se le da su primer rompecabezas. Ella sola, intenta completar el puzle sin éxito.
Entonces, el padre se sienta con ella y le describe o muestra algunas estrategias básicas, tales como encontrar
todas las piezas de esquina y le proporciona un par de piezas para la niña pueda armar por sí misma y además
le felicita cuando ella lo logra.
A medida que la niña es más competente, el padre le permite a la niña trabajar de forma más independiente.
De acuerdo con Vygotsky, este tipo de interacción social que implica el diálogo de cooperación o
colaboración promueve el desarrollo cognitivo.
Con el fin de obtener una comprensión mejor de las teorías de Vygotsky sobre el desarrollo cognitivo, es
necesario entender dos de los principios fundamentales de la obra de Vygotsky: el Otro más experto y la Zona
de Desarrollo Próximo (ZDP).
El Otro más experto.
Este concepto se explica por sí mismo; se refiere a alguien que tiene una mejor comprensión o un nivel de
habilidad más alto que el alumno, con respecto a una determinada tarea, proceso o concepto.
A pesar de que la implicación es que el Otro más experto es un maestro o un adulto mayor, esto no es
necesariamente el caso. Muchas veces, puede tratarse de los compañeros de la misma edad pero que poseen un
mayor conocimiento o experiencia en un tema específico.
Por ejemplo, ¿quién puede saber más acerca de los nuevos grupos musicales de moda, o cómo superar los
diferentes niveles en un juego de Playstation, un par o los padres?
De hecho, El Otro más experto no tiene que ser necesariamente una persona en absoluto. Actualmente algunas
compañías, utilizan sistemas computarizados para apoyar los procesos de capacitación de sus empleados.
Los tutores electrónicos también se han empleados en los centros educativos para facilitar y guiar a los
estudiantes a través de su proceso de aprendizaje. La clave para del Otro más experto es que deben, o al
menos estar programados con un mayor conocimiento sobre el tema del que supone para los aprendices.
Zona de Desarrollo Próximo(ZDP).
El concepto del Otro más experto está íntimamente relacionado con el segundo principio importante de la obra
de Vygotsky, la Zona de Desarrollo Próximo o Proximal.
Este es un concepto importante que se relaciona con la diferencia entre lo que un niño puede lograr de forma
independiente y lo que un niño puede lograr con la orientación y el apoyo de un Otro experto.
Retomando el ejemplo anterior, a pesar que la niña no pudo resolver el puzle por sí misma y que le habría
costado mucho tiempo completarlo, luego de lograr esta tarea con la ayuda de su padre ha desarrollado una
competencia la cual aplicará a los futuros rompecabezas.
Vygotsky concibe la zona de desarrollo próximo como aquella área donde se debe instruir u orientar de
manera más sensible, puesto que permite al niño desarrollar habilidades que van a ser la base para el
desarrollo de las funciones mentales superiores.
Vygotsky también consideró la interacción con los pares como una forma eficaz de desarrollar habilidades y
estrategias.
Esta sería la principal razón para sugerir que los profesores utilicen ejercicios de aprendizaje cooperativo
donde los niños con menores competencias, logren desarrollar habilidades con la ayuda de compañeros más
hábiles, como parte de la zona de desarrollo próximo. (CONTINÚA EN LA SIGUIENTE PÁGINA)
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 5 (VIENE DE LA PÁGINA ANTERIOR)
Vygotsky, el Lenguaje y el desarrollo cognitivo .
Vygotsky creía que el lenguaje se desarrolla a partir de las interacciones sociales, para fines de comunicación,
él considera que el lenguaje es la mayor herramienta del hombre, un medio para comunicarse con el mundo
exterior.
De acuerdo con Vygotsky, el lenguaje juega un papel crítico en dos aspectos esenciales del desarrollo
cognitivo:
1. Es el principal medio por el cual los adultos le transmiten información a los niños.
2. El lenguaje en sí mismo se convierte en una herramienta muy poderosa de adaptación intelectual.
Vygotsky distingue entre tres formas de lenguaje:
- El habla socialque se encuentra en la comunicación externa que se utiliza para hablar con otras
personas, normalmente se presenta ya a la edad de dos años.
- Habla privada,la cual se manifiesta a la edad de tres años, es un habla que se dirige a sí mismo y tiene
una función intelectual.
Y finalmente
- Habla privada internalizada, la cual carece de audibilidad, ya que toma la forma de una función de
auto-regulación y se transforma en un habla interna silenciosa, típica de la edad de siete años.
Para Vygotsky, el pensamiento y el lenguaje son sistemas separados inicialmente desde el comienzo de la
vida, su fusión se produce alrededor de los tres años de edad.
En este punto el habla y el pensamiento se convierten en interdependientes: el pensamiento se vuelve verbal, y
el lenguaje se convierte en la representación.
Cuando esto sucede, los monólogos de los niños se internalizan para convertirse en habla privada. La
internalización del lenguaje es importante, ya que impulsa el desarrollo cognitivo.
Vygotsky fue el primer psicólogo en documentar la importancia del habla privada. A su juicio, este es el punto
de transición entre el discurso social y el interior, el momento en el desarrollo donde el lenguaje y el
pensamiento se unen para constituir el pensamiento verbal.
Así el habla privada, es la manifestación más temprana del habla interna. De hecho, el habla privada es más
similar, en su forma y función, a la voz interior del habla social.
El habla privada se define típicamente, en contraste con el discurso social, ya que el habla dirigida al mismo, y
no a otros, con el fin de autorregulación, en lugar de la comunicación.
A diferencia del habla interna que es encubierta, el habla privada es manifiesta. En contraste con la noción de
Piaget del habla privada que representa un callejón sin salida en el desarrollo.
Vygotsky concibió el habla privada como una revolución en el desarrollo que se activa cuando el pensamient o
y el lenguaje pre-verbal y pre-intelectual se unen para crear fundamentalmente nuevas formas de
funcionamiento mental.
Gran parte del material reseñado en este editorial, se obtuvo del Blog ―Biografías y Vidas‖, del Blog
―Actualidad en Psicología‖, de la Enciclopedia Wikipedia de Internet y de la revisión de los libros: de L. S.
Vigotsky: “Pensamiento y lenguaje” (1982), “Obras Completas. Tomo cinco, Fundamentos de Defectología”
(1989); de James V. Wertsch, “Vygotsky y la formación social de la mente”(1988); de Celso Antunes,
“Vigotsky en el aula… ¿Quién diría?” (2003); de Enrique García González, “Vigotski. La construcción histórica de
la psique” (2010); de Fernando Luis González Rey, “El pensamiento de Vigotsky. Contradicciones,
desdoblamientos y desarrollo” (2011).
RReefflleexxiioonneess “… no existen formas culturales de la conducta fuera de la personalidad, pues son las producciones de la personalidad las que
definen la especificidad de las formas culturales de la conducta; la cultura aparece en la conducta por las producciones de sentido subjetivo que la sustentan”.
FERNANDO LUIS GONZÁLEZ REY En “El pensamiento de Vigotsky. Contradicciones, desdoblamientos y desarrollo” (2011). P. 65
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 6
GERTRUDE BLANCH
(1897-1996)
Nació el 2 de febrero de 1897 en Kolno, Imperio Ruso (hoy en Polonia); y murió el 1º de enero de 1996,
un mes antes de cumplir 99 años, en San Diego, EE. UU.
Gertrude Blanch se llamaba Gittel Kaimowitz cuando ella nació en Kolno, a unos 140 km al norte de Varsovia. Aunque
se señala como nacida en Polonia, ya que cuando el país fue repartido, Kolno quedó ubicado en éste, cuando Gittel
Kaimowitz nació esta parte del país pertenecía al Imperio Ruso. Sus padres fueron Wolfe Kaimowitz y Dora Blanc, y
ella era la menor de siete hermanos. Su padre emigró a los Estados Unidos con la intención de que su esposa y los niños
lo siguieran a su debido tiempo. En 1907, Dora con Gittel y otra hija, se reunieron con Wolfe Kaimowitz en Nueva York.
Gittel tenía diez años cuando llegó a Nueva York y ella primero asistió a la escuela primaria, luego a la escuela
secundaria, en Brooklyn, Nueva York. Se graduó en la Escuela Secundaria del Distrito Este en 1914 pero más tarde en
ese año su padre murió; ya para ese tiempo Gittel usaba una versión americanizada de su nombre, Gertrude. Decidió que
ella tenía que trabajar para ayudar a su madre.
Gertrude Kaimowitz, como ya se le llamaba, tomó un trabajo como vendedora. Obtuvo la ciudadanía estadounidense en
1921 y continuó trabajando hasta que su madre murió en 1927. Para ese momento ella tenía treinta años, pero ella
siempre había querido continuar con su educación y así que tomó clases nocturnas en el Washington Square College,
adscrito a la Universidad de Nueva York. Gertrude decidió dejar su trabajo para un distribuidor de sombreros para poder
concentrarse en sus estudios pero su empleador, no deseando perder a un empleado valioso, le ofreció pagar sus estudios
si ella continuaba trabajando para él. Esto era una oferta atractiva por lo que Gertrude continuó trabajando para él
mientras estudiaba matemáticas. Ella obtuvo una licenciatura (principalmente en matemáticas pero con un poco de física)
en la Universidad de Nueva York en 1932. Ya en febrero de ese año, legalmente había cambiado su apellido Kaimowitz
por Blanch, una versión americanizada de Blanc, el apellido de soltera de su madre.
Blanch obtuvo su licenciatura con distinción y decidió continuar estudios de maestría. Entró en la Universidad de Cornell
en septiembre de 1932 y obtuvo un Master en febrero de 1934. Continuó investigando teniendo como tutor a Virgilio
Snyder. Ella presentó su tesis doctoral Properties of the Veneroni transformation in S_4 (Propiedades de la
transformación de Veneroni en S_4) y obtuvo su doctorado en la Universidad de Cornell en 1935.
Su tesis sobre geometría algebraica consideraba una transformación que apareció por primera vez en un trabajo de
Veneroni en 1901. Antes de la tesis de Blanch, estas transformaciones fueron estudiadas por varios matemáticos, tales
como J. A. Todd, Virgilio Snyder y H. F. Baker. Blanch publicó los principales resultados de su tesis en 1937 en el
American Journal of Mathematics en un trabajo con el mismo título de su tesis.
Después de obtener su doctorado, Blanch volvió a Nueva York donde trabajó durante un año como tutora en el Colegio
Universitario Hunter, sustituyendo a un miembro de la facultad que estaba de permiso. Después de esto ella fue
empleada como contadoraen una firma de Manhattan en la cual fabricaban cámaras para fotografíasa color. En la
referencia [4] ella explicó cómo pasó ella de ser una contadoraa trabajar en el Proyecto de Tablas Matemáticas:
Ya que no quería desperdiciar los conocimientos que tenía de matemáticas, me decidí a tomar el curso de
[Arnold N.] Lowan sobre relatividad [en el Colegio Universitario de Brooklyn]. Bueno, por supuesto que
ustedes saben cómo son las sesiones de tarde. La mayoría de los estudiantes están muy cansados cuando
llegan allí y ellos no tienen tiempo para hacer sus tareas. Yo si tenía tiempo, y lo que es má s, tenía el
conocimiento básico; por supuesto cuando entregaba un trabajo este estaba escrito bastante bien. Lowan
solía tomar el mismo autobús que yo tomaba para regresar a casa; un día en el autobús me dijo que estaba
muy contento con los tipos de trabajo que había entregado, aunque no asistía todas las noches. Le dije en
aquel momento que tenía un doctorado en matemáticas. Así, como él ya sabía que yo era un matemático,
me dijo la siguiente noche en el autobús que él había sido seleccionado para dirigi r este Proyecto de
Tablas Matemáticas y me preguntó si quería unirme al mismo. (CONTINÚA EN LE SIGUIENTE PÁGINA)
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 7
(VIENE DE LA PÁGINA ANTERIOR)
Blanch trabajó en el Proyecto de Tablas Matemáticas desde 1938 hasta 1942. Publicó varios trabajos, la mayoría
conjuntamente con Arnold N. Lowan, tales como: Tables of Planck's radiation and photon functions (Tablas de radiación
de Planck y las funciones del fotón) (1940), Errors in Hayashi's table of Bessel functions for complex arguments
(Errores en la tabla de Hayashi de las funciones de Bessel para argumentos complejos) (1941) y On the inversion of the
q-series associated with Jacobian elliptic functions (Sobre la inversión de la serie-q asociada a las funciones elípticas
Jacobianas) (1942). Los dos últimos artículos mencionados fueron publicados en el Bulletin de la Sociedad Matemática
Americana. Ella también fue empleada como tutora para cursos de la tarde en el Colegio Universitario de Brooklyn de
1940 a 1942. En diciembre de 1941, los japoneses atacaron a la Armada de Estados Unidos en Pearl Harbor y Estados
Unidos entró en la Segunda Guerra Mundial. La Oficina Nacional de Normas asumió el control de la mayor parte del
personal del Proyecto de Tablas Matemáticas en 1942 por su trabajo con el Panel de Matemáticas Aplicadas del Comité
de Investigación de Defensa Nacional. Blanch dijo que después de eso (referencia [4]):
Teníamos un grupo mucho más pequeño, pero estábamos equipados. Incluso tuvimos equipos IBM en esos días.
Fue durante la guerra cuando algunas de nuestras cosas sobre las que habíamos trabajado fueron llevadas a
Los Álamos porque ellos las necesitaban. Cierto material que nosotros teníamos en nuestros archivos. ... En
aquel momento sabíamos cómo hacer las cosas. Teníamos experiencia.
Hasta 1948 el Proyecto de Tablas Matemáticas continuó en Nueva York, pero luego fue trasladado a Washington. Blanch
no fue a Washington, sin embargo (leer referencia [4]):
... en ese momento me pidieron ir a la Costa Oeste al Instituto de Análisis Numérico para iniciar el laboratorio
allí y tenía un cosquilleo por ir. Nunca había estado en la Costa Oeste, por lo que para mí California fue una
revelación. ... Ahora estuve en California hasta la época de McCarthy cuando el Instituto cerró.
La época de McCarthy a la que Blanch se refiere en esta cita comenzó en febrero de 1950, cuando el senador estadounidense
Joseph R. McCarthy hizo afirmaciones sobre que los comunistas se habían infiltrado en círculos altos del gobierno (leer
referencia [1]):
Blanch fue uno de los profesionales del Instituto que fueron investigados por un Consejo de Lealtad del
Departamento de Comercio, supervisado por la Oficina Nacional de Normas. Aunque previamente a Blanch se
le había negado la autorización por medidas de seguridad, probablemente porque su hermana era miembro del
partido comunista, a ella se le permitió continuar su trabajo con el Instituto. No obstante, el Instituto estaba
bajo ataque y fue cerrado en junio de 1954.
Así como su hermana seguía siendo miembro del Partido comunista, otra evidencia contra Blanch era la ridícula demanda
sobre que ella era probablemente comunista porque nunca se había casado o había tenido hijos. Blanch consiguió un empleo
con la Corporación Electrodata de Pasadena pero sólo trabajó para ellos durante un año antes de que ella se convirtiera en
Matemático Sénior en los Laboratorios de Investigación Aeroespacial en la Base de la Fuerza Aérea Wright Patterson en
Dayton, Ohio. Ella ya tenía conexiones con esta base militar después de haber trabajado sobre funciones de Mathieu con Henry
Fettis quien trabajaba allí (referencia [4]):
... sobre las funciones de Mathieu, yo era probablemente la única que tenía alguna experiencia sobre el tema, y
ayudé Fettis en algunas cosas que le habían dado un montón de problemas. Él no podría conseguir a alguien
que le ayudara con esto. Así que cuando aparentemente se dieron cuenta que yo podría estar disponible, el
encargado del grupo de matemáticas en la Base de la Fuerza Aérea Wright Patterson era el Dr. Millsaps, un
verdadero caballero sureño quien había obtenido su título en matemáticas con Von Karman. ... Millsaps
intentó hacerme venir al Campo Wright. Cada vez que él venía a California me invitaba a cenar. ... Me había
dado cuenta que la empresa en la que trabajaba para ese tiempo no se mantendría mucho tiempo en el mercado
sin que fuera vendida a alguien, y Millsaps me lo pidió tres veces. No quería salir de California, pero luego
decidí que tal vez era lo mejor, y tomé el trabajo. En muchos sentidos fue lo mejor que he hecho. ... Salí en el
momento correcto y nunca fui más feliz en cualquier lugar - nunca fui tan feliz en cualquier otro lugar, como lo
estaba en el Campo Wright. Tuve completa libertad de hacer exactamente lo que quería hacer y, creo, mi mejor
trabajo fue hecho allí.
Blanch publicó su primer trabajo sobre funciones de Mathiu en 1946, antes de ir a California. Este fue el trabajo On the
computation of Mathieu functions (Sobre el cálculo de funciones de Mathieu) revisado por L. J. Comrie cuyo informe
comienza de la siguiente manera:
Para la ecuación de Mathieu 02cos2 yxqay , es bien sabido que ciertos valores de a, descrita como valores
característicos, conducen a soluciones periódicas. Ince, Goldstein y, más recientemente, McLachlan han desarrollado
métodos de obtención de estos valores característicos de una fracción continua. El autor comenta, “no parece que
aparezca en la literatura ningún método para mejorar la exactitud de los valores característicos, excepto por
iteración engorrosa”. Entonces ella desarrolla un método que corrige no sólo un valor aproximado característico,
sino también los coeficientes de la serie para las soluciones periódicas. (CONTINÚA EN LE SIGUIENTE PÁGINA)
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 8
(VIENE DE LA PÁGINA ANTERIOR)
Sin embargo, en 1945 la Oficina Nacional de Normas había producido un volumen de Tables relating to Mathieu functions
(Tablas relacionadas con las funciones de Mathieu) que incluían el trabajo de Blanch.
Entre otros trabajos que Blanch escribió antes de trasladarse a la Base de la Fuerza Aérea Wright Patterson se tienen:
(con Roselyn Siegel) Table of modified Bernoulli polynomials (Tabla de polinomios de Bernoulli modificados) (1950),
On the numerical solution of equations involving differential operators with constant coefficients (Sobre la solución
numérica de ecuaciones que involucran operadores diferenciales con coeficientes constantes) (1952), On the numerical
solution of parabolic partial differential equations (Sobre la solución numérica de ecuaciones derivadas parciales
parabólicas) (1953) y (con Henry E. Fettis) Subsonic oscillatory aerodynamic coefficients computed by the method of
Reissner and Haskind (Coeficientes aerodinámicos oscilatorios subsónicos calculado por el método de Reissner y
Haskind) (1953).
En la referencia [4], ella describe su trabajo en la Base de la Fuerza Aérea Wright Patterson:
Estaba trabajando principalmente en las funciones de Mathieu. Hicimos funciones de Mathieu en un plano
complejo y se publicó. No hicimos mucha rutina informática allí. [Carl Gottfried] Guderley solía tener algunos
problemas especiales muy interesantes en relación con alguna teoría termodinámica. Nosotros lo ayudamos
con eso. Gente de aquí, de allá y de otros laboratorios en el Campo Wright venían por consejos, y si teníamos
el conocimiento estábamos muy contentos en compartirlo. Teníamos conferencias sobre matemáticas modernas
y así sucesivamente. Participamos en ello. Era un ambiente universitario. Tenían un instituto para graduados...
Ellos enseñaban aerodinámica, sobre todo a aquellos oficiales que necesitaban entrenamiento.
Ejemplos de su trabajo sobre funciones de Mathieu durante su tiempo en el Campo Wright es el trabajo The asymptotic
expansions for the odd periodic Mathieu functions (Las expansiones asintóticas para las funciones de Mathieu periódicas
impares) (1960) publicadas en Transactions de la Sociedad Matemática Americana y el trabajo Numerical aspects of
Mathieu eigenvalues (Aspectos numéricos de los valores propios de Mathieu) (1966). También publicó un libro de do s
volúmenes con D. S. Clemm: Tables relating to the radial Mathieu functions (Tablas relativas a las funciones de
Mathieu radiales). El primer volumen, subtitulado Functions of the first kind (Funciones de la primera clase) apareció en
1962 y el segundo volumen Functions of the second kind (Funciones de la segunda clase) fue publicado tres años más
tarde.
En 1967 Blanch se retiró de su trabajo en la Base de la Fuerza Aérea Wright Patterson y fue honrada con la publicación de
Blanch anniversary volume (Volumen aniversario de Blanch) (1967), que contenía una serie de documentos realizados por sus
amigos. Ella continuó publicando sobre las funciones de Mathieu con D. S. Clemm después de su retiro, publicando el trabajo
The double points of Mathieu's differential equation (El doble de puntos de la ecuación diferencial de Mathieu) (1969) y
Mathieu's equation for complex parameters. Tables of characteristic values (Ecuación de Mathieu para parámetros complejos.
Tablas de valores característicos) (1969). Hasta 1970 fue empleado por la Universidad Estatal de Ohio como consultora de la
fuerza aérea. Después de 1970 regresó a California, donde vivió un prolongado retiro, muriendo justo un mes antes de cumplir
noventa y nueve años.
Citando a David Grier (referencia [3]) sobre Gertrude Blanch:
Gertrude Blanch puede verse como el último y más importante líder de equipos humanos o uno de los primeros
analistas numéricos para equipos electrónicos.
Referencias.-
Libros:
1. J Green and J LaDuke, Pioneering Women in American Mathematics : The Pre-1940 PhD's (American Mathematical Society, Providence, RI, 2009).
Artículos:
2. G Blanch and I Rhodes, Table-making at the National Bureau of Standards, in Studies in numerical analysis (papers in honour of Cornelius Lanczos
on the occasion of his 80th birthday (Academic Press, London, 1974), 1-6.
3. D A Grier, Gertrude Blanch of the Mathematical Tables Project, IEEE Ann. Hist. Comput.19 (4) (1997), 18-27.
4. H Tropp, Interview with Gertrude Blanch at the Aspen Hotel in Washington, D.C. on 16 May 1973 (Computer Oral History Collection, 1969-1973, 1977, Archives Center, National museum of American History).
Versión en español por R. Ascanio H. del artículo de J. J. O’Connor y E. F. Robertson sobre “Gertrude Blanch” (Abril 2015).
FUENTE: MacTutor History of Mathematics. [http://www-history.mcs.st-andrews.ac.uk/PictDisplay/Blanch.html].
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 9
GGaannaaddoorreess ddeell PPrreemmiioo NNoobbeell eenn FFííssiiccaa 11997755::
AAaaggee NNiieellss BBoohhrr,, BBeenn RRooyy MMootttteellssoonn yy LLeeoo JJaammeess RRaaiinnwwaatteerr FFuueennttee:: WWiikkiippeeddiiaa..
Aage Niels Bohr. Nació el 19 de junio de 1922 y murió el 8 de septiembre de 2009;
ambas localidades en Copenhague, Dinamarca. Físico danés hijo de Margrethe y Niels
Bohr. Creció en contacto con grandes físicos como Wolfgang Pauli y Werner
Heisenberg. Se convirtió en un notable físico nuclear. Ganó el Premio Nobel de Física
en 1975por su contribución a la teoría nuclear.
En 1946 ingresó al Instituto de Física Teórica Niels Bohr de la Universidad de
Copenhague, siendo el director del mismo de 1963 a 1970.
En 1948 Bohr trabajó en un monográfico con Ben Roy Mottelson y Leo James
Rainwater en Copenhague para resumir los conocimientos existentes de la estructura
nuclear. El primer volumen, Movimiento de una Sola Partícula, apareció en 1969, y el
segundo volumen, Deformaciones nucleares, en 1975.
AAGE NIELS BOHR (1922-2009)
Su trabajo en este proyecto y su contribución a la teoría nuclear les llevó a ganar el premio Nobel de Física en 1975,
por el descubrimiento de la conexión entre el movimiento colectivo y el movimiento de las partículas en el núcleo
atómico, y el desarrollo de la teoría de la estructura de los núcleos atómicos en función de esta conexión.
Ben Roy Mottelson. Físicodanés, de origen estadounidense, galardonado con el Premio
Nobel de Física del año 1975.
Nació el 9 de julio de 1926 en la ciudad de Chicago, ciudad localizada en el estado
norteamericano de Illinois. Estudió física en la Universidad de Purdue en 1947 y se
doctoró en la Universidad de Harvard en 1950.
En 1948 inició sus colaboraciones en el Instituto Niels Bohr de Dinamarca, al lado de
Aage Niels Bohr y Leo James Rainwater, alrededor de la estructura del núcleo atómico
cosa que les permitió describir la mecánica cuántica del nucleón. En 1971 consiguió la
ciudadanía danesa, y en 1975 fue galardonado con el prestigioso Premio Nobel de
Física, junto con sus colaboradores, por su búsqueda en la descripción cuántica de los
nucleones.
BEN ROY MOTTELSON
Leo James Rainwater.Físico. Nació el 9 de diciembre de 1917 en la ciudad de
Council, situada en el estado norteamericano de Idaho. En 1918, tras de la muerte de su
padre en epidemia de gripe española, su familia se trasladó hasta Hanford, en el estado
de California. Allí estudió física en el Instituto Tecnológico de California, donde se
licenció en 1939 y, posteriormente, consiguió el doctorado en la Universidad de
Columbia en 1946. En 1952 fue nombrado profesor de física en la Universidad de
Columbia.
Durante la Segunda Guerra Mundial entró a trabajar en el proyecto de desarrollo de la
bomba atómica. A partir de 1949 comenzó a desarrollar su teoría de que,
contrariamente a lo que entonces se creía, no todos los núcleos atómicos son esféricos.
LEO JAMES RAINWATER
(1917-1986)
Sus ideas fueron probadas y confirmadas más adelante por Aage Niels Bohr y los experimentos de Ben Roy Mottelson
realizados en el Instituto Niels Bohr de Copenhague (Dinamarca).
James Rainwater también contribuyó en la comprensión científica de las radiografías y participó en la Comisión de
energía atómica y proyectos de investigación navales por decisión del gobierno de los Estados Unidos. En 1975 fue
galardonado, junto a Aage Niels Bohr y Ben Roy Mottelson, con el Premio Nobel de Físicapor su contribución a la
teoría nuclear.
Leo James Rainwater murió el 31 de mayo de 1986 en su ciudad natal de Council.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 10
GGaannaaddoorr ddeell PPrreemmiioo NNoobbeell eenn QQuuíímmiiccaa eenn 11997777::
IIllyyaa PPrriiggooggiinnee
FFUUEENNTTEE:: WWiikkiippeeddiiaa
ILYA PRIGOGINE
(1917-2003)
Ilya Prigogine fue un físico, químico, sistémico y profesoruniversitariobelga de origen ruso, galardonado con el Premio Nobel de Química
en el año 1977 por sus investigaciones que lo llevaron a crear el concepto, en 1967, de estructuras disipativas.
BIOGRAFÍA
Prigogine nació el 25 de enero de 1917 en Moscú, Rusia, en un hogar de origen judío. Murió el 28 de mayo de 2003 en Bruselas, Bélgica.
Huyó con su familia en 1921 hacia Europa Occidental, tras la constitución de la URSS, estableciéndose en Bélgica en 1929. Estudió química
en la Universidad Libre de Bruselas en Bélgica, donde fue profesor de fisicoquímica y física teórica a partir de 1947.
En 1959, se convirtió en el director del Instituto Internacional de Solvay de Bruselas. Fue asimismo catedrático de química en la Universidad
de Chicago y de física e ingeniería química en la Universidad de Texas en los Estados Unidos, donde fundó en 1967 el Instituto de Mecánica Estadística y Termodinámica.
En 1989 fue nombrado vizconde por el reyBalduino de Bélgica.
Autor de numerosos libros como Estudios termodinámicos de fenómenos irreversibles (1947), Tratado de termodinámica química (1950),
Termodinámica de no equilibrios (1965), Estructura, disipación y vida (1967) o Estructura, estabilidad y fluctuaciones (1971). Al lado de Isabelle Stengers escribió: El Fin de las certidumbres,1 y el clásico La nueva alianza.
INVESTIGACIONES CIENTÍFICAS
Especialista en termodinámica, realizó investigaciones teóricas sobre la expansión de la termodinámica clásica en el estudio de los procesos
irreversibles con la teoría de las estructuras disipativas. Utilizó la teoría del caos en sus investigaciones.
En 1977 fue galardonado por la Real Academia Sueca de Ciencias con el premio Nobel de Química por una gran contribución a la acertada
extensión de la teoría termodinámica a sistemas alejados del equilibrio, que sólo pueden existir en conjunción con su entorno .
Otro de sus más célebres libros, de título Tan sólo una ilusión, es una antología de diez ensayos (elaborados entre 1972 y 1982) en los que
Prigogine habla con especial ahínco sobre este nuevo estado de la materia: las estructuras disipativas, asegurando que con estos novedosos conceptos se abre un ―nuevo diálogo entre el hombre y la naturaleza‖.
Partiendo de las siguientes preguntas Ilya Prigogine investigó el concepto del tiempo:2
¿El tiempo, tiene un inicio?
¿Cómo se imprime el tiempo en la materia?
¿Cuál es el origen del Universo?
¿Cómo apareció el tiempo en el Universo?
¿El tiempo apareció con el Big Bang o antes?
¿Qué es la irreversibilidad?
¿Nos encontramos ante un Universo mecánico o ante un Universo termodinámico?
¿Qué están primero: las leyes reversibles de la mecánica, de la mecánica cuántica, de la relatividad o la dirección del tiempo como decía Aristóteles del antes y el después?
¿De dónde viene esta perspectiva del antes y el después?
¿Hay que reconsiderar las estructuras de base de la física?
¿El tiempo es esencial como pensaba Bergson o es accesorio como pensaba Einstein?
¿Dónde está el tiempo?
¿Cuál es el tipo de sistema dinámico que puede conducir a la irreversibilidad?
¿Cuál es la ley fundamental del Universo?
¿Cuál es el futuro de nuestro Universo?
ALEGORÍA DEL TIEMPO POR TIZIANO
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 11
Para Ilya Prigogine el tiempo precede al Universo. Según Ilya Prigogine el Universo es el resultado de una transición de fase a gran escala.
El Universo sería el resultado de una inestabilidad sucedida a una situación que le ha precedido. El Universo que conocemos sería el
resultado de una transformación irreversible de otro estado físico: cuando el tiempo se transformó en materia. La ruptura de la simetría, en el
espacio, es consecuencia de una ruptura en la simetría temporal, es decir, de una diferencia entre el pasado y el futuro. La materia lleva consigo el signo de la flecha del tiempo. Su concepto de estructuras disipativas rompe la simetría euclideana del espacio y la simetría del
tiempo.
La novedad que aporta es que, lejos del equilibrio, la materia adquiere nuevas propiedades. Estas propiedades son completamente nuevas
pero no dejan aislado al sistema como se creía hasta el momento.
Prigogine estudia los mecanismos matemáticos de formación de las estructuras disipativas, llevando a cabo experimentos numéricos en los
que demuestra que, a partir de reacciones caóticas de no-equilibrio, se pueden formar cadenas de simetría rota pero con una nueva estructura
ordenada. Esta ruptura de la simetría, en el espacio, ampliamente discutida por la filosofía del espacio y el tiempo, es consecuencia de una ruptura en la simetría temporal, es decir, de una diferencia entre el pasado y el futuro.
El concepto de estructura disipativa encuadra las propiedades que caracterizan los sistemas sometidos a condiciones de no-equilibrio:2
sensibilidad
flexibilidad
movimientos coherentes de gran alcance
posibilidad de estados múltiples
historicidad de las elecciones adoptadas por los sistemas
El concepto de estructuras disipativas no sólo rompe el concepto de simetría del espacio euclídeo, sino que también rompe con la simetría del
tiempo y genera un nuevo concepto de historicidad.
De sus investigaciones surge, en 1967, la teoría de las estructuras disipativas, por la que gana el Premio Nobel en 1977.
ESTADO DE EQUILIBRIO VS ESTADO DE NO-EQUILIBRIO.
En la materia en estado de equilibrio todo es lineal y existe una sola posibilidad o solución, en cambio en el estado de no-equilibrio las
ecuaciones no son lineales y hay muchas propiedades posibles. Se trata de ecuaciones de no linealidad. La materia es más flexible. En el equilibrio es posible linealizar, todos los puntos que yacen sobre un mismo plano tienen las mismas propiedades, en cambio en el no-
equilibrio hay una no linealidad de los comportamientos de la materia. Siempre aparecen nuevos estados físicos de la materia, una riqueza de
comportamientos y multiplicidad que no es posible hallar en el equilibrio porque debemos introducir el elemento de la historicidad, del
tiempo.2
Para la dinámica de sistemas, un sistema en equilibrio no puede tener una historia ya que lo único que puede hacer es persistir en su estado,
en el cual las fluctuaciones son nulas. No podemos comprender nuestro mundo si no tomamos en cuenta el no-equilibrio. Es fundamental
entender las fluctuaciones de todo sistema dinámico.
Para Prigogine es la función la que crea la estructura y los fenómenos irreversibles son el origen de la organización biológica, es decir, de la vida.
Prigogine piensa en tres exigencias para la física - irreversibilidad, probabilidad y coherencia - para poder concebir un Universo evolutivo,
para concebir las condiciones para la existencia de nuevas estructuras alejadas del equilibrio.
Estas concepciones sobre el orden, desorden, equilibrio y no-equilibrio corresponden a un cambio de paradigma en la ciencia, ya que hasta ese momento los científicos asociaban el orden con el equilibrio y el desorden con el desequilibrio.
Prigogine demuestra que el no-equilibrio es un fenómeno también ordenado, de otra forma, pero otro orden al fin. Sus ideas, contradicen
todo lo que se pensaba hasta entonces.
La concepción clásica de las ciencias era determinista. El cálculo de las probabilidades se debía a que se suponía que se tenía una información imperfecta, pero que si se mejoraba la información, y se conocían todas las variables del inicio, se podría predecir el resultado
final exactamente.
Probabilidad e irreversibilidad son conceptos estrechamente ligados. Para el determinismo, se necesitan calcular las probabilidades solamente
porque se desconocen las condiciones iniciales. Si conociera todas las condiciones iniciales con exactitud podría determinar el resultado también con exactitud. Esa es la diferencia entre resultado determinista y resultado probablilístico.
A partir de Prigogine las estructuras de la naturaleza obligan a introducir el concepto de probabilidad independientemente de la información
que se posea, con lo cual la descripción determinista solamente puede aplicarse a situaciones idealizadas no representativas de la realidad
física de nuestro mundo. Con esto el determinismo científico fue derrotado definitivamente.
En todos los fenómenos que estudian los científicos se observan el papel creativo de los fenómenos irreversibles, el papel creativo del
tiempo, el papel creativo de las estructuras disipativas y del no-equilibrio.
Prigogine se basa en estudios matemáticos teóricos y sus teorías son aplicadas a diferentes campos: el estudio del clima, la astronomía, la
cosmología, la bioquímica, la química, la química biológica , la química orgánica y la química inorgánica, la física, la biofísica, la biología,
la neurofisiología, la hidrodinámica, etc.2
NACIMIENTO DEL TIEMPO
Para Prigogine tiempo y eternidad son dos conceptos diferentes. El tiempo no es la eternidad, ni es el eterno retorno. La estructura del
espacio-tiempo está ligada a la irreversabilidad pero el tiempo no es solamente irreversibilidad, devenir y evolución.2
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 12
Para Prigogine no podemos hablar de un nacimiento del tiempo pero sí de un nacimiento de nuestro tiempo así como de un nacimiento de
nuestro Universo. Existen muchos tipos de tiempos: el tiempo astronómico, el tiempo de la dinámica, el tiempo químico interno, el tiempo
biológico interno, que es la inscripción del código genético que prosigue a lo largo de miles de millones de años de la vida misma, el tiempo
musical, etc. Es una convención humana contar el tiempo a partir de un acontecimiento, como por ejemplo, el nacimiento de Cristo.
El nacimiento de nuestro tiempo no es el nacimiento del tiempo. Ya en el vacío fluctuante preexistía el tiempo en estado potencial. El tiempo
potencial es un tiempo que está ya siempre ahí, en estado latente pero que requiere un fenómeno de fluctuación para concretarse. El tiempo
no ha nacido con nuestro Universo: el tiempo precede a la existencia y podrá hacer que nazcan otros universos.
Los fenómenos irreversibles conducen a nuevas estructuras y, desde el momento en que aparecen estas nuevas estructuras, no hay vuelta atrás, no podemos pensar que los humanos somos los responsables de la aparición de la perspectiva del antes y del después. El antes y el
después nos preceden, no son invenciones humanas, aunque sí lo es la forma en que medimos el tiempo, con relojes que tienen un
movimiento periódico.
Si para Aristóteles, el tiempo es eterno y no tiene inicio y, para Einstein, el tiempo es una ilusión humana, es eterno, no reversible, pero
relativo, para Prigogine el tiempo precede al Universo. Para él, el tiempo es irreversible y no es una ilusión como creía Einstein.
Prigogine se pregunta si la autonomía del tiempo desarrolla algún papel en la evolución de la vida, en la evolución biológica. La vida ha
creado nuestro tiempo gracias a la creación de las biomoléculas, que son moléculas orgánicas a quienes la irreversibilidad les quebró la simetría. Al quebrar esta simetría espacial también quebró la simetría temporal, o sea, la simetría entre pasado y futuro. Eso es la historia de
las moléculas, historia que permanece en su ADN y podemos rastrear.
ORIGEN DEL UNIVERSO
En su teoría sobre el origen del Universo, la relación entre espacio-tiempo por un lado y materia por el otro, no es simétrica. El espacio-tiempo se transforma en materia cuando la inestabilidad del vacío se corresponde con una explosión de entropía, lo cual es un fenómeno
irreversible. La materia sería, por lo tanto, para Prigogine, una contaminación del espacio-tiempo. El tiempo precede al Universo.2
En 1922, gracias a Einstein, se abandona el modelo de un Universo estático, por el modelo de un Universo en expansión. En 1965 se
descubre que el Universo está formado fundamentalmente por fotones, ya que existen 1.000.000.000 (109) fotones por cada barión. El desorden se asocia a los fotones, mientras que el orden se asocia a los bariones. O sea, que nuestro Universo tiene más desorden que orden.
Según Prigogine el Universo es el resultado de una transición de fase a gran escala, el paso de un estado a otro. El Universo sería el resultado
de una inestabilidad sucedida a una situación que le ha precedido.
Contrariamente a la idea clásica de que habría habido una entropía despreciable que aumenta hasta la muerte térmica, estado en el que la entropía sería terminal, Prigogine localiza una enorme producción de entropía en el origen del Universo.
Por eso, para Prigogine la muerte térmica está en los inicios del Universo. La entropía total de Universo procede del predominio de los
fotones.
Prigogine hace comenzar el Universo de una inestabilidad, un cambio de fase: el Universo que conocemos sería el resultado de una transformación irreversible de otro estado físico, de un vacío fluctuante de anti-materia.
El vacío fluctuante podía disminuir su energía emitiendo agujeros negros, lo cual es un fenómeno irreversible. En un primer momento, por la
inestabilidad de las partículas de la masa crítica original, se van constituyendo grupos de masa que son pequeños agujeros negros del orden
de 10 -3 g.
En ese momento el Universo se expande de manera exponencial, pero esos agujeros negros se descomponen en tiempos de 10 -35 segundos.
O sea que la materia lleva consigo el signo de la flecha del tiempo. En ese momento aparece el Universo que ya está formado por fotones y
bariones porque el tiempo se transformó en materia después de esta explosión de entropía.
El Universo caliente y pequeño era un Universo en equilibrio que se transformó en un Universo de no-equilibrio con la aparición de la materia. Si el Universo continuara en equilibrio no existiría la materia, y la aparición misma de la materia es una manifestación de la
irreversibilidad. La existencia de materia y no de anti-materia es la prueba de una ruptura de la simetría anterior.
En el siglo XXI ya no se cree, como se pensaba en el siglo XX, que la evolución del Universo va en la dirección de la degradación, sino que
la evolución va en la dirección del aumento de la complejidad, con nuevas estructuras que aparecen en cada nuevo nivel progresivamente, en todos los viveles existentes, sean del orden no viviente, como en las galaxias o estrellas, sean del orden viviente, como en los sistemas
biológicos. Tanto en el orden microscópico como en el orden macroscópico.
Aunque todavía existen quienes creen que el porvenir del Universo es una repetición, un eterno retorno y que el tiempo no es más que una
ilusión humana y, también existen, quienes creen, como en la termodinámica clásica, que la evolución del Universo consiste en una inevitable decadencia debido al agotamiento de los recursos disponibles, Prigogine sostiene, gracias a los avances de la ciencia y los nuevos
conocimientos matemáticos, como los fractales, que la realidad de nuestro Universo es mucho más compleja que eso.
Existen demasiadas posibilidades y elementos a tomar en cuenta y, existen siempre nuevos procesos de transformación y de aumento de la
complejidad.
LA VIDA
Para Ilya Prigogine la vida es el reino de lo no lineal, de la autonomía del tiempo, de la multiplicidad de las estructuras, algo que no se ve en
el universo no viviente. La vida se caracteriza por la inestabilidad por la cual nacen y desaparecen estructuras en tiempos geológicos. Según
esta teoría, el tiempo precede a la existencia y podrá hacer que nazcan otros universos. Cada vez que las condiciones de la astrofísica sean favorables se formará otro Universo.2
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 13
Para Ilya Prigogine la vida es el tiempo que se inscribe en la materia y los fenómenos irreversibles son el origen de la organización biológica.
Todos los fenómenos biológicos son irreversibles. Esta irreversibilidad es una propiedad común a todo el Universo, todos envejecemos en la
misma dirección porque existe una flecha del tiempo.
Para Prigogine es la función la que crea la estructura y los fenómenos irreversibles son el origen de la organización biológica, es decir, de la vida.
La vida no se corresponde a un fenómeno único; la vida se forma cada vez que las circunstancias planetarias son favorables. A partir de los
principios de la termodinámica sabemos que el porvenir del la vida es incierto y desconocemos hasta dónde puede llegar. Los sistemas
dinámicos de la biología son inestables, por lo tanto se dirigen hacia un porvenir que es imposible de determinar a priori. El futuro está abierto a procesos siempre nuevos de transformación y de aumento de la complejidad de los sistemas vivos,de la complejidad biológica, en
una creación continua.
Obras
Prigogine, Ilya (1961). Introduction to Thermodynamics of Irreversible Processes (Second edición). Nueva York: Interscience. OCLC 219682909.
Glansdorff, Paul; Prigogine, I. (1971). Thermodynamics Theory of Structure, Stability and Fluctuations. Londres: Wiley-Interscience.
Prigogine, Ilya; Herman, R. (1971). Kinetic Theory of Vehicular Traffic. Nueva York: American Elsevier. ISBN 0444000828.
Prigogine, Ilya; Nicolis, G. (1977). Self-Organization in Non-Equilibrium Systems. Wiley. ISBN 0471024015.
Prigogine, Ilya (1980). From Being To Becoming. Freeman. ISBN 0716711079.
Prigogine, Ilya; Stengers, Isabelle (1984). Order out of Chaos: Man's new dialogue with nature. Flamingo. ISBN 0006541151.
Prigogine, I. "The Behavior of Matter under Nonequilibrium Conditions: Fundamental Aspects and Applications in Energy-oriented Problems: Progress Report for Period September 1984--November 1987", Department of Physics at the University of
Texas-Austin, United States Department of Energy, (7 de octubre 1987)
Prigogine, I. "The Behavior of Matter under Nonequilibrium Conditions: Fundamental Aspects and Applications: Progress Report, April 15, 1988--April 14, 1989", Center for Studies in Statistical Mathematics at the University of Texas-Austin, United States
Department of Energy, (enero de 1989)
Prigogine, I. "The Behavior of Matter under Nonequilibrium Conditions: Fundamental Aspects and Applications: Progress Report for Period August 15, 1989 - April 14, 1990", Center for Studies in Statistical Mechanics at the University of Texas-Austin, United
States Department of Energy-Office of Energy Research (octubre de 1989)
Nicolis, G.; Prigogine, I. (1989). Exploring complexity: An introduction. New York, NY: W. H. Freeman. ISBN 0716718596.
Prigogine, I. "Time, Dynamics and Chaos: Integrating Poincare's 'Non-Integrable Systems'", Center for Studies in Statistical Mechanics and Complex Systems at the University of Texas-Austin, United States Department of Energy-Office of Energy
Research, Commission of the European Communities (octubre 1990)
Prigogine, I. "The Behavior of Matter Under Nonequilibrium Conditions: Fundamental Aspects and Applications: Progress Report for Period April 15,1990 - April 14, 1991", Center for Studies in Statistical Mechanics and Complex Systems at the University of
Texas-Austin, United States Department of Energy-Office of Energy Research (December 1990).
Prigogine, Ilya (1993). Chaotic Dynamics and Transport in Fluids and Plasmas: Research Trends in Physics Series. Nueva York: American Institute of Physics. ISBN 0883189232.
Prigogine, Ilya (1997). End of Certainty. The Free Press. ISBN 0684837056.
Kondepudi, Dilip; Prigogine, Ilya (1998). Modern Thermodynamics: From Heat Engines to Dissipative Structures. Wiley. ISBN 9780471973942.
Prigogine, Ilya (2002). Advances in Chemical Physics. Nueva York: Wiley InterScience. ISBN 9780471264316. Consultado el 29 de julio de 2008.
Editor (con Stuart A. Rice) de Advances in Chemical Physics series de textos publicados por John Wiley & Sons (hoy con más de 140 vols.)
Prigogine, Ilya (2012). El nacimiento del tiempo. Buenos Aires, Fábula Tusquets editores. ISBN 978-987-670-087-0.
BIBLIOGRAFÍA UTILIZADA Y REFERENCIAS
1. Ilya Prigogine (1996). El fin de las certidumbres. Andrés Bello. ISBN 9789561314306.
2. Ilya Prigogine (2012). El nacimiento del tiempo. Buenos Aires, Fábula Tusquets editores. ISBN 978-987-670-087-0.
IIllyyaa PPrriiggooggiinnee Imágenes obtenidas de:
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 14
LA TEORÍA DE LA RELATIVIDAD (Entrada 1)
Prólogo Versión de la publicación hecha por ARMANDO MARTÍNEZ TÉLLEZ el18 Marzo de 2009
Documento en línea: http://teoria-de-la-relatividad.blogspot.com/2009/03/18-el-calculo-tensorial
Surge este trabajo ante una ausencia de texto alguno en español acerca de la Teoría de la Relatividad que
abarque no sólo la aplicación de las fórmulas fundamentales (que es algo a lo que se limitan muchos libros
de texto) sino la filosofía fundamental sobre lo que es realmente la Teoría de la Relatividad, cómo se fueron
desarrollando las ideas hasta llegar a ella.
Resulta lamentable que muchos libros de texto sobre este tema se limitan a reproducir algunas fórmulas
aplicando dichas fórmulas a unos cuantos ejemplos particulares, dejándole al estudiante muchas dudas e
inclusive cierto grado de perplejidad ante lo que parecen ser efectos sacados de un baúl de trucos de magia y
paradojas aparentes que hacen dudar sobre las bases de la teoría. Aunado a lo anterior se enfrenta el
obstáculo de que los efectos físicos que son consecuencia directa de la Teoría de la Relatividad no son
apreciables en nuestra experiencia cotidiana dado que tales efectos sólo salen a relucir a velocidades
comparables a la velocidad de la luz, la cual es extraordinariamente alta (300 mil kilómetros por segundo).
Si la velocidad de la luz fuese de unos 2 mil kilómetros por segundo, seguramente estaríamos
acostumbrados a sus efectos y la Teoría Especial de la Relatividad sería comprendida en sus efectos hasta
por un niño de primaria por la familiaridad diaria con sus consecuencias.
La ausencia de un buen libro introductorio en español e inclusive en inglés que le permita al lector no sólo
comprender lo que es la relatividad sino que además le permita llevar a cabo la resolución de problemas
numéricos o inclusive problemas generalizados es notoria. Así tenemos libros introductorios escritos para el
público en general como el libro The Relativity Explosion de Martin Gardner, el cual intenta describir de
manera detallada las filosofías que están detrás de las conclusiones y descubrimient os de la Teoría de la
Relatividad, pero el cual por su ausencia de fórmulas y números aplicados sobre dichas fórmulas a casos
particulares deja a sus lectores funcionalmente iletrados en lo que es la relatividad. Después de leer en su
totalidad tal libro lo más seguro es que no podrán resolver ni siquiera un solo problema así sea sencillo que
involucre fenómenos relativistas. Por otro lado, tenemos libros de texto universitarios como el libro
Foundations of Modern Physics de Paul A. Tipler, el cual en las 51 páginas de las que consta el primer
capítulo del libro enseña de manera concisa a sus lectores a resolver problemas simbólicos y numéricos
relacionados con la Teoría Especial de la Relatividad, pero no recurre para nada a los diagramas espacio -
tiempo concebidos originalmente por Hermann Minkowski, tan esenciales para poder obtener una
perspectiva geométrica sobre los fenómenos relativistas. La didáctica utilizada por Tipler es una didáctica
puramente algebraica, y al prescindir por completo de los diagramas espacio-tiempo limita las perspectivas
de entendimiento de sus lectores, sobre todo en asuntos que involucran la simultaneidad, un fenómeno que
se puede captar claramente en un diagrama espacio-tiempo. Por si esta deficiencia fuese poca, el libro de
Tipler no da ni siquiera la más remota pista a sus lectores acerca de lo que trata la Teoría General de la
Relatividad.Los diagramas espacio-tiempo sí son utilizados en el libro Física (en su versión en Español) de
los autores Francis W. Sears y Mark W. Zemansky, lo cual da una buena perspectiva geométrica a los
lectores sobre la interpretación de los fenómenos relativistas, pero lo que por un lado generosamente dan
con los diagramas espacio-tiempo (a los cuales llaman diagramas Brehme) por el otro lado lo qui tan al
omitir (seguramente por la naturaleza introductoria del libro aunque se trate de un texto universitario)
totalmente no sólo la derivación de las fórmulas de transformación Lorentz-Fitzgerald sino toda la filosofía
básica que subyace a los postulados básicos de la Teoría de la Relatividad, como tampoco hacen mención
alguna a lo más elemental que yace detrás de la Teoría General de la Relatividad. De este modo, la
perspectiva filosófica y la perspectiva algebraica son sacrificadas en aras de la perspec tiva geométrica.Por
otro lado, el libro Space, Time and Gravity de Robert M. Wald no lleva a cabo ni siquiera una introducción
decente a los diagramas espacio-tiempo en menos de las cinco páginas que le dedica a tal cosa, para luego
saltar directamente hacia la Teoría General de la Relatividad presentando un conjunto de fórmulas que los
lectores no tienen ni siquiera la más remota idea de donde pudieron haber salido.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 15
Los materiales propios requeridos para el estudio de la Teoría de la Relatividad se encuentran tan dispersos
que inclusive en el venerable libro ―Mathematical Methods for Physicists‖ de George Arfken (tercera
edición, 1985) el importantísimo tensor de Riemann, tan fundamental para la geometría diferencial y el
estudio del espacio-tiempo curvo, en vez de cubrirse en una sección dedicada única y exclus ivamente a
dicho tema, es relegado a uno de varios problemas en el capítulo 3.2 del libro, sin hablarse después más del
asunto. ¡Y este es precisamente el libro de texto convencional usado por años en las universidades para
educar a los físicos en el uso de las herramientas matemáticas que todo físico necesita para poder continuar
adelante con estudios más especializados! Y si no les enseñan en este libro mucho sobre el tema, ¿entonces
en dónde esperan que lo puedan aprender si no es por cuenta propia?El libro Física Moderna de Ronald
Gautreau y William Savin (de la Serie de Compendios Schaum) podría haber sido una buena opción,
excepto que no da una génesis coherente sobre el desarrollo de las ideas que condujeron a la Teoría Especial
de la Relatividad ni habla en lo absoluto acerca de los diagramas de Minkowski ni toca para nada el tema de
la Teoría General de la Relatividad. Y el libro Física para estudiantes de Ciencias e Ingeniería de Robert
Resnick y David Halliday es todavía peor en el sentido de que s implemente se limita a reproducir varias de
las fórmulas propias de la relatividad, y sin entrar en detalle sobre los orígenes filosóficos de la teoría y sin
incluir mención alguna acerca de la existencia de los diagramas espacio-tiempo enfatiza la aplicación de las
fórmulas a los ejemplos numéricos sobre los cuales se pueden aplicar directamente las fórmulas sin entender
realmente lo que está sucediendo, lo cual tiene la desventaja de que hay muchos problemas sencillos que se
pueden postular en un curso introductorio que no pueden ser resueltos con la mera aplicación de fórmulas
aprendidas como dogmas traídos por un ser superior, problemas para los cuales es necesario comprender
exactamente lo que está sucediendo. No se puede tratar de resolverlo todo o inc lusive una ínfima parte del
todo simplemente multiplicando o dividiendo por √1 - V²/c² como acostumbran hacerlo muchos
principiantes. Si no se sabe cómo fue obtenida una fórmula, menos se sabrá como modificar la fórmula para
aquellos casos en los que el problema sea alterado un poco.Esta metodología para lo único que es buena es
para memorizar, no para comprender, y ha sido la causante de que muchos estudiantes que simplemente se
limitan a aplicar las fórmulas terminen con la impresión equivocada de que la relatividad es algo repleto de
efectos casi mágicos, posibles ilusiones ópticas, o ultimadamente que se trata de una teoría equivocada. Y
muchos que frustrados tratan de aprender por cuenta propia lo que es la Teoría de la Relatividad
frecuentemente se topan en las pocas bibliotecas técnicas que hay en México con libros sobre el tema que el
asunto es tratado de una manera rigurosa e inclusive pedante en la cual se obscurecen conceptos esenciales
con formalismo notacional que no ilustra mucho lo que se está estudiando. De este modo, en lugar del estilo
relajado utilizado por matemáticos como Henri Poincaré que se explayaban en sus trabajos dando todo tipo
de ejemplos ilustrativos esforzándose por hacerle entender a sus lectores las ideas que se les quería
transmitir, lo que se tiene en muchos casos son textos que adoptan un rigorismo axiomático en el cual no se
proporciona un solo ejemplo ilustrativo y que sólo se limitan a la derivación de teoremas a partir de los
axiomas y definiciones que se van dando, siguiendo el método moderno para la publicación de trabajos
científicos inspirado por el grupo Bourbaki con el cual se elimina todo lo que no es considerado estricta y
absolutamente indispensable, eliminándose muchos pasos intermedios que se suponen ―obvios‖, aunque ello
implique dejar a los lectores con muchas dudas.Si antes se tenía un formalismo moderado con el cual se
dificultaba captar la naturaleza esencial de las ideas transmitidas, con el formalismo axiomático riguroso de
hoy en día en muchos casos no se tiene ni siquiera la más remota idea de las posibles aplicaciones o la
posible trascendencia de aquello de lo que se está hablando. En el camino de forjar una teoría generalizada
en grado extremo, abstracta por excelencia, con un conjunto mínimo de axiomas y postulados, definiendo
algunos términos básicos, derivando teoremas empleando estrictamente las reglas de la lógica simbólica,
obtener resultados y corolarios y continuar derivando teoremas sin un solo ejemplo ilustrativo e inclusive
sin recurrir a un solo diagrama, puede quedar la impresión en muchos de que en ese largo recorrido se están
pasando por alto o se están perdiendo ideas importantes. Los rigoristas de hoy han olvidado que si no se le
puede poner números a aquello de lo que se está hablando en realidad se sabe muy poco o tal vez no se sepa
nada acerca de lo que se está hablando, y a ellos se les podría recordar la máxima de Lord Kelvin quien
señaló: ―Yo digo frecuentemente que cuando uno puede medir aquello de lo cual se está hablando, y
expresarlo en números, entonces uno sabe algo acerca de ello‖. Procediendo de una manera rigurosamente
axiomática, formalista, bastarían tan sólo unas dos o tres páginas para decirle al lector que todo lo que tenga
que ver con la Teoría General de la Relatividad se puede derivar de tan sólo dos ecuaciones:
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 16
lo cual es cierto. E inclusive, adentrándonos en el rigorismo, podríamos comenzar postulando a la siguiente
cantidad conocida como la acción (el integrando es un concepto físico importante conocido como el
Lagrangiano) como punto de partida de la Teoría General de la Relatividad:
habido el hecho de que a partir de la extremización de la acción (con la ayuda del cálculo de variaciones
que es esencialmente un refinamiento del procedimiento para obtener máximos y mínimos mediante el
cálculo infinitesimal) se pueden derivar axiomáticamente las ecuaciones de campo de Einstein de la
Relatividad General. Pero nadie en su sano juicio esperaría que algún lector sin experiencia previa en el
asunto empiece a resolver de buenas a primeras problemas a partir de los anteriores enunciados matemáticos
como lo haría alguien que haya tomado un buen curso previo sobre la materia. Se pueden tomar las
ecuaciones anteriores como postulados, y con unas cuantas definiciones que se vayan agregando en el
camino, se pueden ir derivando teoremas y lemmas y corolarios con los cuales se pueden seguir derivando
más teoremas y más lemmas y más corolarios, y así la cosa hasta el infinito. Pero... ¿realmente se entiende
aquello de lo que se está hablando? La derivación mecánica de resultados aplicando las reglas de la lógica
es algo que, estrictamente hablando, lo puede hacer cualquier máquina programada para ello. Pero hasta la
fecha son pocos, inclusive los más optimistas en el campo de la inteligencia artificial, los que esperan
realmente que de una máquina aplicando a ciegas las leyes de la derivación lógica pueda salir una idea
nueva.
Aún otro obstáculo en el estudio independiente de la Teoría de la Relatividad lo constituye el hecho de que
un mismo símbolo es usado frecuentemente para representar conceptos totalmente diferentes, como la letra
griega delta minúscula δ que es usada para representar el símbolo delta de Kroneckerδij, y es usada
también para denotar la derivada absoluta, y es usada también para denotar la función delta de Dirac, y en
el cálculo de variaciones se utiliza para representar la variación de una integral a ser extremizada, lo cual
desde luego podría ser solventado inventando una cantidad creciente de nuevos símbolos que a fin de
cuentas sólo reemplazarían una complejidad por otra (la primera opción, retener un mismo símbolo para
representar cosas distintas, parece ser mejor que la segunda). La contraparte son las definiciones
matemáticas para las cuales no hay una convención universalmente aceptada, como el hecho de que en
muchos libros los componentes de los vectores covariantes son representados con índices subscriptos (sub -
índices) y los componentes de los vectores contravariantes son representados con índices superscriptos
(super-índices), mientras que en muchos otros libros se lleva a cabo precisamente lo contrario representando
los componentes de los vectores covariantes con índices superscriptos y los componentes de los vectores
contravariantes con índices subscriptos; o como ocurre con los símbolos de Christoffel que no sólo son
representados con la notación usual gammaΓ ijk y Γijk sino que también son representados con paréntesis
rectangulares [ij,k] y con notación de corchetes { }, lo cual sólo aumenta la confusión en los iniciados al ir
de un texto a otro.
Un libro muy bueno que tal vez sea una excepción a la regla de los libros pedantes, fanfarrones o
incompletos sobre el tema de la Teoría General de la Relatividad es el libro Relativity de Bernard F. Schutz,
el cual tiene la enorme ventaja de que incluye al final del libro pistas y soluciones a los ejercicios de
práctica propuestos en el libro, con los cuales el estudiante autodidacta puede ver por sí mismo qué tan bien
ha comprendido el material. Desafortunadamente, además de que este libro es un libro en inglés que aún
(2009) no ha sido traducido al español, este libro no está disponible en la gran mayoría de las bibliotecas
técnicas y universitarias de la República Mexicana, y ello además de que se trata de un libro impreso no en
los Estados Unidos sino en Inglaterra o Australia o algún otro país miembro del Commonwealth, lo que
dificulta aún más obtener el libro.
Otro problema en intentar comprender realmente de lo que trata la Teoría de la Relatividad frecuentemente
es que la tarea es complicada por maestros que no saben explicar bien aquello de lo cual saben mucho, o
peor aún que saben dar explicaciones perfectamente claras acerca de cosas sobre las cuales saben y
entienden muy poco. Estoy convencido de que la única razón por la cual una persona se resigna a perder
miles de horas de su corta vida calentando mesabancos sin aprender mucho o inclusive nada de aquellos
malos maestros de los cuales debería de estar aprendiendo muchas ideas nuevas, privándose a la vez de
otras satisfacciones que podría obtener de la vida, es porque tiene que cumplir con un requisito obligatorio
aplicado por igual a todos los estudiantes, aguantando a esos malos maestros como un mal necesario de la
vida ante los cuales solo queda resignarse mientras los cursos académicos felizmente lleguen a su fin.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 17
Otro estorbo en la difusión de las ideas fundamentales que hay detrás de la Teoría de la Relatividad es la
formidable (e injustificada) reputación de que se trata de una teoría extremadamente complicada para la cual
se necesita ser un genio para poder comprenderla. Una anécdota que viene al caso es una entrevista
realizada al Profesor Arthur Stanley Eddington, en la cual el entrevistador pregunta: ―Profesor Eddington,
¿es cierto que sólo hay tres personas en el mundo que entienden la teoría de Einstein?‖, a lo cual
supuestamente Eddington le responde: ―¿quién es la tercera?‖.
Como si todo lo que ya se ha señalado no fuesen suficientes intimidaciones, obstáculos e impedimentos para
dificultarle al principiante el tratar de aprender por cuenta propia los aspectos relevantes de la Teoría de la
Relatividad, otro problema con el que nos topamos es que no sólo hay autores que omiten pasos de
desarrollo que tal vez para ellos serán muy obvios pero que no son nada obvios para quien está tratando de
entender cada paso, sino que inclusive incurren en lo que parecen ser traspiés sin dar ju stificación alguna a
la lógica empleada por ellos para asentar tales traspiés dándolos como hechos ciertos e incontestables. Un
ejemplo entre muchos lo podemos tomar del reverenciado libro A First Course in General Relativity del
muy respetado y alabado autor Bernard F. Schutz, en donde podemos leer en la sección 10.7 de su libro
titulada ―Realistic stars and gravitational collapse‖ una derivación del momentum de Fermi que invoca al
principio de incertidumbre de Heisenberg para asentar que para un electrón encerrado en una caja de
volumen V, el momentum de dicho electrón es incierto por una cantidad del orden de (ecuación 10.71 en el
libro):
Δp = hV-1/3
que viene siendo lo mismo que:
Δp · V3= h
en donde h es la constante de Planck:
h= 6.626·10-34
Joule·segundo
h = 4.136·10-15
eV·segundo
Lo primero que salta a la vista es que la ecuación dada por Schultz es dimensionalmente incorrecta . No
existe forma alguna en la cual se puedan compaginar las unidades. Ello deriva del hecho de que la relación
usual de la incertidumbre de Heisenberg es una fórmula unidimensional:
Δp · Δx ≥ h/4π
El principio de incertidumbre de Heisenberg puede ser extendido rigurosamente, desde luego, de una
dimensión a tres dimensiones. Pero la fórmula así obtenida no se asemeja a la fórmula dada por Schutz. En
una ciencia en la que hasta diferencias numéricas minúsculas en las masas de dos elementos distintos -
después de la tercera o la cuarta cifras significativas- son importantes para calcular la enorme cantidad de
energía liberada mediante el proceso de conversión de masa a energía, estas omisiones en las que con toda
la naturalidad del mundo una potencia lineal es reemplazada por una potencia cúbica o viceversa son
francamente imperdonables. Y si el lector intenta justificar por sí mismo la fórmula dada por Schutz,
encontrará que el 99 por ciento de los libros que pueda consultar le darán la fórmula de Heisenberg en su
versión unidimensional, no en su versión tridimensional, y cuando se la dan es probable que se la den como
parte de un ejercicio puesto al final del libro para el cual no se da la solución alguna dentro del libro.
Complicando aún más las cosas está el hecho de que la derivación dada por Schutz ni siquiera es la
derivación usual que se da al momentum de Fermi, ya que mientras que Schutz parte del principio de
incertidumbre de Heisenberg la derivación usual de la fórmula que se da en la gran mayoría de lo s libros de
Mecánica Cuántica para el momentum de Fermi recurre a la especificación de niveles energéticos
extendidos a lo que llamamos una esfera de Fermi encerrada dentro de una superficie de Fermi:
http://en.wikipedia.org/wiki/Fermi_energy
Por lo que podemos ver, la derivación dada por Schutz es una derivación muy sui generis, partiendo de una
base que para él parece estar totalmente justificada y que no requiere mayores explicaciones al lector, y si lo
que Schutz omitió en su libro resulta ser muy claro para él entonces se supone que debe ser también muy
claro para todos sus lectores y para los maestros que adopten su libro como libro de texto, aunque
desafortunadamente esto no sea el caso.
Otro punto de contención que se puede formular en contra de muchos textos ―clásicos‖ es el hecho de que
asumen demasiadas cosas por enseñadas o explicadas en otros textos considerados más elementales.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 18
Un ejemplo lo podemos ver en la segunda edición del libro ―Classical Electromagnetic Radiation‖ de Jerry
B. Marion y Mark A. Heald en el Apéndice C ―Fundamental Constants‖, en donde para la carga eléctrica e
del electrón se proporciona un valor de 4.803·10-10
statcoulombs, y debajo de dicho valor proporciona un
valor de e² = 1.440·10-13
MeV-cm sin dar mayores explicaciones al respecto, lo cual puede dejar perplejo al
lector. Pero no sólo no proporciona explicación alguna en dicho apéndice sobre el por qué o la forma en la
cual se llevó a cabo esta conversión, tampoco dentro del libro hace mención alguna al respecto, suponiendo
que la razón para esto seguramente fue enseñada en otros textos más elementales. Pero la gran mayoría de
los textos considerados más elementales no hace tampoco mención alguna sobre el origen de esto,
suponiendo que tal cosa será cubierta en mayor detalle en textos considerados más avanzados como el de
Marion-Heald, y lo peor del caso es que en los textos considerados más elementales el sistema de unidades
utilizado es el SI del cual la unidad de carga eléctrica statcoulomb no forma parte (el valor que utilizan es el
de 1.6·10-19
coulomb, el cual está relacionado con el statcoulomb mediante la conversión 1 coulomb = 3·109
statcoulombs). Esto puede confundir y desesperar a cualquier principiante que se encuentra a sí mismo
perdiendo una gran parte de su tiempo enfrascado en la conversión de unidades, algo en lo que no debería
haber problema alguno. Y como éste caso se pueden citar millares de ejemplos en los cuales en textos
considerados autosuficientes se utiliza información para la cual se dan muchas cosas por conocidas
previamente aunque no haya razón para suponer que necesariamente tales cosas fueron enseñadas
previamente en la gran mayoría de los cursos considerados más elementales. Una razón utilizada por
muchos autores para no entrar en detalles aclaratorios sobre cosas que ameritan una mayor explicación es el
argumento (yo lo llamaría más bien excusa, pretexto) de ―la falta de espacio‖. Afortunadamente, en Internet
no se trabaja con tales limitaciones, y es posible explayarse de un modo que muchas casas editoras no lo
permitirían. Naturalmente, si muchos libros en el mercado resultan demasiado crípticos para el lector
ordinario por todas aquellas cosas omitidas por ―la falta de espacio‖, siempre existe la posibilidad de que
tales libros eventualmente sean desplazados y pierdan una buena parte del mercado, reemplazados por
materiales de mayor extensión que se pueden encontrar en Internet inclusive de manera gratuita.
Soy de la opinión de que el énfasis en rigorismo y en invención continua de notación matemática cada vez
más elaborada y compleja tiene que ver directamente con el hecho de que en la actualidad no se estén dando
ya los espectaculares avances que se estaban dando a principios del siglo XX en las ciencias básicas. A
cambio de tanto rigorismo y tanto formalismo aplicado casi a ciegas lo que estamos obteniendo son teorías
sumamente complejas como la teoría de las supercuerdas (string theory) que no han servido para proponer
ni siquiera un solo experimento con el cual se pueda descubrir algo nuevo y confirmar así la teoría, en
contraste con las ecuaciones originales de James Clerk Maxwell y de Albert Einstein a partir de las cuales
se predijeron muchos efectos que posteriormente fueron confirmados en los laboratorios.
No sé si haya un libro en inglés que subsane todas las deficiencias que han sido señaladas anteriormente. Si
lo hay, no tengo conocimiento del mismo. Pero ciertamente tal libro no parece estar disponible para su venta
en español; al menos yo no he visto un libro tal en las librerías dedicadas a la venta de textos universitarios
y temas de índole técnica. Es por ello que, aprovechando la facilidad de poder llegar a travé s de Internet a
un auditorio amplio, he decidido recopilar los materiales que se encuentran dispersos aquí y allá para
presentarlos de una manera coherente y entendible.
He tratado de mantener los materiales agrupados y seleccionados de modo tal que puedan ser comprensibles
con un mínimo de estudios matemáticos. Pero no he tratado de incluirlo todo. Debe tomarse en cuenta que
un curso completo sobre la Teoría de la Relatividad requeriría de un libro como el libro Gravitation de más
de 1,200 páginas de Charles W. Misner, Kip S. Thorne y John Archibald Wheeler (considerado por los
estudiosos como la ―Biblia‖ de la Relatividad General y conocido también entre la comunidad cien tífica
como el ―Directorio Telefónico‖ por su grosor), siendo éste un libro que se utiliza a nivel de estudios de
Doctorado en Física:
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 19
No es el propósito de esta obra ser enciclopédica cubriéndolo absolutamente todo. Sin embargo, con los
materiales que he incluido, al menos los que no son especialistas en el tema tendrán cierta idea sobre
aquello de lo cual están hablando estos libros de texto avanzados, y tal vez hasta podrán entender algunas
cosas en dichos libros, lo cual siempre es mejor que no entender absolutamente nada y no tener la menor
idea sobre aquello de lo cual trata una de las teorías más revolucionarias de nuestros tiempos.
Tal vez haya frases o comentarios dentro de este trabajo que a algunos lectores les parecerán demasiados
obvias e inclusive superfluas. Por ejemplo, en varias partes el lector tal vez encontrará una referencia a
cierto objeto moviéndose todo el tiempo en la misma dirección y sentido, y al ver esto tal vez se dirá a sí
mismo: ―¿Por qué se habla aquí de un objeto que se está moviendo en la misma dirección y sentido? ¿Es que
acaso un objeto puede moverse en cierta dirección pero en diferente sentido?‖. La respuesta qu e a veces
sorprende a muchos está ejemplificada en el siguiente diagrama:
En este caso, tenemos un cuerpo A que está moviéndose siguiendo una direcciónhacia la derecha. Pero el
sentido en el que está moviéndose dicho cuerpo es realmente hacia donde lo está jalando el cuerpo B, que
es hacia abajo. Al hablar de un cuerpo que está moviéndose en la misma dirección y sentido, se está
hablando de un cuerpo que se está moviendo en la misma dirección y en el mismo sentido, literalmente
hablando.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 20
Existen también otras definiciones con diferencias sutiles que desafortunadamente muchos maestros omiten
señalar ya sea por olvido o por ignorancia, como el hecho de que utilizamos la palabra área cuando nos
referimos al espacio comprendido dentro de una f igura geométrica plana y utilizamos la palabra superficie
cuando nos referimos al mismo espacio comprendido dentro de los bordes de una figura geométrica
tridimensional (como lo es el caso de la superficie de una pelota); o como el hecho de que no es lo mi smo
velocidad que rapidez, ya que para definir la velocidad de un objeto generalmente la damos señalando la
dirección hacia la cual se está desplazando dicho objeto o por lo menos le asignamos un signo positivo o
negativo (por ejemplo un signo positivo cuando se trata de un cuerpo moviéndose hacia la derecha o un
signo negativo cuando se trata del mismo cuerpo moviéndose en sentido contrario, hacia la izquierda) pero
para definir la rapidez del mismo objeto simplemente damos la magnitud de la velocidad (por ejemplo, 5
metros por segundo) sin hacer referencia alguna a la dirección hacia la cual se está moviendo el objeto. Hay
aún otras definiciones cuyo uso puede causar confusión en quienes adolecen de una mala enseñanza en sus
estudios de secundaria y bachillerato, como la diferencia entre el concepto de masa y el concepto de peso
(la masa es algo intrínseco, invariable, medido en kilogramos, propio de un objeto cualesquiera que ocupe
un lugar en el espacio y que inclusive pueda estar flotando en el espacio, mientras que el peso es la
atracción ejercida por la gravedad sobre una masa, de forma tal que una masa de una tonelada -mil
kilogramos- puede tener un peso igual a cero al estar flotando fuera del sistema solar, mientras que una
masa de unos cuantos gramos puede tener un peso considerable sobre la superficie de un planeta como
Júpiter). Y así como éstos hay otros detalles y expresiones similares empleadas aquí que vistas a fondo no
son tan superfluas.
En donde lo he considerado conveniente, he metido problemas de ejercicios de práctica que el lector puede
intentar resolver por sí mismo antes de irse un poco más abajo del mismo para ver su solución. En ningún
caso he incluido problema o ejercicio para el que yo no dé solución alguna, porque es mi objetivo no dejar
con dudas a los lectores. Y esto aplica a toda la obra.
He tratado también de recurrir a todo el arsenal disponible de elementos didácticos y pedagógicos para
poder mantener centrada la atención del lector sobre el tema que se está discutiendo, incl uyendo numerosas
figuras y diagramas así como el uso de colores en donde tal cosa sea conveniente para resaltar la
importancia de algo en específico; y del mismo modo me he permitido agregar pasos extra en la derivación
de resultados que frecuentemente son omitidos en los textos impresos. Aunque en una cadena de
razonamientos hay muchas explicaciones y muchos pasos que son más que obvios para el maestro o para el
especialista, pasos que son omitidos en la publicación de trabajos científicos, muchas veces ha y cosas que
no son tan obvias para los que están iniciando por vez primera el estudio de una rama nueva del
conocimiento, y es aquí en donde cualquier explicación adicional o comentarios extra pueden ser de gran
ayuda para ayudarle al lector a comprender mejor una idea sin dejarle dudas sobre la misma, y de esto es de
lo que trata a fin de cuentas todo el esfuerzo que se ha estado llevando a cabo en esta obra. La obligación
del maestro no es dar explicaciones elegantes, su obligación es dar explicaciones entendibles, su obligación
es enseñar, y en la medida en que el maestro pueda lograr esto habrá cumplido (o fracasado) en su misión
fundamental que consiste en la transmisión de conocimientos. Las explicaciones elegantes, concisas,
abstractas, rigurosas (y de preferencia poco entendibles) se pueden dejar para la publicación de trabajos
científicos para cuya lectura se supone que los lectores están familiarizados e inclusive son expertos en el
tema.
Se ha hecho lo posible por hacer esta obra autosuficiente, proporcionando dentro de la misma las
herramientas necesarias para poder avanzar sin necesidad de tener que estar buscando en las bibliotecas y en
las librerías otros libros de texto de difícil obtención que recurren incluso a notación diferente que puede
resultar confusa. Los materiales de referencia externos, cuando son citados aquí, son materiales que se
pueden obtener rápidamente con una conexión a Internet.
Como será obvio conforme el lector se adentre en el estudio de la materia, Einstein no formuló por cuenta
propia todo lo que tiene que ver con la Teoría de la Relatividad, se tuvo que apoyar en los trabajos de otros
científicos de primer nivel como Bernhard Riemann (el matemático que asentó sobre bases firmes la
geometría diferencial y formalizó el estudio de las geometrías no-Euclideanas), James Clerk Maxwell (el
padre del electromagnetismo), Gregorio Ricci y su alumno Tullio Levi -Civita (creadores del cálculo
tensorial) y Hermann Minkowski (descubridor de la interpretación geométrica de la Teoría d e la Relatividad
a través de los diagramas espacio-tiempo), y la labor ha tenido que ser continuada por científicos de la talla
de Stephen Hawking y Roger Penrose. Pero el mérito de haber utilizado todas las herramientas disponibles
en su tiempo para consolidar una de las teorías más brillantes del siglo XX es indiscutiblemente suyo, y ese
es un mérito que nadie le va a negar.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 21
Aunque al tratar sobre el tema de la Teoría Especial de la Relatividad se ha tratado de hacer el menor uso
posible de las herramientas propias del cálculo infinitesimal, la transición hacia la Teoría General de la
Relatividad requiere forzosamente de algunos conocimientos básicos del cálculo infinitesimal, y no sólo del
cálculo infinitesimal sino de otra rama de las matemáticas conocida como el cálculo tensorial (cuyos
fundamentos son cubiertos en esta obra). Esta es la naturaleza de la bestia. De cualquier modo, hay mucho
material que puede ser entendido aún por quienes no cuentan con estas herramientas matemáticas, se ha
hecho aquí un esfuerzo adicional por lograrlo.
Como corresponde a una obra de esta extensión, se ha suministrado al final de la misma una Bibliografía
que incluye textos que van desde los más elementales hasta los que suelen considerarse más avanzados.
También dentro de la Bibliografía, y reflejando el impacto que está teniendo la enciclopedia universal
virtual Wikipedia como vasto repositorio de información suministrando una cantidad creciente de
conocimientos en todas las áreas del saber humano, accesibles gratuitamente y en forma instantánea a todas
horas del día, se ha proporcionado la lista de enlaces en los cuales los lectores pueden e ncontrar otras
referencias de apoyo a los materiales condensados en esta obra. Dicha lista ha sido puesta acomodando los
enlaces siguiendo un orden similar al cual se van tratando los temas dentro de esta obra. En dicha lista los
lectores encontrarán tanto enlaces Wikipedia en Español como enlaces Wikipedia en Inglés, esto en virtud
de que los enlaces Wikipedia en Inglés por lo general tienen información más actualizada o están algo más
completos que los enlaces Wikipedia en Español sobre los mismos temas, especialmente tratándose de
temas en ciencia y tecnología, e inclusive hay ciertos temas que aparecen publicados en los enlaces
Wikipedia en Inglés pero que no aparecen aún en los enlaces Wikipedia en Español. Siendo la Wikipedia
una base de datos en proceso continuo de evolución, al igual que el mismo Internet, vale la pena tener todas
las referencias y enlaces posibles de la misma tanto en español como en inglés para poder buscar así en uno
algo que no se pueda encontrar en otro. La Wikipedia tiene otra ventaja adicional que la pone por encima de
otros enlaces que se pudieran facilitar: persistencia. ¿En cuántas ocasiones el lector no se llegó a encontrar
con la desagradable sorpresa de que después de encontrar un enlace interesante regresó tiempo después solo
para descubrir que dicho enlace ya no existía y que posiblemente hasta el sitio en el que se encontraba
alojado el enlace tampoco existe, habiendo sido borrada toda la información junto con todas las imágenes?
Esta es la principal razón por la cual me he abstenido en esta obra de citar enlaces cuya duración a largo
plazo no esté garantizada.
Como una muestra de la revolución informática que está ocurriendo desde que Internet irrumpió en la vida
del hombre del Tercer Milenio, en algunas partes de esta obra se hace referencia a un nuevo medio de
diseminación de trabajos científicos que está adquiriendo cada día mayor renombre. Se trata de arXiv,
administrado por la Universidad de Cornell y financiado en parte por la National Science Foundation. Dados
los costos involucrados en el pago de la compra o descarga vía Internet de papeles científicos publicados
por las organizaciones profesionales establecidas, los cuales pueden irse acumulando rápidamente poniendo
en aprietos los bolsillos de los académicos e investigadores que no son precisamente gente rica (un
contrasentido considerando que en su gran mayoría los autores que envían sus trabajos para ser publicados
en estos medios no lo hacen con fines de lucro), aunado a la lentitud con la cual puede tardar en aparecer
publicado algún resultado importante mientras el trabajo es revisado por un equipo de colegas (proceso
conocido como revisión por pares conocido en inglés como peer review), todo esto está motivando a que la
preferencia hacia los medios clásicos de publicación vaya menguando y que la atención se esté trasladando
cada vez con mayor frecuencia a recursos más modernos en Internet tales como arXiv. En muchos campos
de las matemáticas y la física, casi todos los artículos científicos de importancia se están colocando ya en
arXiv. A la fecha de septiembre de 2007, arXiv contenía más de 440.000 trabajos imprimibles, lo que
supone que miles de ellos son añadidos cada mes. Su existencia fue uno de los factores que condujo a que se
precipitara la actual revolución en la forma en que se efectúan las publicaciones científicas, conocido como
el ―movimiento de libre acceso‖, con la posibilidad de una eventual desaparición de las revistas científicas
tradicionales que pueden terminar siguiendo el camino recorrido por los dinosaurios en su extinción. Los
matemáticos profesionales y los científicos cargan regularmente sus artículos en arXiv.org para que hay a un
acceso mundial y algunas veces para que se revise antes de que sean publicadas en revistas. Aunque la falta
de revisión por pares suscita alguna preocupación, no se considera un obstáculo para los usuarios de arXiv,
ya que muchos autores son cuidadosos con sus contribuciones, y la mayoría de los e-prints también se
envían a revistas científicas para que sean publicadas, pero algunos trabajos, incluidos algunos artículos
influyentes, se quedan solo como e-prints y jamás son publicados en una revista científica.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 22
Un ejemplo bien conocido de esto último es una prueba de la conjetura de la geometrización de Thurston
que resuelve finalmente la famosa conjetura de Poincaré como caso particular, enviada por Grigori
―Grisha‖ Perelman el 11 de noviembre de 2002 bajo el título “The entropy formula for the Ricci flow and
its geometric applications”. Perelman parecía satisfecho de renunciar a una publicación tradicional revisada
por pares, alegando que ―Si alguien está interesado en mi forma de resolver los problemas, está todo ahí
(refiriéndose a arXiv), dejemos que entren y lo lean‖.
En las entradas en esta obra en donde se trata el tema de la electrodinámica relativista, en lugar de la
extensión del sistema de unidades MKS hacia el área del electromagnetismo convencionalizado conocido
todo en conjunto como el sistema de unidades SI, se ha escogido al sistema Gaussi ano de unidades. Aunque
la gran mayoría de los lectores seguramente han sido expuestos al sistema MKS de unidades de uso tan
común en la resolución de problemas prácticos de ingeniería, cuyas unidades son de un orden de magnitud
que resulta útil en la discusión de efectos medibles a la escala de laboratorio (volts, amperes, webers/m²,
etc.), en el estudio de la interacción de la radiación electromagnética con los constituyentes elementales de
la materia (átomos, fotones, etc.) resulta más conveniente adoptar el sistema Gaussiano de unidades. Una
consecuencia en la adopción del sistema Gaussiano de unidades es que fórmulas que le resultan familiares a
muchos estudiantes como la fórmula B = μH en el sistema Gaussiano se tome simplemente como la
igualdad B = H sin que se vea a la constante de permeabilidad magnética μ presente. Pero la ausencia de μ
en esta fórmula en el sistema Gaussiano de unidades se debe a la forma en la cual ha sido definido dicho
sistema de unidades. Aún otra consecuencia es que la familiar fórmula que define al vector de Poynting
como el producto cruz S = ExH se convierte en la fórmula S = (c/4π)ExH, haciendo que entre en el
panorama la constante que simboliza a la velocidad de la luz. Sin embargo, este factor multiplicativo de
c/4π resulta conveniente en los desarrollos que son llevados a cabo en el estudio de la electrodinámica
clásica. (De cualquier forma, para convertir una fórmula del sistema de unidades SI al sistema Gaussiano de
unidades basta reemplazar la permitividad eléctrica del espacio libre ε0 con 1/4π y la permeabilidad
magnética μ0 con 4π.) Otra razón que justifica la adopción del sistema Gaussiano de unidades al tratar el
tópico de la electrodinámica relativista es que una gran cantidad de libros de texto a nivel universitario y a
nivel postgrado adoptan el sistema Gaussiano de unidades, y el adoptar aquí el sistema MKS puede causar
confusión posterior al estar consultando varios textos, y esta sea tal vez la mejor razón de todas para no
tratar de desviarse de algo que se ha convertido en una costumbre extendida.
Se han incluido como parte de los apéndices de esta obra tanto el texto completo (en inglés) del primer
trabajo que le fue publicado a Einstein en 1905 con el cual dio a conocer al mundo la Teoría Especial de la
Relatividad, así como las copias más relevantes de su cuaderno de apuntes en el cual fue desarrollando a lo
largo de dos años en forma manuscrita sus ideas principales acerca de la Teoría General de la Relatividad, la
cual fue publicada en octubre de 1915. Se ha relegado también a los apéndices material importante que
complementa las ideas expuestas en el interior de la obra o que expande el material expuesto hacia nuevos
horizontes pero que no es indispensable para poder dar continuidad a lo que se está leyendo cuando se está
siguiendo el orden de las entradas puestas en esta obra.
Parafraseando a Jimmy Wales, el fundador de Wikipedia, este trabajo es una pequeña contribución al
ambicioso objetivo de un mundo en el que todas las personas y cualquier persona tengan libre acceso a
la suma total de los conocimientos de la humanidad.
Aprovecho la ocasión para expresar mi más profundo agradecimiento a Roger Cortesi, quien generosamente
proporcionó los medios para la generación automatizada a través de LaTeX de la tipografía requerida para
la construcción de fórmulas matemáticas que hasta la fecha no pueden ser generadas automáticamente por
ninguno de los navegadores de Internet (browsers) convencionales.
IMPORTANTE: Este es un trabajo construcción, y sólo se considerará terminado cuando este último
párrafo no aparezca aquí haciendo esta advertencia. Los huecos que aparezcan aquí y allá a espera de ser
llenados en esta obra son la consecuencia inevitable de ser algo que está siendo elaborado simultáneamente
en partes diferentes. Aunque conforme se van acumulando los materiales están siendo sometidos a un
proceso de revisión continua, es inevitable que en una obra de esta magnitud surjan equivocaciones, errores
tipográficos e inclusive fallos de lógica, por lo que agradeceré cualquier observación que se me haga llegar
al respecto así como cualquier sugerencia para mejorías.
Continúa en el próximo número…
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 23
Más sobre el ADN
Recordando a Francis Crick Por: JAVIER YANES - @yanes68 - para Ventana al Conocimiento
Elaborado por Materia para OpenMind
FRANCIS CRICK EN SU OFICINA EN SUS ÚLTIMOS AÑOS.
AUTOR FOTO: MARC LIEBERMAN.
Quiso resolver los misterios de la vida. Empezó descubriendo la estructura del ADN, junto a James
Watson, y terminó... teorizando que la vida en la Tierra había sido sembrada por alienígenas.
¿Qué tienen en común Francis Crick, codescubridor de la estructura del ADN y premio Nobel en 1962 , y el antiguo
cantante y periodista Rael, líder de una secta ufológica que defiende el amor libre entre sus miembros? El vínculo parece
improbable, pero existe, y se llama panspermia dirigida: la hipótesis según la cual la vida en la Tierra es producto de los
designios de una avanzada civilización alienígena.
Claro que ahí acaban los parecidos. El líder de los raelianos se basa en su presunto encuentro personal con seres de otro
mundo. Crick, por su parte, se preguntaba cómo era posible que la naturaleza hubiera inventado al mismo tiempo dos
elementos mutuamente interdependientes para la vida: el material genético –ácidos nucleicos, como ADN o ARN– y el
mecanismo necesario para perpetuarlo –las proteínas llamadas enzimas–. La síntesis de ácidos nucleicos depende de las
proteínas, pero la síntesis de proteínas depende de los ácidos nucleicos. Con este problema del huevo y la gallina, Crick
y su colaborador Leslie Orgel razonaban que la vida debería haber surgido en un lugar donde existiera un ―mineral o
compuesto‖ capaz de reemplazar la función de las enzimas, y que desde allí habría sido diseminada a otros planetas
como la Tierra por ―la actividad deliberada de una sociedad extraterrest re‖.
Lo cierto es que la panspermia dirigida no desmerece en absoluto el pensamiento de Crick. Más bien al contrario, revela
con qué potencia funcionaban los engranajes de una mente teórica, incisiva e inquieta, ávida de respuestas racionales,
aunque no fueran convencionales. Para comprender cómo llegó Crick a la panspermia debemos remontarnos unos años
atrás. Hijo de un fabricante de zapatos de Weston Favell (Northampton, Reino Unido), Francis Harry Compton Crick (8
de junio de 1916 – 28 de julio de 2004) llegó al final de su infancia con sus principales señas de identidad ya definidas:
su inclinación por la ciencia y su convencido ateísmo. En cuanto a la primera, escogió la física.
Curiosamente, la biología molecular habría perdido uno de sus padres fundadores de no haber sido por la guerra. Crick
comenzó su investigación en el University College de Londres trabajando en lo que él mismo describió como ―el
problema más aburrido imaginable‖: medir la viscosidad del agua a alta presión y temperatura. Con el estallido de la
Segunda Guerra Mundial fue reclutado por el ejército para el diseño de minas. Tras el fin del conflicto, descubrió
que su aparato había sido destruido por una bomba (en su autobiografía él hablaba de una ―mina de tierra‖), lo que le
permitió abandonar aquella tediosa investigación.
Crick debía entonces elegir un nuevo campo de investigación, y fue entonces cuando descubrió lo que llamó el test del
chismorreo: ―lo que realmente te interesa es aquello sobre lo que chismorreas‖. En su caso, ―la frontera entre lo vivo y lo
no vivo, y el funcionamiento del cerebro‖. En resumen, la biología. O como físico, la biofísica. Comenzó a trabajar en la
estructura de las proteínas en el Laboratorio Cavendish de Cambridge, hasta que conoció a un estadounidense llamado
James Watson, 12 años más joven que él pero ya con un doctorado que él aún no había conseguido.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 24
WATSON Y CRICK, Y SU MODELO DE ADN EN EL LABORATORIO CAVENDISH (1953).
AUTOR FOTO: ANTONY BARRINGTON DE BROW.
Los dos investigadores descubrieron que ambos compartían una hipótesis. Por entonces se creía que la sede de la
herencia eran las proteínas. Crick y Watson pensaban que los genes residían en aquella sustancia ignota de los
cromosomas, el ácido desoxirribonucleico (ADN). Y aquel convencimiento, con la participación de Maurice Wilkins y
Rosalind Franklin, alumbraría el 28 de febrero de 1953 uno de los mayores hallazgos de la ciencia del siglo XX, la
doble hélice del ADN. El trabajo se publicó en Nature el 25 de abril de aquel año. Crick no obtendría su título de doctor
hasta el año siguiente.
Pero aunque a Crick se le conoce fundamentalmente por este hito fundador de la biología molecular, lo cierto es que él
mismo se ocupó de colocar los primeros raíles de esta nueva ciencia. El 19 de septiembre de 1957, Crick impartió una
conferencia para la Sociedad de Biología Experimental en el University College London. El título original elegido por el
biofísico sugería que iba a disertar sobre la ―síntesis de proteínas‖, pero ya en sus primeras palabras informó de que
hablaría sobre ―los otros problemas centrales de la biología molecular —los de la acción de los genes y la síntesis de
ácidos nucleicos‖.
EL “DOGMA CENTRAL” DE LA BIOLOGÍA.
Lo que no estaba incluido en la descripción de Crick era que aquella conferencia cambiaría la biología, pero eso fue lo
que hizo. En su charla, planteó cuatro predicciones teóricas, nacidas sólo de su razonamiento a partir de los escasos datos
experimentales disponibles. Y acertó en todas ellas, sentando los mecanismos clave del funcionamiento del ADN y las
proteínas que otros después confirmarían, y que continúan vigentes 60 años después.
Crick propuso que el código del ADN de los genes se traducía a la secuencia lineal de aminoácidos de una proteína, y
que ésta era toda la información necesaria para que la proteína sintetizada se plegara espontáneamente en la célula en una
forma tridimensional. Propuso que esto se llevaría a cabo mediante moléculas ―adaptadoras‖ encargadas de reconocer y
aportar cada uno de los 20 aminoácidos celulares para la síntesis de proteínas; hoy las conocemos como ARN de
transferencia. Propuso que la información viajaba desde el ADN al ARN y a las proteínas, pero no al revés; lo llamó
―dogma central‖, una expresión que perdura hasta hoy. Finalmente, propuso que algún día la comparación de las
secuencias de ADN de distintas especies serviría para entender la evolución, como hoy se hace.
Fue ese ―dogma central‖ de la biología el que le llevaría a publicar en 1973 su hipótesis de la panspermia, por entonces
una idea tan cabal que incluso tuvo en el astrofísico Carl Sagan a otro de sus proponentes. Sólo años después se
descubriría que el ARN puede actuar por sí mismo como enzima sin la intervención de proteínas, solucionando así el
problema que inspiró la panspermia. En 1993 Crick y Orgel publicaban un artículo que ya no mencionaba ninguna
―sociedad extraterrestre‖. El problema del huevo y la gallina ―pudo resolverse si, temprano en la evolución de la vida, los
ácidos nucleicos actuaron como catalizadores‖, escribían.
Por entonces Crick había cambiado de continente y de campo de estudio: en 1976 se trasladó al Instituto Salk en La Jolla
(California, EEUU), para un año sabático que duraría casi tres decenios. Allí saldó su cuenta pendiente con el segundo de
sus ―chismorreos‖: el cerebro. Durante el resto de su carrera, y en colaboración con el neurocientífico del Instituto
Tecnológico de California (Caltech) Christof Koch, se dedicó a tratar de localizar la conciencia en la materia
cerebral: ―tú, tus alegrías y tus penas, tus recuerdos y tus ambiciones, tu sentido de identidad personal y de libre
albedrío, de hecho no son más que el comportamiento de un vasto ensamblaje de células nerviosas y sus moléculas
asociadas‖, escribió en 1994.
Nunca logró desentrañar el problema de la conciencia, aunque aportó notables avances en el conocimiento de la
percepción visual. En 2004 perdió su batalla contra el cáncer de colon, pero nunca perdió el ánimo ni la pasión por el
estudio de la vida. Según escribiría Christof Koch, ―estaba corrigiendo un manuscrito en su lecho de muerte, cie ntífico
hasta el amargo fin‖.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 25
EEnn eell 22001188,, uunn vveenneezzoollaannoo eessttuuvvoo rreellaacciioonnaaddoo ccoonn llooss ggaannaaddoorreess ddeell
PPrreemmiioo NNoobbeell ddee MMeeddiicciinnaa.. Versión del artículo original de Yennifer Villa. Fuente: Noticias–Ahora - 3 octubre de 2018
Cuando publicamos la revista HOMOTECIA No. 3-16 (Marzo 2018), reseñamos en la página 36 que Baruj Benacerraf, nacido en Caracas el 29 de octubre de 1920 y fallecido el 2 de agosto de 2021 en Boston, EE. UU., era el único venezolano ganador de un Premio Nobel y eso hasta ahora es cierto. Fue en el año 1980 en el renglón de Fisiología o Medicina, recibido junto a Jean Da usset y George D. Snell,al descubrir las estructuras de la superficie celular determinadas genéticamente que regulan las reacciones inmunológicas. En el transcurrir del tiempo, otros venezolanos han sido propuestos para recibir el Nobel pero sin éxito.
Pero resulta ser que más tarde, en ese mismo año, cuando se otorgó el Premio Nobel de Medicina, el médico venezolano Luis Miguel Vence, radicado por muchos años en Houston, Texas, EE. UU., fue uno de los jefes de grupo del equipo que se alzó con el preciado premio.
Según un reporte de la fecha, el doctor caraqueño de 45 años, comentó vía telefónica que él y su equipo recibieron “la noticia con mucha alegría” y añadió que “El premio es muy grande, un reconocimiento a nuestro trabajo. Eso significa que hay muchas personas beneficiándose de la inmunoterapia”, añadió.
La humildad de Vence, quien vivió toda su infancia y adolescencia en la avenida Rómulo Gallegos de Caracas y estudió en el colegio San Agustín de El Marqués,es grandiosa, al afirmar que su jefe, James Allison, es el verdadero ganador del premio.
Se conoció, que Vence es el coordinador de uno de los cuatro grupos que a su vez supervisa Allison, en su avance en la inmunoterapia.
El venezolano tieneun equipo de 20 personas que trabajan día y noche para ganarle la batalla al cáncer y más de una vez lo han logrado.
VENCE (A LA DERECHA) JUNTO A JAMES ALLISON.
“Hay cuatro directores; yo me enfoco en el estudio de los tumores sólidos; hay un patólogo que estudia los exámenes patológicos; un especialista que estudia tumores líquidos y el último que trabaja en otros tipos de cáncer“, explicó Vence.
AMPLIARON LA MIRA EN LA INMUNOLOGÍA.
Este equipo de médicos se hizo con el premio Nobel de Medicina, al concentrar la cura de la enfermedad, no en el cáncer directamente,sino que ampliaron su mirada hacia el sistema inmunológico.
La respuesta la encontraron en las moléculas bautizadas como CTLA-4 y PD-1. Ambas actúan como “frenos” que impiden que los linfocitos T -una especie de soldados defensores- combatan a las células cancerosas, porque las reconocen como propias.
Pero, al eliminar esa barrera, los “soldados” tienen luz verde para atacar al enemigo. En este caso, los tumores.
Claro, que cuando el sistema ataca al mismo cuerpo se producen las enfermedades autoinmunes, como colitis, diabetes y artritis reumatoide. Pero para contrarrestar ese efecto se utilizan esteroides que contienen los efectos secundarios.
“Este es un proceso científico que empieza con estudios animales y después pasa al ser hu mano. Se hacen los ensayos clínicos. Pero ya esta terapia le ha salvado la vida a mucha gente”, asegura Vence, quien toda su vida ha tenido que batallar en contra de l a enfermedad… personalmente.
“La razón por la que me dediqué a esto es por los problemas de salud de mi familia. Mi papá murió en 1990 y mi hermano en 199 6 por problemas renales. Mi prima me donó un riñón y hace dos meses me trasplantaron. Sí, ya estoy bien”. Apenas se reincorporó a la oficina hace tres semanas. Y entonces, ocurre esto.
VIDA DE VENCE PARA UBICARSE ENTRE LOS GANADORES DEL PREMIO NOBEL DE MEDICINA.
Su vida ha estado marcada por los estudios. “Yo viví en Caracas hasta los 17 años. Obtuve buenas calificaciones y después q ue me gradué, fui a Israel por un mes”, al representar a Venezuela en las olimpíadas matemáticas del Centro Nacional para el Mejoramiento de la Enseñanza de las Ciencias, (Cenamec), donde quedó en tercer lugar.
Después de eso, regresó al país y con una beca “Gran Mariscal Ayacucho” en 1990, fue a estudiar a Francia, donde aprendió el idioma durante un año y luego se fue a Estrasburgo por cinco años.
Posteriormente, realizó estudios en Harvard e hizo “un postdoctorado en Dallas y después, y finalmente, me co ntrataron en el MD Anderson Cancer Center, en Dallas”, donde permanece hasta la actualidad.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 26
ENTREVISTA REALIZADA A LUIS MIGUEL VENCE, EL VENEZOLANO EN EL EQUIPO QUE GANÓ EL NOBEL DE MEDICINA EN EL 2018 QUE
DESDE NIÑO LUCHA CONTRA EL LUPUS.
Hecha por BBC Mundo. 06-10-2018
Tomado de: MSN
LUIS MANUEL VENCE TRABAJA EN EL EQUIPO DEL DR. ALLISON QUIEN RECIBIÓ EL PREMIO NOBEL DE MEDICINA 2018.
FOTO CORTESÍA DE © GENTILEZA LUIS M VENCE.
"Hace tiempo sabía que el Dr. (James) Allison iba a ganar el Premio Nobel. Lo estuve esperando los últimos 3 o 4 años. Y es m uy emocionante".
Quien lo afirma es el venezolano Luis Miguel Vence, que trabaja en el equipo del inmunólogo estadounidense James P. Allison, quien junto al japonés Tasuku Honjo fue distinguido este lunes con el premio Nobel de Medicina.
El Instituto Karolinska de Estocolmo, Suecia, los premió por sus terapias que permiten "aprovechar la habilidad del sistema inmune para atacar las células cancerígenas al levantar el freno de las células inmunitarias" , aseguró la academia en un comunicado.
"La inmunoterapia ha sido una revelación increíble. Desde que se aprobó el ipilimumab, que fue la primera droga de inmunoterapia, ha tenido muchísimos éxitos", le dice Vence a BBC Mundo en una comunicación telefónica desde Houston, Estados Unidos, en la que insiste que es su jefe quien ganó el Premio Nobel y no él.
¿Cómo funciona el Ipilimumab?
El Ipilimumab actúa estimulando ciertas células inmunes llamadas células T. Estas células ayudan a combatir el cáncer y otras enfermedades.
Las células T tienen una proteína en su superficie llamada CTLA-4 (antígeno 4 del linfocito T citotóxico). Esta proteína le dice a la célula cuándo apagarse.
Ipilimumab bloquea la proteína CTLA-4 para que las células T se mantengan encendidas y activas.
Esta terapia "hace que el sistema inmune pueda entonces pelear contra el cáncer o reconocerlo", asegura el doctor en Inmunología.
Vence dirige el departamento de Monitoreo de Inmunología Humana, del MD Anderson Cancer Center de la Universidad de Texas, Estados Unidos, compuesto por unas 20 personas que, junto a otros equipos, responden a Allison.
Vida dedicada a la medicina
Luis Miguel Vence nació en Caracas, Venezuela, hace 45 años.
Sus padres son colombianos y decidieron emigrar a Venezuela en la década de 1970 porque el país ofrecía mejores oportunidades, le cuenta a BBC Mundo.
EN 2014, TASUKU HONJO Y JAMES P. ALLISON TAMBIÉN GANARON EL PREMIO TANG, CONSIDERADO LA VERSIÓN ASIÁTICA DEL NOBEL. FOTO CORTESÍA DE © GETTY IMAGES.
Pero un flagelo golpeó a su familia.
Desde muy chico, Vence se propuso estudiar medicina para encontrar una cura al lupus, una enfermedad autoinmune sistémica que ocurre cuando el sistema inmunológico del cuerpo ataca sus propios tejidos y órganos.
Por eso, a los 17 años se fue a estudiar medicina a Francia y más tarde terminó un doctorado en Inmunología en la Universidad de Harvard, en Massachusetts, Estados Unidos.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 27
"Me dediqué a esto porque toda mi familia ha tenido problemas de salud. Mi padre y hermano, los dos murieron por una falla renal debido al lupus, una enfermedad autoinmune que yo también padezco", cuenta.
"De hecho me trasplantaron un riñón hace dos meses. Me estoy recuperando", dice.
¿Cree que con lo que estudió va a encontrar una solución?
"Ahora mismo no, porque el sistema inmune tiene dos caras. Cuando funciona de más y reconoce al cuerpo de la persona, se producen las enfermedades autoinmune. Cuando no funciona bien, es cuando surge el cáncer", describe.
"El cáncer, por muy malo que sea, forma parte del organismo, entonces el sistema inmune no lo reconoce como extraño".
LUIS MIGUEL VENCE PARA EL 2018, TENÍA 12 AÑOS TRABAJANDO EN EL EQUIPO DE ALLISON EN EL MD ANDERSON CANCER CENTER DE LA UNIVERSIDAD DE TEXAS, ESTADOS UNIDOS. FOTO © GENTILEZA LUIS M VENCE.
"Yo empecé estudiando el lado de la autoinmunidad, pero luego me pasé al estudio del cáncer porque lo veo como más posible de encontrar una solución".
¿Por qué sabía que Allison iba a ganar el Premio Nobel de Medicina?
"Por la cantidad de pacientes que han respondido favorablemente a esta terapia. Son miles. Y muchos de ellos han sobrevivido".
EL INMUNÓLOGO ESTADOUNIDENSE JAMES ALLISON. FOTO CORTESÍA DE © GETTY IMAGES
"Claro que depende del tipo de cáncer. Estos tratamientos son efectivos en, por ejemplo, el melanoma y el cáncer de pulmón. En cambio para otros cánceres, como el de cerebro o el de páncreas, el tratamiento no ha sido tan efectivo todavía", aclara.
Y tras el galardón, ¿cuál es el próximo paso?
"Seguir buscando moléculas que permitan el desarrollo de nuevos anticuerpos".
"Tenemos muchos ensayos clínicos con nuevas moléculas para probar con qué enfermedad sirven para seguir avanzando poco a poco y ayudar al sistema inmune a que reconozca los cánceres y que pueda pelear contra ellos", concluye.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 28
BBIIOOLLOOGGÍÍAA CCIIEENNCCIIAA YY AARRTTEE TEORIA META COMPLEJA DEL PENSAMIENTO BIOLÓGICO
APROXIMACIÓN DESDE EL NICHO BIOSEMIÓTICO Parte 5:
LOS NUEVOS PARADIGMAS EN BIOLOGÍA Por: OSCAR FERNÁNDEZ
Profesor en Ciencias Naturales, Mención: Biología, en Universidad Pedagógica Experimental Libertador -Instituto Pedagógico Escobar Lara. [email protected] - http://www.osfer.blogspot.com
Enviado por: Dra. Miriam Carmona - UCV
Ecoeducación y complejidad
1. La equivocación es una de nuestras principales armas de aprendizaje.
· La equivocación a veces es salvaje y cruel; otras amable y suave; ¿Y no es así la vida?
· Conocimiento pertinente. Conocimiento contextualizado.
· Conocimiento pertinente. Conocimiento integrativo.
· ¿Cómo se hace para integrar desde la diferencia?
· ¿Cuál es el conocimiento pertinente de la diferencia?
· El valor del ser humano es fundamental, como también es fundamental respetar al ser humano en su propia
dimensión socio-histórica.
Debemos aprender a reconocer en nosotros la existencia de una identidad terrenal.
· Creo que George W. Bush, no entiende acerca de identidad terrenal en el respeto del mundo.
· En torno a la incertidumbre, Morin nos dice:
“Es necesario aprender estrategias para afrontarla, pero no estrategias que supongan que el medio es
estable sino estrategias que nos permitan ser capaces de afrontar y modificar lo inesperado a medida
que encontramos nuevas informaciones. Así pues, el hacer frente a la incertidumbre constituye un punto
capital de la enseñanza”. (67)
· La escuela clásica no enseña cómo afrontar la incertidumbre; por el contrario nos habla de un mundo
estable, inmutable y perfecto. En resumen un mundo inexistente.
· Según Hegel citado por Morin nos dice: ―Si reducimos el criminal a los crímenes que ha cometido
durante su vida y olvido sus otros rasgos, evidentemente no lo comprendo”. (68)
· La falta de comprensión y tolerancia son dos de los mayores delitos del ego.
· Casi todas las religiones dicen; No juzgarás; y en el cristianismo; no juzgarás ni a vivos ni a muertos.
En torno a la ética humana o antropoética Morin nos dice:
“ Como individuos, poseemos una ética común que no es sólo la de nuestra realización personal, sino
una ética basada en valores fundamentales, bien conocidos de las antiguas civilizaciones, como el honor,
el honor de sí mismo, la figura de sí mismo por sí mismo, no actuar de manera deshonesta o innoble” .
(69)
· ¿En qué se diferencia esto de lo que dicen las religiones?
· ¿No será que por ser la sociedad, la civilización y el estado un invento humano, los valores éticos resultan
ser antinaturales?
· ¿Qué evidencias tenemos de que el ser humano no es autodestructivo por naturaleza?
· ¿No será que nuestra ética debería ser geocéntrica y no antropocéntrica como hasta ahora ha sido?
· Según Morin tenemos: “Creo que ante todo las disciplinas deben integrarse alrededor de estas grandes
categorías y los enseñantes de disciplinas deben colaborar para estudiar por ejemplo la condición
humana o el problema de la incertidumbre. Ya que las incertidumbres existen en las ciencias humanas,
existen también en los problemas fundamentales del comportamiento concreto de las personas. Se trata
finalmente de realizar estas conexiones, aunque yo resaltaría que algunas ciencias ya están unidas unas
con otras. Es el caso de la ecología, que es una ciencia gigantesca porque además de estudiar la biosfera
también se ocupa de las intervenciones humanas sobres ésta. En efecto, el ecologista o ecólogo estudia
los ecosistemas para comprender su regulación y su organización, recurriendo para esto al botánico, al
zoólogo, al meteorólogo, al geólogo y a los diferentes científicos”. (70)
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 29 · Tiene mucha razón Morin cuando dice que la ecología es una ciencia gigantesca; pero ésta no es sólo
una ciencia, es una filosofía y más que una filosofía es un paradigma y una cultura.
· No se trata sólo de una integración de saberes científicos en y para la ecología, sino que además la
visión ecológica o como diría Fritjof Capra: “Visión integral de la vida” (71), convierte al pensamiento
ecológico en su bandera. En tal sentido la ecología ya no le pertenece a los ecólogos, le pertenece a todo aquel
que reconociendo la fragilidad de nuestro entorno quiera desde cualquiera que sea su nicho, hacer algo para
recatar nuestra geodiversidad.
· Así pues, la complejidad y la educación son también ecofilosofía.
· La ecofilosofía es la filosofía de la vida, en una comunidad geocéntrica consciente y tolerante.
PARADIGMA NEUROCIENTÍFICO
“El neocórtex humano es un prodigioso tejido anárquico, donde las uniones sinápticas se efectúan de
manera aleatoria. Aunque está constituido por células especializadas (neuronas), el cerebro es un campo
no-especializado, donde se implantan innumerables localizaciones y a través del cual se efectúan
interacciones laterales. Son las interacciones anárquicas las que están en la fuente del orden central... No
hay equilibrio, sino inestabilidad, tensión permanente entre estos aspectos que, al mismo tiempo que son
fundamentalmente complementarios, resultan fácilmente concurrentes y antagonistas” (Edgar Morin) (72)
Cuando nos atrevemos a mirar al mundo desde una perspectiva plural, no podemos dejar pasar las
aportaciones que las neurociencias han hecho en los últimos años a la comprensión del pensamiento y del
comportamiento humano asociado al funcionamiento neuro-cognitivo. En medio de estas visiones
encontramos por ejemplo: que no comprendemos al mundo yendo de las partes al todo, sino que por el
contrario siempre vemos primero las totalidades. Las simplificaciones no forman parte de la naturaleza
intrínseca de los primates superiores, entre ellos nosotros.
Considerando todo lo antes dicho y viendo que el pensamiento no se divide en pedazos, me atrevo a presentar
al paradigma neurocientífico desde una perspectiva poético/reflexiva:
Un segundo no es suficiente para una memoria sin memoria.
· ¿Son la explicación y la argumentación un invento mental para escapar del tiempo, el cual a su vez es
también otra creación?
· ¿Es el recuerdo un artificio mental para prolongar el tiempo vivido?
· ¿Cómo es la percepción del tiempo para alguien que no olvida?
· ¿Cómo es la percepción del tiempo para alguien que no tiene memoria?
· ¿Cómo es la percepción del tiempo para alguien al cual sus imágenes mentales confunden el presente con
el pasado?
Si te encuentro
en la mirada gemela
de tus sentidos
entonces no existes
más que en mi memoria.
· ¿Qué fenómenos actúan en la mente de un grupo de personas que ven una misma película, y recuerdan
escenas diferentes?
· ¿Qué tan confiable es la memoria, que nos lleva a identificar a un criminal ante una investigación policial,
luego de varios meses o años?
· ¿Por qué en las películas norte americanas siempre ganan los buenos? ¿No será la imagen del héroe
americano transmitida a través de las películas anglosajonas un influjo importante en nuestro imaginario
colectivo?
A veces un recuerdo
un sueño y una historia inventada
no tienen diferencia.
· ¿Podemos confiar 100 por ciento en nuestra mente y en nuestra memoria?
· ¿Entre los tiempos o ritmos internos de las personas pueden establecerse mecanismos de sincronía
colectiva?
· ¿Y si la sincronía colectiva existe, donde queda entonces la presencia intima de la existencia humana?
· ¿Acaso somos las piezas de algún mega reloj cósmico?
· ¿Es el tiempo sincrónico o diacrónico?
· ¿Existe la memoria congelada?
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 30
Dios es un muchacho infinito
Que aprende de nuestros errores.
· La cultura cibernética es la opción a transitar sin espacio ni tiempo.
· ¿Favorecen o no los video juegos al aprendizaje? ¿Cómo se dan los procesos de aprendizaje en los niños
cibernéticos?
· ¿Puede un robot enseñar a un niño?
· El ser humano creó a la computadora, y la computadora crea y modifica a la vez al hombre.
· ¿Dónde está el avance cuando un hombre le gana a una computadora y/o viceversa? La belleza femenina
(tiende a ser en la mayoría de los casos) inversamente proporcional a inteligencia.
Psicosis efecto caótico del espacio tiempo mental.
· Nos apartamos de la realidad cuando actuamos automáticamente. Ejm:
a) Hola ¿Cómo estás?
b) Bien
a) Bien gracias.
Tendemos a actuar como si escucháramos lo que en realidad nunca se dijo: bien ¿y tú?
Psicosis mente sin reglas
Sin parámetros
· Los procesos de aprendizaje deben dar participación en la medida en que los participantes se comprometan
a construir su propio conocimiento.
· Siempre hemos actuado con modelos impuestos. Ahora seremos nosotros los impositores si no hacemos
colectivas estas propuestas.
. ¿Y si la vida es una suerte de visión fractálica en la cual como las capas de la cebolla encontramos que
despertar es un dormir en otro nivel?
En el mundo de los psicópatas (sociópatas)
El neurótico es el rey.
· ¿Acaso somos las piezas de algún mega reloj cósmico?
· ¿Es el tiempo sincrónico o diacrónico?
· ¿Existe la memoria congelada?
· ¿Una memoria congelada se parece a un tiempo congelado?
· ¿El pensamiento que se piensa a sí mismo, es un intento por reconfigurar al tiempo?
· El tiempo cronológico castra al aprendizaje.
Es importante considerar que el pensamiento neurocientífico se revela a la estructura y a las demarcaciones clásicas
del pensamiento y es por ello que su presentación ha sido un tanto diferente a las anteriores.
PENSAMIENTO COMPLEJO
Al hablar del pensamiento el mismo Morin nos dice: “...se debe abandonar todo modo de pensar
reduccionista que pueda pensar un todo a partir de los elementos tomados separadamente”. (Entrevista con
Edgar Morin, Manuel Feliú Giorello) (73)
Resulta muy interesante preguntarnos: ¿Por qué si en esta nueva vía la opción es transitar el multiverso del
pensamiento, entonces porque el lenguaje también no puede ser complejo y diverso?
¿No es acaso el lenguaje una manifestación del pensamiento?
¿Qué ocurre con los adolescentes que crean sus propios códigos de comunicación?
¿Qué ocurre con los sordo-mudos, que a pesar de guiarse todos por un lenguaje universal- escolarizado- como se
explica que los no escolarizados se comuniquen también?
¿Por qué en algunos ambientes aparentemente claros en los asuntos de la complejidad, se observen resistencias,
que parecieran tender hacia una regularidad, una estabilidad, distinta al mundo fluctuante y multiverso?
La comunicación entre los seres humanos es de naturaleza multivariada, y si bien es cierto que sabemos que el
lenguaje oral debió ser nuestro primer recurso de interacción de manera formal, creo particularmente que antes
estuvo el lenguaje gestual, el cual a través de internet es difícil de percibir, incluso a través de una web cam.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 31
¿Por qué somos así?, algunos puritanos del lenguaje se sienten ofendidos por que mucha gente utiliza expresiones
inadecuadas, sin embargo los lingüistas (que no se consideran policías del lenguaje) encuentran válido como normas de uso la utilización de dichas expresiones.
Recientemente acabo de ver un video de Morin hecho en Italia sobre los siete saberes necesarios para la educación
del futuro. En el mismo Morin se expresa en un lenguaje múltiple en el que entremezcla términos provenientes del francés, el italiano y el español. Sin embargo los allí presentes lo entendieron. Es mas esta manifestación es una
demostración más de la personalidad multiversa y multivariada de este habitante del mundo.
Recordemos que el fin último del lenguaje es comunicar, dada la limitación en la utilización en los signos de puntuación los cuales no nos hablan de emociones, se nos hace insuficiente como recurso lingüístico para expresar
los sentimientos. Sin embargo los poetas (llámense escritores, músicos, pintores, artesanos, escultores, bailarines, actores, etc.) parecieran haber logrado lo que el lenguaje literal no ha logrado a través de sus puntos y sus comas. Entonces nos preguntamos:
¿Se puede decir más desde la imprecisión del lenguaje?
Yo particularmente creo que sí, porque como dice Pascal:"El corazón tiene razones que la razón no
entiende"(74). A mi modo de ver la multiversidad del pensamiento debe comenzar por la multiversidad del
lenguaje.
¿Habremos con esto resuelto el problema de la incomunicación, de las malas interpretaciones, de los malos
entendidos?
Creo que no, pero tal vez en ese plano del pensamiento múltiple, no sea tan importante como lo es hoy hallar una respuesta única al problema de la comunicación. Tal vez, solo tal vez sea más importante la tolerancia en el
lenguaje, para que así podamos hablar de un lenguaje multidimensional.
¿En tal sentido la simplificación en el lenguaje no denota una manifestación más del paradigma newtoniano -Cartesiano?
Y vuelvo a apelar a la máxima de esta nueva era, la tolerancia. Ya en este plano incluso la comprensión queda en segundo plano, es decir, no te entiendo pero te tolero. ¿No será suficiente eso aunado al respeto mutuo, suficiente
para acabar con las guerras en el mundo?; es más creo que si nos acercamos a la razón desde la emoción o como diría Morin desde el eros, quizás nos encontremos con gratas sorpresas. Y es que hay algo claro, tal vez no todos comprendamos los mismos códigos, pero todos disfrutamos de una sinfonía sin comprender o entender la forma
interpretativa de cada instrumento. Es más, cuando se conocen en extremo los detalles, no se disfruta igual como cuando no se conoce nada. Pues en el segundo caso se deja todo al sentimiento.
De allí que todos somos artistas, todos somos poetas.
En la ciencia ha quedado más que claro el hecho de que a veces salimos en busca de algo y hallamos otras cosas muy diferentes, esto no es indicativo de un mal trabajo, y a mi modo de ver la ciencia es lo que es hoy gracias a sus errores. Entonces ¿por qué buscar precisiones en el lenguaje cuando la naturaleza no lo es?, si tal vez se
requieran ciertas precisiones, pero ¿por qué deben estar en el lenguaje, y porque aún más en un lenguaje que pretende ser una manifestación del pensamiento complejo?
¿Es nuevo el lenguaje poético-filosófico para la humanidad?
Creo que no pues los indígenas lo usan, aparece en los libros sagrados de las grandes religiones y lo vemos y sentimos desde tiempos inmemoriales desde las artes.
En definitiva, se puede caminar solo o acompañado, se puede hablar solo y no por eso estar deme nte, y el demente en algunos casos tiene razón, entonces ¿porque no promover la diferencia como el código clave de este milenio?
Que Dios los bendiga. Por cierto Él también es complejo.
Bien sabemos que el pensamiento complejo viene de las reflexiones multiversas de Edgar Morin: “Edgar Morin
trabaja por un conocimiento que no mutile, ni tabique entre las diferentes disciplinas, que respete lo
individual y lo singular, al mismo tiempo que lo inserta en su contexto y su conjunto. En esa andadura:
·hace investigaciones en sociología (El Espíritu del Tiempo, La Métamorphose de Plozevet, La Rumeur
d'Orleans); ·se esfuerza por concebir la complejidad antroposocial incluyendo en ella la dimensión biológica
y la dimensión imaginaria (El Hombre y la Muerte, El Cine o el Hombre Imaginario, El Paradigma
Perdido); ·desde hace más de veinte años se consagra a la búsqueda de un Método capaz de revelar los
desafíos de la complejidad tanto en la esfera del conocimiento científico, cuanto en las esferas social,
política, humana; sin olvidar las interacciones entre ambas esferas (El Método, volúmenes I,II,III, IV,
Ciencia con Consciencia, Introducción al Pensamiento Complejo); ·reforma del pensamiento y la enseñanza
(Los siete saberes necesarios a la educación del futuro, La cabeza bien ordenada, Relier les Conaissances);
·hace emerger al sujeto/autor en diversas obras autobiográficas (Autocrítica, Diario de California, Vidal et les Siens, etc.).” (75) (red complexus http://www.complexus.org/garcia/edgar.htm)
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 32
Esta es la nueva red que se inscribe en la búsqueda de nuevas vías para el pensamiento y en medio de los cuales
hallamos a la biología actuando como ente conectivo de todo esto que llamamos existencia.
PARADIGMA BIOSEMIÓTICO
Biosemiótica:
Según el Diccionario de Biología Biomolecular y Bioquímica de Oxford (1997) la Biosemiótica es el estudio de señales, de comunicación y de información en los organismos vivos.
Para C. Emmeche & K.Kull es la parte de la biología que interpreta los sistemas vivientes como sistemas de signos.
Y según Sebeok (1994): "La ciencia de la vida y la ciencia de los signos están mutuamente implicadas una en otra."
Hoffmeyer nos dice:
(1997) "Una moderna unificación de la biología /.../ Tiene que estar basada en la naturaleza fundamentalmente semiótica de la vida."
(1996) "El hecho más pronunciado de la evolución orgánica no es la creación de una multiplicidad de estructuras
morfológicas, sino la expansión general de la "libertad semiótica", es decir, el incremento en riqueza o "profundidad" de significados de lo que puede ser comunicado."
(1995) "El signo más que la molécula es la unidad básica para el estudio de la vida."
Según Sharov (1998): "El proceso del signo penetra en el cuerpo entero de un organismo /.../ La significación es la propiedad fundamental de los sistemas vivos y que puede ser tomada como una definición de la vida: Por tal, la
biosemiótica puede ser vista como una raíz de biología y semiótica más que una rama de la semiótica."
Pollack expresa (1994): "Con el descubrimiento de que una colección de símbolos ha sido usada por la naturaleza para codificar la información para la construcción y el mantenimiento de todas las cosas vivas, la semiótica -El análisis de
lenguajes y textos como colección de signos y símbolos- se ha vuelto relevante para la biología molecular. La semiótica ha dado a los estudiosos de los textos del DNA una nueva visión para la lectura, permitiéndonos argüir por la validez de una multiplicidad de significados, o incluso por la ausencia de cualquier significado, en una extensión del genoma
humano"
Dice Zahavi (1996): "Yo soy siempre un extraño para mí mismo, y por tanto abierto a los otros".
Y Cariani puntualiza (1995): "Virtualmente todos los símbolos están asociados a los organismos biológicos, tanto en comunicación, control o construcción en una célula, organismo o nivel social. No podemos entender completamente los símbolos hasta entender su papel en la organización de la vida".
Un entendimiento biosemiótico de la evolución parece ser la llave para entender científicamente la intencionalidad.
Según Charles Sanders Peirce, el fundador de la tradición semiótica americana: "Un signo, o Representación es un Primero que permanece como tal en una genuina relación triádica con un Segundo, llamado su objeto". Por tanto, en la
filosofía de Peirce la interpretación representa una categoría de "treidad" que trasciende la mera causalidad, que vio como "secundidad".
La estructura triádica no puede ser reducida a una combinación de relaciones diádicas, por tanto, la intencionalidad
depende de la totalidad de la triada.
Todos los programas de computación están basados en la "secundidad", por ejemplo, las operaciones sintácticas.
Otro cuerpo
Intencionalidad humana
Pre-reflexivo
Conciencia de uno mismo
"El poder de anticipación está presente en todos los sistemas basados en un código -dualidad (Hoffmeyer 1995)". (Es como una extrapolación del pasado por la creación de hábitos).
"La herencia debería ser entendida como una supervivencia semiótica."
¿Biosignos o Bioseñales?
Una célula solitaria no es una célula. Una neurona solitaria no es una neurona. (Regla de Hopfield). Un chimpancé solitario no es un chimpancé (Regla de Yerkes). (Carlos Vonder Becke) (76)
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 33 En búsqueda de nuevas ideas fuerza que reconduzcan el pensamiento biológico, surge una nueva aliada que intentará
adentrarse en los espacios interpuntuales para tratar de, por lo menos, superar el nicho ocupado por el paradigma
mecanicista que domina la biología actual. Esta nueva amiga es la semiótica la cual se encarga del estudio de los signos
(en este caso naturales) de la vida. En otras palabras, estudia las relaciones entre los mensajes y su significado; esto
último es interesante, porque es necesario distinguir entre semiótica de la producción y de la interpretación.
"Para algunos, los dos procesos son totalmente reversibles. Para otros, hay una disimetría fundamental. Sin embargo,
puede demostrarse que hay una cierta dualidad que resulta de la anticipación de la interpretación en el momento de la
producción". (Robert Marty) (77)
Si el proceso producción/interpretación sígnico es reversible entonces en los procesos comunicacionales las interacciones
bidireccionales siempre conducirán a una comunicación exitosa y no a la incomunicabilidad o al mal entendido. Bien
sabemos que esta hipótesis lógica no se cumple totalmente (al menos en la especie humana) ya que la fenomenología
que gobierna los sistemas sígnicos, no es lineal por lo tanto las relaciones derivadas de la interconexión
producción/interpretación/interpretante. Ahora bien desde esta perspectiva surge una bifurcación significa entre la
biología y tecnología (este es el caso de la Biotecnología), ya que la primera (biología/biosemiótica) puede ser
considerada como producida por signos naturales, pues sus signos no tiene un productor humano; (tal es el caso, por
ejemplo: de la semiofísica la cual considera por ejemplo: el par marea/luna. En efecto, ver en la marea un signo de la
luna presupone un conocimiento de las leyes de la gravedad que no está dado por la experimentación común) y la
segunda (tecnología/semiotecnología) por poseer signos que tienen un productor humano o que por lo menos, son
afectada por modificaciones humanas.
En la biología molecular de naturaleza mecanicista, la interpretación sígnica está mediada por los conceptos e
interconexiones provenientes de las ciencias duras (fís icas y químicas), sin embargo, las relaciones existentes entre las
moléculas vivas determinan un tipo particular de comunicación, la cual puede ser estudiada desde los modelos
semióticos.
Es necesario reconocer las condiciones de mayor complejidad existentes en los sistemas biológicos, las cuales no
determinan con exactitud el rumbo de las interpretaciones comportamentales provenientes de las semiomoléculas. Tal es
el caso de los genes que codifican para el color de los ojos por ejemplo: "Existen genes que definen si los ojos serán
azules o pardos, o si se distribuirán siguiendo una simetría axial o radial, pero no existe un gen que codifique por
un ojo". (Néstor Carrillo) (78)
Por otra parte la interpretación de la biosemiótica de los signos no naturales (como es el caso de la biotecnología) reviste
mayor complejidad aún, ya que su campo de interpretación se extiende de la biología a las ciencias sociales; su
interpretación no está dado solo por las interacciones semiomoleculares, semio-orgánicas, semio-estructurales, semio-
funcionales, etc., sino que además, están interpuestas por las relaciones semioculturales, semióeticas, semiopolíticas,
semioeconómicas, etc., que intervienen en la vasta complejidad sistémica de la biosemiótica y en este caso en particular
de la biotecnosemiótica.
Por esta razón nace la necesidad de construir una teoría biosemiótica que explique la fenomenología de los biosignos o
bioseñales presentes en las interacciones caóticas de la Biotecnología.
- ¿Es factible la construcción de una teoría Biotecnosemiótica?
- ¿Deben ser vistas las relaciones biotecnosemióticas como bioseñales o como biosignos?
- ¿Se puede considerar a la Biosemiótica como un principio unificador de la biología, así como lo son las teorías: celular,
evolutiva, ecológicas y genéticas?
- ¿Cuál es el idioma de la Biotecnología?
- ¿Si las ciencias sociales determinan un particular tipo de lenguaje intermedio entre el lenguaje científico y el lenguaje
literario, a cuál lenguaje pertenece la Biotecnología?
- ¿Son la ingeniería genética, la bioingeniería de bioseñales, la tecnología de alimentos, entre otros, factibles de ser
estudiados en base a los mismo criterios biosemióticos?
Nota adicional: "La conexión entre la marea y la luna es absolutamente equivalente a la que existe entre una nube
negra y la inminencia de la lluvia. Ahora bien, en cuanto o lo de las mareas es sabido que no siempre se las
atribuye a la influencia de la luna. Esto significa que la nación de signo natural está estrechamente ligada al
estado de la ciencia en el momento de la interpretación y a la relación que el intérprete mantenga con la ciencia de
su tiempo. Puede considerarse que, más allá de la generalización espontánea efectuada por los actores sociales en
los campos más prosaicos de su experiencia, es de hecho, la comunidad científica de una época determinada la que
garantiza la realidad de las conexiones que caracterizan a los signos naturales. En ese sentido, esta comunidad
puede considerarse como productora de esos signos. Se puede entonces insertar a los signos naturales en el
derecho común, considerando que su productor es la comunidad científica en su conjunto en lugar de un
individuo. Esto lleva a considerar al saber científico como un haz de instituciones que vincula los fenómenos
naturales a ciertos objetos. Estas relaciones las establecen teóricos que tienen como función describir las
fenomenologías observadas. A partir de esto, ya nadie impide definir a los fenómenos semióticos entre ellos los
signos naturales, en términos de comunicación. En todos los casos debemos de evaluar y formalizar la posición de
un intérprete representante y representado, signo y objeto. El caso de los signos naturales se distinguirá solo por
el hecho de que el productor virtual es la institución misma". (Robert Marty) (79)
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 34 El Paradigma Biotecnosemiótico en la biología teórica
Todos los organismos interactúan con su ambiente (una de las reglas de Gause).
Excepción: Si un embrión está en un huevo cerrado al ambiente, esta regla tiene poco significado.
(Carlos Van der Becke) (80)
La imagen de la biotecnología a través del lente social no es del todo clara; si la vemos desde el enfoque
mecanicista, nos encontramos en principio contaminados por la magia alucinante de la innovación tecno-
científica, gobernada esta por sus aparatos raros llenos de luces y botones. Por otra parte hallamos que esos
mecanismos explicados a través de las leyes de la Física y la Química no siempre son tales, siendo su
interpretación parcialmente demostrada. Muchos procesos biológicos como lo son la diversidad, la
morfogénesis, la autoorganización, la regulación, el aprendizaje, el pensamiento, la autoreproducción, entre
otros aún no han podido ser explicados satisfactoriamente desde la ciencia mecanicista.
La Biotecnología es definida por muchos como el conjunto de técnicas que utilizan organismos vivientes o
sustancias provenientes de estos, para elaborar o modificar un producto, mejorar plantas o animales o para
desarrollar microorganismos para usos específicos. La biotecnología moderna cuenta con nuevas herramientas
tales como la ingeniería genética, la fisión celular y otros bioprocesos.
Las principales áreas en las que ha incursionado la biotecnología han sido la ingeniería genética en plantas y
animales; el desarrollo de vacunas; el uso de la técnica del ADN recombinante para la diagnosis de
enfermedades; la producción de bioinsecticidas y biodetergentes; la producción de anticuerpos monoclonales;
el control de la contaminación ambiental , tratamiento de aguas residuales, el desarrollo de técnicas aplicadas
a las industrias alimenticias, el cultivo de tejidos vivos, la obtención de derivados sanguíneos a partir del
plasma; la posibilidad de transplantar órganos de animales a humanos, entre otros.
Siendo el campo de aplicación de la biotecnología tan vasto, se pierde en ocasiones la perspectiva de su
posible orientación. La biotecnología vista como cualquier otra técnica, tiene un f in meramente utilitario, es
decir, satisfacer las necesidades de consumo en masa, por tal razón no puede desvincularse su intencionalidad
del enfoque ideológico de control dominante, ejercido en este caso por sectores de poder económico, que por
lo general están conectados con sectores políticos.
Los orígenes de la biotecnología se pierden en el pasado prehistórico de la humanidad, cuando el hombre
domesticó los primeros animales y dio inicio a la agricultura: mediante cruzadas selecciones artificiales, al teró
la condición natural de las plantas y animales. La elaboración de bebidas y alimentos como la cerveza, el vino,
el vinagre, el pan con levadura, el queso, etc. Fueron los conocimientos biotecnológicos empíricos iniciales.
Desde un punto de vista meramente científico la biotecnología basa su desarrollo en las aportaciones hechas
por Charles Darwin y Gregor Mendel en los campos de la selección natural y la herencia respectivamente,
propuestas en la segunda mitad del siglo pasado. Louis Pasteur contribuyó en forma destacada en sus
descubrimientos en medicina y microbiología industrial. Antes de ellos en 1830 T. Schwann y M. Sheleiden
habían encontrado que todo ser está constituido por células y, en su interior se encuentran los cromosomas que
contienen a su vez el material hereditario, como fue expuesto por Roux. Se descubrió que los cromosomas
estaban compuestos principalmente de proteínas y ácidos nucléicos, dando paso a la incorporación de la
bioquímica y la biología molecular como instrumentos en la búsqueda del misterio de la vida. Oswald Aveg y
otros investigadores sugirieron que el ADN (ácido desoxirribonucleico) podía ser la molécula portadora de la
información genética y que esta determina la estructura y función de un organismo.
Los investigadores James Watson y Francis Crick quienes trabajan en el laboratorio de biología molecular de
la Universidad de Cambridge, Inglaterra, mediante métodos de cristalografía con difracción de rayos x,
descubrieron la estructura del ADN: una molécula formada por dos cadenas individuales de nucleótidos que
giran en una doble hélice. Este diseño molecular del ADN da una explicación de la conservación de la
información genética y como se transmite a las generaciones futuras.
El inicio de la manipulación enzimática del material genético de los seres vivos y la aparición de la ingeniería
genética molecular, ha permitido a partir de los años 70, el análisis detallado, bioquímico y molecular de los
cromosomas, lo que ha dado lugar a una verdadera revolución biotecnológica que nos permite la manipulación
de los seres vivos mediante la ingeniería genética, diseñar estrategias racionales para el tratamiento y
prevención de enfermedades, obtención de células especializadas en la fabricación de productos de interés
comercial y médico, mejoramiento de especies silvícolas y agrícolas, recuperación y conservación del
ecosistema.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 35 La Ingeniería Genética en Perspectiva
El triunfo de la ilustración y el avance de la ciencia, no elimina, sino que agudiza, la dimensión trágica de
nuestra existencia: que las luces no aumentan la claridad sin ampliar también la penumbra, la perplejidad, la
soledad (Nago) (81)
En los últimos 50 años el desarrollo acelerado de la ciencia genética y más específicamente el de la ingeniería
genética o tecnología del ADN recombinante, ha creado todo un universo multifactorial de posibilidades
inimaginables, en el seno de una cultura que aún no ha tenido suficiente tiempo para sentarse a discutir las posibles
implicaciones humanas, ambientales, morales y tecnológicas que puede generar tan acelerado desarrollo.
En los últimos años un término que ha nacido de la matriz de la ciencia genética ha conmocionado la mente de
muchos pensadores en todas las áreas, tal vez por la aparente novedad o por el desconocimiento del tema en
profundidad (Digo Aparente porque en la cultura científica se viene hablando del tema desde hace más de 30 años;
y en la cultura general ya se habla del tema desde casi igual tiempo a través de caricatura, historietas, películas de
ciencia ficción, etc.), tema tan trillado es el clon el cual se define como: Grupo de organismo o células derivadas de
un organismo o célula, único por reproducción asexual o partenogénesis y, por consiguiente, genéticamente
idénticos.
Muchas personas conocieron el término a través de la ovejita Dolly la cual impactó la comunidad científica pero no
por la novedad del concepto sino por lo original de la técnica aplicada. Aquí en Venezuela se vienen haciendo
experimentos de clonación en plantas desde hace más de 35 años (cultivos de tejidos vegetales realizados en la
Facultad de Agronomía de la U.C.V. y en Fusagri) han marcado la pauta en el mejoramiento genético de plantas en
nuestro país. (Cambures, plátanos, fresas, etc.).
La tecnología del ADN recombinante es una colección de técnicas que permite estudiar algunas cuestiones
científicas planteadas por disciplinas clásicas, como la bioquímica, la genética, la biología, la botánica, la ciencia
criminalística y la fisiología, desde el punto de vista de la biología molecular y de la química. Una de las técnicas
principales de esta metodología es el clonaje molecular mediante el cual se puede aislar y propagar
independientemente las secuencias de ADN que interesen de un organismo determinado, obteniéndose la cantidad
suficiente de estas secuencias para realizar estudios posteriores. Otras técnicas, como la secuenciación del ADN, la
síntesis química de ADN, la secuenciación de proteínas, la expresión de los genes y la mutagénesis dirigida,
permiten al biólogo molecular caracterizar prácticamente cualquier gen o producto génico al nivel en el que un
fenómeno puede ser caracterizado en términos moleculares. A la inversa, mediante la tecnología del ADN
recombinante se puede modificar un gen, de forma que se obtenga gran cantidad de la proteína que se desee o una
variante determinada de la proteína, de manera que se puedan manipular las propiedades de ésta o incluso del
organismo hospedador.
El conocimiento exige ser repensando y junto a él la manera de reproducirlo (la escuela); la pluralidad y la
globalidad, no posibilitan las limitaciones interactivas que aún se perciben. Las Mass-media, nos permiten navegar
(Internet – Ciberespacio) en el universo de la información el cual no tiene moral, ni leyes, ni condición social a
cultural, las únicas limitantes por ahora son las económicas y las restricciones conceptual – paradigmáticas de cada
quien.
Un nuevo código.
El código genético nos habla, en lenguaje de vida, de una nueva estatura sígnica-simbólica la cual nos
transcontextualiza y a la vez nos decodifica en un nuevo mensaje universal; el de la vida. Vida que de una u otra
forma se organiza (autoorganiza) para generar (complejamente) existencia, la cual es plural y heterogénea.
Las distancias entre especies se hacen cortas, pues genéticamente las diferencias, entre una micro alga y una
ballena y entre un virus y un mineral; no son tan grandes como creíamos. Y es que esas diferencias y/o semejanzas
están asociadas a complejos procesos comunicativos inter e intra moleculares, los cuales no solo actúan en la
construcción de una determinada enzima sino que además dichos procesos micros tiene alta influencia
comunicativa que se interconecta de forma cuasicaótica y que el autor ha dado en llamar: semiósfera social tales
como: La Cultura, La Economía, La Política, La Educación, La Tecnología, de allí, La Semiocultura, la
semioeconomía, la semiopolítica, la semioeducación, la semiotecnología, etc.; Las cuales al asociarse con la
Biología conforman un entramado de interacciones comunicativas que se interconectan de forma cuasicaótica y que
el autor ha dado en llamar: Biotecnosemiótica.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 36 BIOTECNOSEMIÓTICA
Pero además esta Biotecnosemiótica también se encuentra atravesada por procesos que se gestan en el interior de la
naturaleza (Llamada por el autor semiósfera natural). Ahora bien, la biotecnosemiótica no discrimina entre
procesos sociales y/o naturales ni entre procesos macros y micros; dichas interacciones sistémicas son totalmente
aleatorias y sus productos no son del todo predecibles.
- ¿Es necesaria la construcción de una teoría biotecnosemiótica?
- ¿Cómo enseñar biotecnología?
- ¿Qué organismos o instituciones regularían o evaluarían las disposiciones o reglas derivadas de la construcción de
dicha teoría?
- ¿Qué lectura y/o lecturas hay tras la sicolingüística de la biotecnosemiótica?
REFERENCIAS.-
(67, 68, 69, 70, 72, 73) Edgar Morin. http://www.edgarmorin.org
(71) El Tao de la Física Fritjof Capra. http://www.syti.net/ES/Capra.html
(74) Blais Pascal. http://es.wikipedia.org/wiki/Blaise_Pascal (75) Complexus. http://www.complexus.org/garcia/edgar.htm
(76, 80) Carlos Von der Becke. http://www.geocities.com/ohcop/index.html
(77, 79) Robert Marty. http://robert.marty.perso.cegetel.net/semiotique/espagnol.htm
(78) Néstor Carrillo. http://dialnet.unirioja.es/servlet/articulo?codigo=141791 (81) Nago. Citado Por Bolívar Echeverría. http://www.bolivare.unam.mx/ensayos/ilustracion.html
Continúa en el próximo número…
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 37
FFrraanncciissccoo ddee QQuueevveeddoo:: “Donde hay poca justicia es un peligro tener razón”.
FRANCISCO DE QUEVEDO (1580-1645)
ESCRITOR Y POETA ESPAÑOL.
FUENTE: El rincón del conocimiento. DISPONIBLE EN: https://www.biografiasyvidas.com/biografia/q/quevedo.htm
Enviado por Prof. PEDRO CABRERA (FACES-UC), vía Facebook.
Escritor español del Siglo de Oro, uno de los autores más destacados de la historia de la literatura española, conocido
especialmente por su obra poética, aunque también escribió narrativa, teatro, y diversos opúsculos filosóficos,
políticos, morales, ascéticos, humanísticos e históricos. Nació en Madrid el 14 de septiembre de 1580. Los padres de
Francisco de Quevedo desempeñaban altos cargos en la corte, por lo que desde su infancia estuvo en contacto con el
ambiente político y cortesano. Estudió en el colegio imperial de los jesuitas, y, posteriormente, en las Universidades
de Alcalá de Henares y de Valladolid, ciudad ésta donde adquirió su fama de gran poeta y se hizo famosa su rivalidad
con Góngora.
Siguiendo a la corte, en 1606 se instaló en Madrid, donde continuó los estudios de teología e inició su relación con el
duque de Osuna, a quien Francisco de Quevedo dedicó sus traducciones de Anacreonte, autor hasta entonces nunca
vertido al español. En 1613 Quevedo acompañó al duque a Sicilia como secretario de Estado, y participó como agente
secreto en peligrosas intrigas diplomáticas entre las repúblicas italianas.
De regreso en España, en 1616 recibió el hábito de caballero de la Orden de Santiago. Acusado, parece que
falsamente, de haber participado en la conjuración de Venecia, sufrió una circunstancial caída en desgracia, a la par, y
como consecuencia, de la caída del duque de Osuna (1620); detenido, fue condenado a la pena de destierro en su
posesión de Torre de Juan Abad (Ciudad Real).
Sin embargo, pronto recobró la confianza real con la ascensión al poder del conde-duque de Olivares, quien se
convirtió en su protector y le distinguió con el título honorífico de secreta rio real. Pese a ello, Quevedo volvió a poner
en peligro su estatus político al mantener su oposición a la elección de Santa Teresa como patrona de España en favor
de Santiago Apóstol, a pesar de las recomendaciones del conde-duque de Olivares de que no se manifestara, lo cual le
valió, en 1628, un nuevo destierro, esta vez en el convento de San Marcos de León.
Pero no tardó en volver a la corte y continuar con su actividad política, con vistas a la cual se casó, en 1634, con
Esperanza de Mendoza, una viuda que era del agrado de la esposa de Olivares y de quien se separó poco tiempo
después. Problemas de corrupción en el entorno del conde-duque provocaron que éste empezara a desconfiar de
Quevedo, y en 1639, bajo oscuras acusaciones, fue encarcelado en el convento de San Marcos, donde permaneció, en
una minúscula celda, hasta 1643. Cuando salió en libertad, ya con la salud muy quebrantada, se retiró definitivamente
a Torre de Juan Abad.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 38
LA OBRA DE FRANCISCO DE QUEVEDO
Como literato, Quevedo cultivó todos los géneros literarios de su época. Se dedicó a la poesía desde muy joven, y
escribió sonetos satíricos y burlescos, a la vez que graves poemas en los que expuso su pensamiento, típico del
Barroco. Sus mejores poemas muestran la desilusión y la melancolía frente al tiempo y la muerte, puntos centrales de
su reflexión poética y bajo la sombra de los cuales pensó el amor.
A la profundidad de las reflexiones y la complejidad conceptual de sus imágenes, se une una expresión directa, a
menudo coloquial, que imprime una gran modernidad a la obra. Adoptó una convencida y agresiva postura de rechazo
del gongorismo, que le llevó a publicar agrios escritos en que satirizaba a su rival, como la Aguja de navegar cultos
con la receta para hacer Soledades en un día (1631). Su obra poética, publicada póstumamente en dos volúmenes,
tuvo un gran éxito ya en vida del autor, especialmente sus letrillas y romances, divulgados entre el pueblo por los
juglares y que supuso su inclusión, como poeta anónimo, en la Segunda parte del Romancero general (1605).
En prosa, la producción de Francisco de Quevedo es también variada y extensa, y le reportó importantes éxitos.
Escribió desde tratados políticos hasta obras ascéticas y de carácter filosófico y moral; una de sus mejores obra s es La
cuna y la sepultura (1634), un tratado moral de fuerte influencia estoica, a imitación de Séneca.
Sobresalió con la novela picaresca Historia de la vida del Buscón, llamado don Pablos, obra ingeniosa y de un humor
corrosivo, impecable en el aspecto estilístico, escrita durante su juventud y desde entonces publicada
clandestinamente hasta su edición definitiva. Más que su originalidad como pensador, destaca su total dominio y
virtuosismo en el uso de la lengua castellana, en todos sus registros, campo en el que sería difícil encontrarle un
competidor.
Francisco de Quevedo falleció en Villanueva de los Infantes, Ciudad Real, el 8 de septiembre de 1645.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 39
Diferencias significativas entre sistemas educativos nacionales. Versión del artículo original de JAIME SAAVEDRA, HANNA ALASUUTARI y MARCELA GUTIÉRREZ
Publicado en Education for Global Development
En Brasil, Indonesia o Perú, los maestros de las escuelas públicas tienen empleos estables, disfrutan de un alto nivel
de protección legal y forman parte de sindicatos que los protegen de los vaivenes políticos. En Finlandia, los maestros
públicos también tienen estabilidad laboral y rara vez son despedidos. Son representados por un poderoso sindicato,
que tiene gran influencia en los debates sobre políticas educativas. Entonces, ¿por qué los niveles de aprendizaje de
los estudiantes en estos países son tan dispares? ¿Cuáles son las diferencias en el rol de los maestros?
1. El prestigio, la selección y la formación de los maestros.
En Finlandia, los maestros son muy valorados. La carrera docente es prestigiosa, exigente y está reservada para los
más talentosos y esforzados. Sólo una quinta parte de todos los postulantes a programas de educación para maestros
de escuela primaria ingresa a las universidades finlandesas. La admisión depende no sólo del rendimiento académico,
sino también del interés y la pasión por convertirse en maestro. Esto es muy diferente de lo que ocurre en la mayoría
de los países de ingreso bajo e ingreso medio (y en algunos países de ingreso alto, incluido Estados Unidos), donde la
admisión en las facultades de educación es relativamente fácil. A veces, incluso, está garantizada.
En Finlandia se invierte mucho en la formación de quienes ingresan a las facultades de educación. Dado que la
profesión docente requiere una maestría en educación, se requieren cinco años de estudios universitarios para
convertirse en un maestro calificado. Los profesores de escuela primaria están a cargo de la mayoría de las
asignaturas. Por ello se les forma en ciencias de la educación y eligen además dos o tres materias entre aquéllas que se
enseñan en la escuela (por ej., matemáticas, historia, música, literatura, teatro, inglés o finlandés), u otras materias
disponibles como filosofía o sociología. Mientras se capacitan, combinan estudios teóricos con estudios prácticos de
las distintas materias. Desde el primer semestre de estudios hay prácticas (prácticum) que se llevan tanto en las
facultades universitarias como en escuelas, en las que se aplica en la práctica lo estudiado teóricamente.
Los profesores secundarios están a cargo de asignaturas específicas en cada grado. Para convertirse en expertos en los
temas que enseñan, así como en profesionales pedagógicos, estudian sus respectivas materias durante cinco a seis años
y deben completar una capacitación práctica durante un año, combinada con pedagogía y ciencias de la educación.
Todos los maestros en formación trabajan diariamente con un profesor guía (que supervisa la práctica y tiene a su
cargo materias en una escuela regular) y un profesor de educación universitaria (cuyo rol es ser tutor).
Sólo después de varios años de estudio y numerosas horas de experiencia práctica en el aula, es posible convertirse en
maestro calificado y estar preparado para estar a cargo de una clase sin ninguna supervisión. En muchos países pobres
o países de ingreso mediano, un recién graduado puede ser enviado a dar clases sin mucha, o ninguna, experiencia real
en el aula.
2. La confianza.
Una vez que los maestros finlandeses han sido contratados y están en las aulas, tienen gran responsabilidad. Con un
capital humano de tan alta calidad, la gestión escolar se puede realizar de manera diferente. El país no cuenta con
inspectores o supervisores de aula. En su lugar, los directores actúan como líderes pedagógicos y, en vez de controlar
a los maestros, confían en ellos como profesionales con autonomía y responsables del proceso de
enseñanza/aprendizaje. Se alienta a los maestros a trabajar en estrecha colaboración con sus colegas, asesorándose y
aconsejándose constantemente entre ellos.
Si bien los maestros finlandeses deben seguir el plan de estudios nacional (que se centra en el estudiante y
proporciona el marco general y los objetivos de aprendizaje), tienen autonomía para implementarlo. Los alumnos de
Finlandia estudian materias con cursos estructurados, pero los maestros además coordinan proyectos para que un
mismo tema se aborde a través de diferentes disciplinas.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 40
Los estudiantes no tienen que hacer muchas tareas en casa y pasan menos tiempo en la escuela en comparación con
sus pares de otros países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE). Sin embargo,
el tiempo se usa de manera eficiente, con recesos (recreos) regulares después de 45 o 90 minutos de clases y durante
los cuales los estudiantes generalmente salen del aula.
Con excelentes maestros y una inmensa confianza en ellos, todo niño (incluidos aquéllos con algún tipo de
discapacidad o necesidades educativas diferentes) puede recibir educación de calidad en una escuela cercana a su
casa, en todo el país. Aunque los padres pueden elegir libremente una escuela para sus hijos, la mayoría prefiere los
establecimientos más cercanos a sus lugares de residencia. Los maestros son respetados y la autonomía de la que
gozan va acompañada de una gran responsabilidad. Ellos, y la sociedad, saben que el futuro de los niños está en sus
manos.
¿Este grado de autonomía es factible o deseable en todos los contextos? No. Es eficiente y conduce a altos niveles de
aprendizaje cuando se cumplen ciertas condiciones: cuando la selección de maestros es meritocrá tica y exigente (y la
política no juega ningún papel en la selección de maestros o su asignación a determinadas escuelas); cuando el
sistema requiere mucha práctica y dedicación para lograr ser maestro (y la educación es una profesión atractiva para
estudiantes con alto potencial), y cuando el avance en la carrera está en función de los logros y el desarrollo
profesional (y no sólo de la antigüedad laboral). Si bien ha habido avances en algunos casos, en muchos países, las
reformas en la carrera docente para establecer esas condiciones están todavía pendientes.
Jaime Saavedra
Director Senior de la Práctica Global de Educación del Banco Mundial.
Hanna Alasuutari
Especialista en educación.
Marcela Gutiérrez
Analista de investigación.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 41
La epidemia de las faltas de ortografía escala hasta la universidad. Los lingüistas achacan los fallos a las redes sociales y la falta de lectura y escritura.
Versión del artículo original de: ELISA SILIÓ
TOMADO DE: El País
OPOSICIONES A MAESTRO DE EDUCACIÓN PRIMARIA EN CIUDAD REAL, EN JUNIO DE 2016. EN VÍDEO, SE DISPARAN LAS FALTAS DE ORTOGRAFÍA.
FOTO CRÉDITO: MARIANO CIEZA (EFE).
Inés Fernández-Ordóñez, miembro de la Real Academia Española (RAE) y catedrática de la Universidad
Autónoma de Madrid, detecta errores de ortografía en su aula. ―Es terrible, pero incluso es muy común entre
mis alumnos de Filología que pongan faltas. Y, lo peor de todo, no saben redactar. Creo que tiene que ver
con que no se lee, faltan prácticas de redacción, dictados…‖. Relatos como el de Fernández -Ordóñez, que
baja la nota a sus alumnos, explican que la ortografía sea uno de los motivos de que el 9,6% de las plazas de
profesor de secundaria hayan quedado desiertas en las oposiciones del pasado julio. Nunca había habido un
volumen educativo en España como el actual —el 41% de los jóvenes de 25 a 34 años tiene estudios
superiores, frente a un 43% en la OCDE—, pero el nivel ortográfico de los graduados es muy mejorable. Y
si los que enseñan cometen fallos, los escolares los repetirán.
El ministro del PP José Ignacio Wert introdujo de forma expresa los dictados en el desarrollo curricular de
la Ley Orgánica para la Mejora Educativa (Lomce) en 2013, al igual que hizo Francia con este ejercicio y el
cálculo mental. Hay especialistas que sostienen que es leyendo como se ataja el problema de las faltas
porque se visualizan los signos, pero los defensores del dictado arguyen que entrena la atención sostenida,
la concentración y sirve para descubrir los errores.
―Creo que muchos profesores de secundaria, y a veces de universidad, pasan por alto en los exámenes las
faltas cuando entienden que el contenido es correc to‖, se sorprende el académico Ignacio Bosque,
catedrático de Lengua en la Complutense. ―Yo no lo hago. Es un error hacerlo. No estoy tampoco de
acuerdo con dejar pasar las faltas graves de redacción. Algunos profesores piensan que las faltas las
corrigen los procesadores de texto, y entienden que la sintaxis es poco importante. Opino lo contrario. Mi
maestro, Fernando Lázaro Carreter, decía que si la expresión es pobre, el contenido también lo es, se quiera
o no‖.
La académica Carme Riera penaliza ―muchas faltas‖ de sus alumnos de Literatura en la Autónoma de
Barcelona. ―La gente no practica las normas ortográficas, y muchas veces hacen ese trabajo los correctores
del teléfono y los correos electrónicos y no se fijan‖, sostiene Riera. También lamenta la influencia
―nefasta‖ y continua del inglés.
El docente de Historia Javier Herrera, de la Asociación de Profesores de Instituto de Andalucía, reconoce
que las faltas ortográficas son un problema persistente que sale a relucir en casi todos los claustros, pues su
solución debe ser una tarea común de todo el profesorado. En primaria con la Lomce se ha aumentado un
20% las clases de Lengua. La clave está en ese periodo educativo. ―Nosotros diferenciamos perfectamente
de qué centro proceden los niños por su madurez en este campo. Si tuvieron un maestro o maestra que se
empeñó en que escribieran bien‖, sostiene Herrera.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 42
El prestigio de la lengua
―No todo se consigue con más clases de Lengua, sino con un prestigio social de la buena expresión y la
buena escritura. Y el problema viene de que la gente joven, sobre todo, y en redes sociales, escribe
voluntariamente mal porque si no le mira mal el entorno‖, afirma el escritor Julio Llamazares.
En las últimas oposiciones a profesor de secundaria, FP o escuelas de idiomas, a la s que se presentaron
200.000 personas, los tribunales se encontraron con aspirantes que escribían acortando palabras (tb, pq) o
que empleaban términos coloquiales (―rollo de‖, ―en plan‖…). Las academias de preparación madrileñas
alertaron a sus alumnos de que perderán 0,10 puntos por cada abreviatura o por poner la barra inclinada en
los adverbios que terminan en ente (por ejemplo, completa/), de la misma manera que tomaban apuntes en
clase. ―Si no manejas los instrumentos de la expresión, terminas empobrec iendo tu pensamiento o al menos
su transmisión. Escribir y hablar bien sirve para expresar mejor tus ideas, no es un capricho‖, alerta
Llamazares.
El Ministerio de Educación pretende reformar el sistema de oposiciones tras la última convocatoria, que
dejó 1.984 plazas sin cubrir. Pero son las comunidades las que publican los criterios de evaluación y luego
los tribunales tienen potestad de incluir otros propios como el penalizar las faltas. ―Me parece correcto que
se exija eso a los aspirantes a profesores. Hay que tener una exigencia con los profesores de secundaria
grande, que quizá no se ha tenido durante unos años‖, subraya Fernández -Ordóñez.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 43
““MMeettooddoollooggííaa ddee llaa iinnvveessttiiggaacciióónn””::
CCáátteeddrraass uunniivveerrssiittaarriiaass ccoonn mmeennttiirriittaass ssaabbiiaass yy nneecceessaarriiaass...... Por: Dr. ALEXANDER MORENO (UCV – UPEL Barquisimeto)
Tomado de: Noticias Universitarias
Fuente de las imágenes:
https://pixabay.com/es/pensador-pensamiento-persona-idea-28741/ https://pixabay.com/es/hombre-silueta-escudo-se%C3%B1alizaci%C3%B3n-96868/
https://pixabay.com/es/oficina-negocio-papeleo-documento-3295556/
A principios de los años '60 se da en las universidades venezolanas, mexicanas, argentinas y de otros países de América
Latina, una onda de insertar dentro de los planes de estudio de las diferentes carreras, unas cátedras de "Métodos de
investigación" en las cuales había la digna intención de desarrollar procesos de enseñanza-aprendizaje fundamentados en
los procedimientos necesarios para indagar el objeto real propio del cuño de la carrera... Sociedad en general, si ésa era
sociología; biología y otras ciencias naturales, si era medicina; procesos productivos y distributivos, si era economía;
educación, si era pedagogía; en fin. Hasta aquellas carreras como arte, literatura, filosofía, contaban con una asignatura
de "Metodología de la investigación" (asunto, por cierto, que los estudiantes ―humanistas‖ jamás terminaban en ver como
legítimo).
La inmensa mayoría de manuales venían de EE. UU. y Francia, con buenas traducciones al español y con ediciones
asimismo españolas. Ya a mediados de esa década de los '60, afloraron ediciones de libros construidos por autores
latinoamericanos.
En el fondo, lo que en esas cátedras se preponderaba era aquel método científico que legítimamente coloca todos los
huevos de la cesta de los fenómenos socio-relacionales y naturales, el fenómeno en sí, el hecho en sí; el facto en sí.
Siendo así la cosa, pues al participante se le llevaba (con sus altos y bajos cognit ivos y emocionales) a:
1ro.- Elegir un fenómeno específico de cara a investigarlo. No un fenómeno romántico, desparramado, intangible; no.
Seleccionar un problema real, puntual. Ejemplos...bajo rendimiento académico en matemática de la sección tal, de la
escuela tal, de la ciudad tal.... Ello, claro está, si la carrera era pedagogía (educación). Alto índice de diarrea en los
niños de tal edad, en la población equis, en el período ye. ... Si la carrera era medicina...
2do.- Imaginar con seriedad y sentido de verosimilitud, un factor el cual pudiera estar muy asociado a la producción del
problema ya escogido; y relacionar ambos en términos de declaración provisional... Había, pues, que formular la
hipótesis en términos como... ―El fenómeno escogido (o variable dependiente) está significativamente relacionado con
el factor traído imaginariamente a colación (variable independiente)‖. Demasiado a menudo, se vinculaba el bajo
rendimiento académico (como el recientemente referido) con asuntos puntuales como desnutric ión, insuficiente
preparación previa en matemática, en fin. También demasiado a menudo se relacionaba el padecimiento masivo de
diarrea (como el también recientemente referido) con asuntos como la ingestión de aguas contaminadas, presencia de un
determinado virus en la correspondiente comunidad, etc. Cada par de variables (la dependiente con una
independiente) constituía una hipótesis.
3ro.- Medir cuantitativamente tanto la variable dependiente como la independiente, en tanto elementos constitutivos de
la hipótesis. Podía haber varias hipótesis, lo que ameritaba las correspondientes mediciones (por pares). Cuando
hablábamos de medición, estábamos haciendo mención a establecer numéricamente el -digámoslo así- ―nivel de
gravedad‖ que registraban la variable dependiente y la variable independiente de cada hipótesis. La calificación obtenida
en matemática, en el caso educacional traído a colación, y el resultado de un examen de laboratorio, en el caso médico,
constituyen ejemplos elementales, claros, sencillos. El método hipotético-deductivo (que es así como se llama) cuenta
con procedimientos técnicos para llevar a cabo mediciones de las variables.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 44
4to.- Medir cuantitativamente el nivel de relación que guardan las variables de cada hipótesis. En ello, las técnicas
estadísticas solían y suelen ser muy útiles. Si se probaba que el nivel de relación entre la variable dependiente y la
variable independiente, era significativo, entonces era dable pensar que en efecto había causalidad; lo que implicaba que
la hipótesis en cuestión quedara verificada. Claro, podía ser que tal alta relación haya sido -en realidad- solo de
compañía, no de causalidad; pero en el peor de los casos (como éste), una probada relación en los términos referidos ―de
solo concomitancia” era buena señal para acercarse a la verdad, en ulteriores incursiones indagatorias.
Fuente de las imágenes:
https://www.shutterstock.com/es/image-photo/latest-rumors-woman-whispering-ear-herself-626626673?irgwc=1&utm_medium=Affiliate&utm_campaign=Hans%20Braxmeier%20und%20Simon%20Steinberger%20GbR&utm_source=44814&utm_term=
Bueno. Hay que decir que ya a mediados de los años '80, esa onda de las cátedras de ―Métodos de investigación‖ que
solo estudiaban el ―hipotético-deductivo‖, fue registrando agotamiento. Las críticas se regaron como pólvora... Muchas
de estas críticas transitaban por la acusación de que los profesores que administraban esas cátedras, jamás investigaban;
y que por lo tanto su labor era parecida a aquel instructor de natación que jamás había nadado, siendo sentenciado así a
que sus ―instrucciones‖ fueran voceadas desde el lado exterior de la piscina. Otras críticas se afincaban en: a)la
subestimación a los componentes matemáticos (estadísticos) de tal método; b) en el criterio de que lo factual ha de
ocultar lo global; c) en la militancia de que todo ello era parte de la ―jadeante modernidad‖; y d) en que, a final de
cuentas, esas asignaturas eran un verdadero fastidio.
Todas esas críticas vienen horadando poco a poco la existencia curricular de esas materias en el medio universitario
latinoamericano. En la medida en la cual la presencia de estas asignaturas viene siendo cada vez más reducida (o,
simplemente, ya ―Metodología de la investigación‖ no existe en el plan de estudios), la pléyade de unidades curriculares
de ―nuevo tipo‖ ha ido proliferando hasta el punto en el cual los brujos vienen posicionándose a través de mil formas
―instruccionales‖.
Fuente de las imágenes:
https://pixabay.com/es/castillo-gato-el-mal-mujeres-2027871/
UN COLOFÓN SENTIDO PROFUNDAMENTE...
Las cátedras de "Métodos de investigación" no son docentemente administradas por investigadores -en la mayoría de los
casos-; tampoco crean significativas condiciones para que el alumno investigue de veras. Aun así vienen sirviendo
a algo que paradójicamente no es advertido por los llamados ―expertos del currículum‖. Algo, decíamos, que es
valiosísimo. Se trata de que a través del tránsito que se hace formal y superficialmente por el método hipotético-
deductivo, se recorre el ordenamiento propio de la lógica analítica, todo lo cual beneficia asaz tanto al alumno como al
docente. Máxime si se tiene en cuenta la horrible tradición generalizada que existe en nuestro medio universitario, de
también sacar a patadas del currículum la materia ―Lógica‖, o, quizá peor...
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 45
- Simplificarla a la elemental expresión matemática de ésta; siguiendo así con el libro de Irving Copi (el cual es
de innegable utilidad, pero jamás "único y suficiente").
- Excluir la lógica dialéctica; transitando quizá en el sesgado y paupérrimo criterio de que con ello se enseña
ortodoxia marxista (dejando por lo tanto de ver que, además del valioso aporte de Marx en ello, están los
también valiosos aportes de Aristóteles, Hegel, Kosík y muchos otros pensadores).
- No valorar que en los días de hoy y a propósito del avance de las ciencias computacionales, surgen nuevos
modelos lógicos redimensionando elementos como la proyección al futuro y los juegos inteligentes de
virtualidad; todo lo cual potencia la lógica (en tanto modelos dialécticos de razón).
Y testimonio: A través de nuestra práctica de hacer docencia (por espacio de décadas) en la materia "Metodología de la
investigación", más que formar investigadores, coadyuvamos, ¡sí!, en la formación de pensamiento lógico en educadores
y en médicos, y eso es diamante puro.
Texto fundamental de apoyo:
―Fronteras vivas entre ciencia, filosofía e ideología‖, de Alexander Moreno.
https://drive.google.com/open?id=1kVsfayaHUdx3M6i-TYujZ1p8vCzHZGnh.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 46
Por qué se apagó el "dínamo" de la Luna que la llevó a
perder su campo magnético.
FUENTE:
TOMADO DE: MSN
HACE MILES DE MILLONES DE AÑOS, EL NÚCLEO DE LA LUNA FUNCIONABA COMO UN DÍNAMO QUE GENERABA UN CAMPO MAGNÉTICO.
CRÉDITO IMAGEN: © Getty.
La vida en la Tierra es posible gracias a un poderoso escudo invisible. Es el campo magnético, que bloquea las
partículas de vientos solares que bombardean sin cesar a nuestro planeta.
Gracias al campo magnético también existen las brújulas, un elemento esencial en la vida diaria.
La Luna, por su parte, no tiene un campo magnético que la envuelva, lo cual supone un reto inmenso por si algún día
queremos colonizarla.
Nuestro satélite natural, sin embargo, sí que tuvo un campo magnético hace miles de millones de años y los científicos
creen que llegó a ser más potente que el que hoy tiene la Tierra.
¿Cómo funcionaba este campo magnético y por qué prácticamente desapareció?
ESCARBANDO ENTRE LAS ROCAS
En una reciente investigación, un grupo de científicos del Instituto Tecnológico de Massachusetts (MIT, en inglés)
analizó muestras de rocas lunares para hallar la respuesta a estas preguntas.
CUANDO LA LUNA ERA "JOVEN", LA GRAVEDAD DE LA TIERRA AGITABA SU NÚCLEO Y SE GENERABA SU CAMPO MAGNÉTICO. CRÉDITO IMAGEN: © HERNÁN CAÑELLAS Y BENJAMIN WEISS/NASA
Estas rocas, pertenecientes a distintas épocas de hace miles de millones de años, aún conservan rastros del campo
magnético que las envolvía, así que les sirvieron a los investigadores para rastrear la evolución de ese campo.
Hace unos 4.000 millones de años, el campo magnético de la Luna era de 100 microteslas, que es la unidad de medida
de densidad de flujo magnético.
En comparación hoy el campo magnético de la Tierra es de 50 microteslas.
Ese campo magnético de la Luna, sin embargo, desapareció hace unos 1.000 millones de años.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 47
¿POR QUÉ DESAPARECIÓ?
Pero para saber cómo se desvaneció, los investigadores primero debían tener claro cómo surgió ese campo magnético.
Su conclusión fue que este escudo era generado por dos causas principales.
LA LUNA ESTÁ CADA VEZ MÁS LEJOS DE LA TIERRA. CRÉDITO IMAGEN: © Getty.
La primera es que cuando la Luna era joven, hace unos 4.000 millones de años, estaba mucho más cerca de la Tierra.
Al estar tan cerca, la fuerza gravitacional de la Tierra habría agitado el núcleo líquido del satélite, lo cual habría
creado un poderoso dínamo que con su movimiento podía crear las corrientes eléctricas que forman el campo
magnético.
A medida que la Luna se alejaba -aún se sigue alejando casi cuatro centímetros por año- la gravedad que agitaba el
dínamo se hacía más débil, por lo tanto el campo magnético también perdía fuerza.
Más tarde, debido a la lejanía hace unos 2.500 millones de años, la gravedad de la Tierra dejó de tener efecto sobre el
núcleo lunar, el cual comenzó a cristalizarse.
EL CAMPO MAGNÉTICO DE LA TIERRA LA PROTEGE DE LOS PELIGROSOS VIENTOS SOLARES. CRÉDITO IMAGEN: © Getty.
Esa cristalización hacía mover los líquidos y eso explica por qué el núcleo de la Luna seguía produciendo un campo
magnético, aunque ya para entonces era mucho más débil.
Cuando el núcleo se cristalizó por completo, el dínamo finalmente dejó de funcionar.
El análisis de las rocas mostró que hace unos mil millones de años el campo magnético de la Luna era de 0,1
microteslas, así que los expertos calculan que alrededor de esa fecha fue que finalmente desapareció.
Los investigadores, sin embargo, aún no saben si el dínamo se detuvo de manera permanente o si entró en un ciclo
de "pausa-activo" antes de apagarse por siempre.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 48
Entre la ciencia y la ficción.
Polémica afirmación Científica: ¿Podría el Sol ser un planeta y estar habitado?
TOMADO DE: Ufo-Spain Magazine
Según el paradigma científico, el Sol tiene en su superficie, llamada fotosfera, una temperatura de entre 5000 y 6000 grados centígrados. La temperatura en el espacio exterior es de -270ºC aproximadamente. Sin embargo, saliendo de nuestra atmósfera, se nos dice que a partir de mediciones, realizadas en el transbordador espacial
durante sus orbitas por la Tierra, se comprobó que la temperatura oscila entre los -180ºC en la sombra de nuestro planeta y los 122ºC en la cara iluminada por el Sol, debido a su cercanía.
La Ciencia nos vende que la Tierra está a la distancia justa del Sol para que pueda albergar vida. Si estuviera más alejada, haría
demasiado frío, y si estuviera más cerca, demasiado calor. Visto desde esa premisa, parece que somos unos privilegiados… ¿o tal vez no? Hay que tener presente que comprobar estas cosas no está al alcance de la mayoría.
A lo largo de la historia, se nos ha dicho que somos los únicos seres vivos del Universo, que la Tierra e s plana, que todos los astros
giran alrededor de nuestro planeta… Pero la verdad siempre acaba saliendo a la luz… Podemos sacar algunas conclusiones a part ir de
datos, aprovechando las inconsistencias de los informes y teorías propagados por la Nasa y demás acólitos del, digamos, Sistema (porque en su mayoría es lo que son, teorías, por más que las etiqueten de ―hechos comprobados científicamente‖). Por ejemplo , si es
cierto que fuera de nuestra atmósfera, situados frente al Sol, la temperatura es de 122ºC, ¿Cómo es posible que haya hielo en los
casquetes polares de Mercurio?, como vemos en sendas noticias publicadas recientemente por mass media españoles. Debido a su cercanía al Astro Rey, se le atribuyen temperaturas por encima de los 400ºC.
Esto puede ser entendido obviando el modelo aportado por la Ciencia oficialista. Científicos que se salen de los cánones establecidos
han llegado a la conclusión de que el Sol es una central electromagnética de energía fría de punto cero que no genera calor y lo que
sentimos es la consecuencia de sus rayos al cruzar la atmósfera o, lo que es lo mismo, la temperatura la da la atmósfera al ser atravesada por sus radiaciones.
El Ingeniero Isaías Araujo Serpas, publicó en1937 su “Teoría electromagnética del Sol frio; análisis sobre una nueva estructura del
universo” en San José, Costa Rica. Dos años antes, participó, en calidad de Delegado de El Salvador, en La Conferencia
Oceanográfica Ibero-Americana, celebrada en España en el mes de abril de 1935. En ella se mostró rotundo, al exponer, en base a su investigación, que “es probable que el Sol tenga habitantes, puesto que es, simplemente un planeta frío, gobernante en su sistema” .
Según esta teoría, el Sol no emite luz por ser un astro frío. La luz del día es eléctrica de manera esencial y sólo en esta razón
científica se encuentra la causa de su blancura, de su pureza, de su claridad, de su fuerza de penetración, del orden de su
descomposición observado en el espectro, la cual se propaga por medio de las oscilaciones del espacio ondulatorio electromagnético. El poder de penetración de los rayos de luz, incluyendo los rayos infrarrojos y los rayos ultravioleta es, por otra parte, un a propiedad
que no puede atribuirse a un Sol en ignición. En definitiva, Isaías Araujo dedujo que la luz solar no es propia de la combustión, sino
de naturaleza electromagnética. Siguiendo el hilo de estas argumentaciones, la cercanía de nuestro planeta no tendría la relevancia
supuesta para generar las condiciones apropiadas para la vida. Es lógico pensar que el Sol atienda por igual las necesidades energéticas de todos los planetas que le acompañan en su viaje por la Galaxia. Por si no lo sabían, viajamos, junto al resto de
planetas, describiendo una órbita helicoidal a rebufo del Sol en su viaje por la Galaxia.
Alan Stern, un científico planetario e investigador principal de la misión de la NASA New Horizons, destinada a explorar Plut ón, al
comentar las últimas imágenes recogidas por la sonda de New Horizons, dijo que “Este mundo está vivo”, en referencia a Plutón. “Tiene clima, tiene brumas en la atmósfera, geología activa” , explicó el científico.
Como podrán comprobar, lejos de ser la roca muerta y helada de los confines del sistema solar, que se suponía que era, hallan
sorprendentes similitudes entre Plutón y la Tierra. En las fotos recientemente publicadas de Plutón al atardecer, se aprecia una
compleja neblina en distintas capas. Tras analizar las imágenes en detalle, científicos de New Horizons sostienen haber encon trado sorprendentes semejanzas entre el planeta enano y el nuestro y un posible ciclo de clima diurno. Estando como está a una distancia
del Sol de 5900 millones de kilómetros, si éste fuera una enorme bola de fuego, tal y como se sostiene, estaría demasiado lej os para
ejercer una influencia climática adecuada. Pero visto desde esta otra óptica, sí, ya que la temperatura la daría la atmósfera al ser
atravesada por sus radiaciones.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 49 En los últimos meses se suceden noticias que evidencian que la vida no es una exclusiva de este planeta: El Instituto de Investigación
Espacial de la Academia de Ciencias de Rusia ha hecho públicas 30 años después de ser realizadas por las sondas soviéticas Ve nera
una serie de imágenes únicas de supuestos seres vivos en el planeta Venus. Por otro lado, El científico argentino Gerónimo
Villanueva, uno de los responsables del estudio dado a conocer recientemente que determinó la existencia de agua en Marte, es tá entusiasmado con la posibilidad de encontrar vida en ese planeta que cada día que pasa, se parece más a la Tierra.
Numerosos científicos, ingenieros, astrónomos, técnicos y aficionados amateurs, a lo largo y ancho de la Tierra, vienen dicie ndo
desde hace décadas que las fotos que en su día empezaron a enviar las sondas Viking 1 y 2 y el programa Mars Pathfinder, están
sujetas a manipulaciones, de modo que las mismas no reflejan los verdaderos colores del planeta Marte. La propia Nasa, origen de los retoques fotográficos, comienza a mostrar sus verdaderos colores y el parecido con nuestro planeta es asombroso.
Como ven, el problema que plantea que no pueda haber vida en otros planetas es la lejanía o cercanía del Sol. Pero si conside ramos
que éste no emite luz por ser un astro frío y tanto la luz como la temperatura son generadas por la atmósfera al ser atravesada por la energía procedente de él, podría haber vida en cualquier planeta. Incluso sería más lógico. ¿Nunca han pensado que es raro qu e entre
tanto planeta descubierto estemos solos?
Quedan en el tintero investigaciones, descubrimientos y testimonios que no hemos reflejado y que evidencian que el Sol es muc ho
más que una bola de fuego. De hecho, las imágenes que hayan podido ver de él desde fuera de la atmósfera s on animaciones hechas por ordenador y siempre lo escenifican como una esfera ígnea, tal vez para reafirmar su modelo solar en nuestros subconscient es. Que
lo veamos amarillo o naranja depende de nuestra atmósfera. Ni siquiera es su color real. En realidad su aspecto es como el de
cualquier otra estrella.
“ES PROBABLE QUE EL SOL TENGA HABITANTES, PUESTO QUE ES, SIMPLEMENTE UN PLANETA FRÍO,
GOBERNANTE DE SU SISTEMA”.
Así literal y expresamente lo dice en su “Análisis sobre una nueva estructura del Universo” , descubierta, razonada y explicada en el
libro titulado: “Teoría electromagnética del Sol frío”, el Ingeniero: Isaías Araujo, en calidad de Delegado de El Salvador, en La
Conferencia Oceanográfica Ibero-Americana, celebrada en España en el mes de abril de 1935. En la Teoría Electromagnética del Sol Frío quedan expuestos los siguientes puntos:
a) El Sol no emite luz por ser un astro frío. La luz del día es eléctrica de manera esencial, y sólo en esta razón científica se encuentra
la causa de su blancura, de su pureza, de su claridad, de su fuerza de penetración, del orden de su descomposición observado en el
espectro, la cual se propaga por medio de las oscilaciones del espacio ondulatorio electromagnético.
Estas notables propiedades y otras igualmente importantes jamás las tendría si estuvieran intervenidas por los materiales en ignición
del supuesto Sol fundido, sostenido así tanto tiempo con lamentable error.
b) El poder de penetración de los rayos de luz, incluyendo los rayos infrarrojos y los rayos ultra violeta, es, por otra parte, una
propiedad que no puede atribuirse a un Sol en ignición. En cambio, esta misma propiedad es una consecuencia de la enorme pres ión de radiación o expulsión de la onda corta de luz, dentro de las lentes magnéticas, entre las cuales está la de la Tierra, donde se
desarrolla un voltaje de más de 400 mil millones de voltios, suficiente para reducir la onda larga electromagnética u ―onda f ría‖ en
ondas cortas de luz y de otros rayos electromagnéticos, a los cuales pertenecen los Rayos X o de Roentgen, los Rayos Gamma, los
Rayos Cósmicos y otros no conocidos aún.
e) Toda luz, cualquiera que sea el foco luminoso, está constituida por vibraciones electromagnéticas, a distintas presiones d e
radiación. Por ejemplo, son ondas electromagnéticas las emitidas por los metales fundidos, las de una vela en combustión, los Rayos
Cósmicos, los rayos de los espectros, los rayos gamma, los de Roentgen, las radiaciones fosforescentes, la luz del día, las a uroras
polares, la luz zodiacal, la luz de los planetas, de las estrellas, de los cometas, de las nebulosas, en forma análoga a la luz eléctrica
ordinaria.
Estando ahora descubierto por medio de esta nueva Teoría que la Naturaleza es la misma en todas sus manifestaciones, este
descubrimiento fue uno de los varios caminos que me condujeron a ver al Sol como un astro frío, cuya luz, antes de ser luz propia de
combustión, debía de ser de naturaleza electromagnética, de otro origen. Este nuevo origen son los espectros magnéticos en el espacio, resultantes del choque de los globos magnéticos de los planetas con el campo magnético del Sol, y que hemos llamado lentes
magnéticas‖.
―Hace más de cien años… el eminente astrónomo Sir William Herschel sugirió que el Sol pudiera estar habitado y que los habita ntes
pudieran no sufrir del intenso calor tanto como aquellos que viven ¡en las regiones tropicales de la Tierra! Creyó que el Sol es un cuerpo fresco, no una caliente y flameante bola de gas‖. El astrónomo Herschel descubrió en 1787, a Urano y a dos de sus Luna s,
Titania y Oberón; más de 2.500 Galaxias; contó 90.000 estrellas en 400 áreas de muestra; y descubrió que el Sol no estaba qui eto y
que se mueve en el espacio infinito hacia la Constelación de Hércules.
El científico Eloy Ortega, refiriere que los planetas tienen una capa electromagnética de altísima vibración iónica de diversa composición que los aísla de las intensas radiaciones que provienen del espacio y de los astros solares, que le llama: Esfera Lenticular
Magnética. También el astrónomo G. de Vaux en 1859, y el ingeniero A. Dard en 1931, propusieron la teoría del Sol frío. Su
hipótesis se basa, ante todo, en el hecho que, saliendo de la atmósfera terrestre, sólo hay oscuridad y un frío intensísimo. Aceptando
el principio del origen solar de la luz y del calor, debería esperarse por el contrario (tal como argumentaron Vaux y Dard) un progresivo aumento de calor y de luminosidad, a medida que se acerca uno al astro.
Según ellos, el Sol sería un astro frío, una enorme fuente magnética que esparce por doquier sus radiaciones. Estas atravesarían el
espacio sin emitir luz ni calor, pero al encontrarse con un cuerpo celeste, producirían una fricción tal como para transforma rse en
electricidad, y por tanto, en luz y calor. El efecto de esta transformación, más bien débil en los altos estratos atmosféricos, se haría
sensibilísimo en la superficie de los planetas y alcanzaría en su centro la máxima intensidad acumulada en tensión‖.
Sobre el Astro Rey, normalmente se dice lo que no es y es por ello que las opiniones popularizadas para próximos años por distintas
fuentes, han hecho un efecto mundial sumamente inquietante, hasta en muchos miembros asociados al movimiento gnóstico
internacional fundado por Samuel Aun Weor. Con estas notas, solo esperamos contribuir a reflexionar sobre la realidad del Sol.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 50
¡¡¡AAAppprrreeennndddiiizzzaaajjjeee dddeee lllaaa CCCooonnnvvveeerrrsssaaaccciiióóónnn!!! Por: HERNANI ZAMBRANO GIMENEZ
TOMADO DE: El carabobeño.com - 13 de octubre de 2019
HERNANI ZAMBRANO GIMENEZ
Egresado de Universidad Central de Venezuela. Estudios de Postgrado en la Universidad de Stanford (USA).
Profesor y Ex Director de Escuela de Educación (Universidad Carabobo, Valencia, Venezuela). Ex Director Escuela
de Psicología (Universidad Arturo Michelena, Valencia, Venezuela). Asesor de Empresas y Productor Radial en
Universitaria 104,5 FM (Universidad Carabobo, Venezuela). Correo Electrónico: hernaniz@yaho o.com
Muchas veces en la vida diaria, sin que ocurra ninguna actividad extraordinaria, aun sin que estemos dedicados a la
ejecución de alguna operación física o un trabajo extenuante, comenzamos a sentimos agotados, inquietos y muy
cansados. En esos instantes nuestro cerebro parece frenarse (!nos reclama!), y comienza a entrar en un bloqueo, del
cual necesita escapar, ¡con un reclamo o hasta con un grito! Quizás lleguemos a descubrir que hay una razón para que
estemos en ese estado obtuso y de confusión, en que estamos: ¡Todo se explica porque hay alguien que habla y habla,
imponiéndose sobre los demás! En la jerga popular se dice que es gente que ―habla hasta por los codos‖. Esto ocurre
por la corriente incapacidad para administrarnos durante las conversaciones, y por no comprender que deben existir
silencios intercalados que nos permitan intervenir coordinadamente. En conclusión, ¡debemos aprender a saber cuándo
callarnos!
Escribió Ernest Hemingway que ―se necesitan dos años para aprender a hablar, y sesenta para aprender a callar‖. Se
refería Hemingway a lo largo y exigente que es el aprendizaje del silencio. Combatía así el escritor la aceleración
incontrolada y el ruido destructor en nuestras sociedades. La naturaleza persistente y silenciosa, con s u orden interior,
en calma pero productiva, acoge a bosques y selvas enteras, que crecen sin hacer ruido, sin llamar la atención, con
sabias lecciones que debemos interpretar: Quienes hablan sin antes haber aprendido el valor y el sabor del silencio,
por ejemplo, corren el gran riesgo de informar, enseñar y aprender cosas equivocadas que, además, ya pueden haber
sido tratadas y discutidas hasta el cansancio. Mucho de ruido queda de estas maneras de proceder. La naturaleza nos
enseña mucho de lo que necesitamos aprender en la vida, y de cómo hacerlo con naturalidad, sin la ostentación de los
humanos. En la naturaleza no oímos, ni nos enuncian, que cada planta va a crecer, o que sus hojas van a caer, ¡pero
observamos que crecen sin cesar, que botan hojas si lo necesitan, y que hacen todo eso en medio de un grande y
―humilde‖ silencio, porque la naturaleza no tiene orgullos ni prisas!…
Cosa parecida se aplica a la naturaleza y sociedades humanas. Al administrar el silencio se agrega valor anímico que
beneficia el análisis, la crítica y los procesos humanos. El silencio oportuno, el callar con previsión, tiene valor
estratégico y táctico impresionante, antes, durante y después de cada acción social, psicológica y política… Hay
muchos que callan por miedo o vergüenza de no saber hablar, pero hay quienes callan porque aprendieron a reconocer
cuándo llegan los tiempos oportunos de poder hablar. La imprudencia salta a la vista en aquellos que no pueden callar,
porque un protagonismo escandaloso y un narcicismo agobiante, les mete en una ―zona de combate‖. ¡Sólo habla con
seguridad, quien sabe callar a tiempo! Quien no aprende a callar, termina en la gritería ―callejera‖ del activismo
populista, compulsivo y frustrante, o el exhibicionismo vulgar. El silencio de la gente está a veces más cerca de la
verdad, que sus palabras. Voltaire anunciaba siempre que, ―en la corte del rey francés, el arte más importante no era
hablar bien, sino saber callarse‖; y mucho antes, Pitágoras había dicho que ―no sabe hablar quien no sabe ca llar‖.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 51
VVeenneezzuueellaa,, ppeerrssoonnaajjeess,, aannééccddoottaass ee hhiissttoorriiaa..
AAgguussttíínn CCooddaazzzzii ARTÍCULO ORIGINAL DE: Nina Bortolussi
TOMADO DE: El carabobeño.com Otras fuentes: Wikipedia
(1793-1859)
Giovanni Battista Agostino Codazzi Bartolotti, mejor conocido como Agustín Codazzi.Nació en la ciudad
de Lugo (Estados Pontificios, hoy Italia) el 12 de julio de 1793 y murió en la aldea de Espíritu Santo,
(Confederación Granadina, hoy Colombia), el 7 de febrero de 1859.
Fue ingeniero militar de ocupación artillero, brigadier, furriel, secretario del Estado Mayor, jefe de
alojamiento, ayudante suboficial y mariscal de campo, entre otras, durante las Guerras Napoleónicas;
geógrafo, cartógrafo, ingeniero y coronel (más tarde general) de Colombia y Venezuela durante y después de
la liberación de América del Sur, y gobernador de la provincia de Barinas (1846-1847).
A los 17 años cuando estaba a punto de iniciar su carrera de derecho en la Universidad de Bologna, cambió de
decisión y se alistó en unos de los cuerpos militares que combatían a los ejércitos de Napoleón Bonaparte.
Después del quiebre del imperio napoleónico, Codazzi se dirige a Constantinopla donde se encuentra con su
buen amigo, Constante Ferrari. Juntos, emprendieron un aventurero viaje por Europa; en el cual atravesaron
Grecia, Moravia, Rusia, Valaquia y Estados Unidos, en este último decidió quedarse para participar en el
proceso de independencia latinoamericana como Comandante de Artillería.
En 1819 conoció en Bogotá, al libertador Simón Bolívar, quien le confió diversos cargos militares en
Venezuela. Tras la disolución de la Gran Colombia, José Antonio Páez, General en Jefe de la Independencia
de Venezuela, le encomendó el levantamiento de un mapa del país, elaborando no solo datos geográficos, sino
físicos y estadísticos de cada región. Para cumplir esta obra a cabalidad, Páez lo nombró Jefe del Estado
Mayor de sus fuerzas militares.
LA COLONIA TOVAR: UNA CREACIÓN DE CODAZZI.
Ante el enorme déficit poblacional que existía para esa época en Venezuela, el Ministro del Interior y Justicia
de ese entonces, Ángel Quintero, pidió colaboración a Codazzi para que le indicara cuáles tierras venezolanas
podían llenar los requisitos para atraer inmigración europea con la finalidad de aumentar la productividad del
país.
Animado por Alejandro de Humboldt, concibió y formuló un proyecto de colonización para la nación que
presentó al general Páez. Este, escogió a un grupo de alemanes que desarrollaron la agricultura en las
montañas aragüeñas.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 52
Efemérides de la Universidad de Carabobo.
La antigua sede de la Universidad de Carabobo
En este hermoso edificio, situado su frente hacia la calle Colombia, otrora calle Real en
la época colonial, frente a la conocida Plaza Sucre, y en los alrededores del edificio
sede de la Gobernación del Estado, inició su funcionamiento la Universidad de
Carabobo. El edificio ocupaba anteriormente la manzana completa, en conjunto con la
Iglesia San Francisco.
Posteriormente allí funcionó la Facultad de Derecho, hoy Facultad de Ciencias Jurídicas
y Políticas, y ubicada en su nueva sede del Campus de Bárbula. Años atrás, las
graduaciones de esta facultad y de las otras de la UC, se realizaban en el Teatro
Municipal el cual se ubica al lado. Luego, cuando se habilitó para ello, las graduaciones
comenzaron a realizarse en el Anfiteatro de Bárbula.
Fue construida como el Convento Real de Buenaventura, última fundación en la
Gobernación de Venezuela realizada por los monjes franciscanos, el 12 de noviembre de
1634. A causa de la guerra de independencia, el consecuente descuido en su
mantenimiento ocasionó su deterioro y posterior cierre al finalizar la guerra.
Posteriormente se habilitópara la instrucción pública, y la Iglesia de dos naves fue
convertida en capilla.
En su segundo piso, hoy se ubica el Paraninfo de la Universidad de Carabobo,
construido en 1874 por disposición del entonces Presidente de la República, Antonio Guzmán Blanco, y su fachada fue modificada en el estilo ecléctico que hoy presenta,
por el ingeniero Lino J. Revenga, donde destacan hermosas columnas toscanas. Por
Gaceta Oficial N° 26320 del 2 de agosto de 1960, este inmueble fue declarado
Monumento Histórico Nacional.
Actualmente, ahí se mantiene el Paraninfo pero como instalación bajo la administración
de la Universidad de Carabobo, también es la sede del Centro de Interpretación
Histórica, Cultural y Patrimonial de la Universidad de Carabobo, creado el 21 de marzo
del año 2006.Es el ente encargado, entre otros desempeños, del resguardo,
administración y mantenimiento del edificio de la antigua sede de la Universidad.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 53
Katherine Coleman Goble Johnson Nació el 26 de agosto de 1918 en White Sulphur Springs, Condado de Grennbrier; y falleció, a los 101 años, el 24 de febrero
de 2020 en Newport News; ambos momentos en Virginia, Estados unidos.
Imágenes obtenidas de:
Katherine Johnson nació llamándose Katherine Coleman. Johnson es su apellido de casada (del segundo matrimonio).
El padre de Katherine fue Joshua Mckinley Coleman, nació en White Sulphur Springs el 18 de diciembre de 1881, siendo
sus padres Horace Coleman y Margaret Johnson. Joshua trabajó ejerciendo varios empleos: en agricultura, otros trabajos
esporádicos y como portero. Se casó con Joylette Roberta Lowe el 29 de septiembre de 1909 en Danville, Virginia.
Joylette, hija de Lee Lowe y Roberta Johnson, nació en 1887 en el Condado de Caswell, Carolina del Norte y se
convirtió en maestra de escuela. Katherine tenía dos hermanos mayores, Horace nacido alrededor de 1912 y Charles
nacido alrededor de 1915. Ella también tuvo una hermana mayor, Margaret, quien nació alrededor de 1913.
Katherine asistió a la escuela primaria desde los cinco años, pero incluso en ese momento ella estaba avanzada para su
edad y entró directamente al segundo grado. Cuando ella tenía ocho años de edad debía haberse inscrito en quinto grado
pero, siendo una de los mejores estudiantes, se inscribió en sexto grado en una escuela recién inaugurada; habiendo
superado esta etapa su hermano Charles aun siendo tres años mayor que Katherine, ahora estaba un grado por debajo. A
la edad de 10 años ella estaba lista para entrar en la escuela secundaria.
White Sulphur Springs no tenía escuela para niños negros y la familia Coleman estaba determinada a que sus hijos
tuvieran una educación de calidad por lo que, cada otoño, la madre de Katherine se trasladaba con sus hijos a una casa
alquilada en Institute, Condado de Kanawha, Virginia Occidental, para que sus hijos pudieran asistir a la escuela
secundaria de allí. En verano regresarían los 200 km que los separaban de White Sulphur Springs donde Joshua trabajaba
como granjero. Katherine empezó sus estudios en la Escuela Secundaria Estatal de Virginia Occidental en 1928 y se
graduó en 1932. En esta escuela, asociada al Colegio Universitario de Virginia Occidental, se había destacado en
matemáticas y tuvo como profesora de geometría a Angie Turner King quien hizo un trabajo sobresaliente al alentar a
sus alumnos y enseñarles amor por su materia. Ella fue una influencia tremenda para Katherine en la escuela secundaria
y más tarde en el Colegio Universitario de Virginia Occidental donde también enseñó. Katherine dijo que King fue (leer
referencia [14]):
... un maestra maravillosa - brillante, cuidadosa y muy rigurosa.
Katherine también se interesó en astronomía mientras estaba en la escuela secundaria. Este interés surgió desde que ella
caminara a casa cada noche con el director de la escuela quien le señalaba las estrellas y las constelaciones . Después de
graduarse en la escuela secundaria del estado de Virginia, Katherine hizo la prosecución natural al Colegio Universitario
de Virginia Occidental habiendo obtenido una beca completa que cubría matrícula, alojamiento y comida. Este colegio,
ahora convertido en la Universidad Estatal de Virginia Occidental, era una Universidad para negros, fundada en 1890
pero sólo tomó el nombre de Universidad Estatal de Virginia Occidental en 1929, tres años antes de que Katherine
iniciara allí sus estudios. Ella tenía dos años para tomar una decisión en cuanto a cuál iba ser su asignatura de interés allí
y ella sabía que sería uno entre inglés, francés y matemáticas. Fue una decisión difícil para una chica que era talentosa en
todas estas temáticas, así que finalmente decidió especializarse en dos de estos temas.
En la Universidad Estatal de Virginia Occidental tuvo como profesor de matemáticas a James Carmichael Evans (1900-1988).
Katherine explica en la referencia [14] que Evans, quien tenía una licenciatura y una maestría obtenida en el Instituto
Tecnológico de Massachusetts (MIT):
... fue uno de mis profesores de matemáticas en la Universidad - su esposa me había enseñado matemáticas
en octavo grado - y porque no tenían niños en aquel momento, me convertí en una especie de hija para
ellos. Yo siempre iba a su casa, y él era el tipo de persona que siempre estaba enseñando incluso en su
casa. Yo siempre tenía que hacer mi mejor esfuerzo, y él siempre sabía si yo no lo hacía. En aquel
momento yo estaba muy interesada en los estudios de francés y en inglés con el profesor Matthews, pero el
profesor Evans dijo: “sé lo buena que eres en francés, pero también es importante que lo seas en
matemáticas”.
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 54
Hay que tener en cuenta que el profesor Matthews mencionado en la cita anterior, era John F. Matthews quien hablaba al
menos siete idiomas.
Otro que le enseñaba matemáticas en la universidad fue Guillermo Waldron Schieffelin Claytor quien rápidamente vio su
potencial de investigación. Claytor era un matemático afroamericano quien había obtenido un doctorado con una tesis
sobre la topología del conjunto de punto en la Universidad de Pennsylvania en 1933. Katherine reconoció el esfuerzo que
Claytor puso en ayudarla a tener éxito (leer referencia [3]):
Muchos profesores te dicen que tú serías buena en esto o en aquello, pero no siempre te ayudan en esa
etapa de tu carrera. El profesor Claytor aseguraba que yo estaba preparada para ser una investigadora
matemática. ... Claytor era para sí mismo un joven profesor, y al caminar en la habitación, metía su mano
en el bolsillo y sacaba algo de tiza y continuaba la lección de ayer. Pero a veces pude ver que otros en la
clase no entendían lo que él enseñaba. Así que pedía las preguntas que me permitieran ayudarl es. Me
decía que yo sabría la respuesta, y finalmente tuve que decirle que sabía la respuesta, pero los otros
estudiantes no. Yo los podría enseñar.
Pero Claytor hizo mucho más que simplemente animarla, él hizo que tomara todos los cursos correctos y cuando se dio
cuenta que ella necesitaba tener experiencia en geometría analítica, asignatura que no ofrecía la universidad,
simplemente abrió un curso dictado por él sólo para Katherine. Ella tuvo la suerte de tener a Claytor como profesor
porque él sólo enseñó en la Universidad Estatal de Virginia Occidental desde 1934 hasta 1937. Katherine se graduó con
una licenciatura summa cum laude en 1937 con especialización tanto en matemáticas como en francés.
Después de graduarse, Katherine tomó un trabajo como profesora en una escuela primaria en Marion, Virginia. Se le dijo
que ella podía tener el trabajo si ella era capaz de enseñar matemáticas y francés, y tocar el piano. Ella viajó a esta
escuela por autobús y experimentó el racismo que era habitual en aquel momento (leer referencia [7]):
Katherine sintió que el racismo en Virginia Occidental era menos descarado que en Virginia. Como tal,
ella se sorprendió cuando en la travesía hacia Virginia desde Virginia Occidental, el autobús se detuvo en
una parada y a todas las personas negras les dijeron que se movieran hacia la parte posterior. Cuando el
conductor les dijo a todas las personas de color que debían seguir en taxis, Katherine se negó hasta que él
se lo pidió cortésmente. Una posición indicativa de la negativa de toda la vida a no ser considerada como
una igual.
Enseñó en varias escuelas en Virginia y en Virginia Occidental en los próximos dos años, pero dejó la enseñanza en 1939
cuando se casó con James Francis Goble. Los dos se habían conocido cuando eran estudiantes en la Universidad Estatal
de Virginia Occidental y tuvieron tres hijas, Constance, Joylette y Katherine. Todas las tres hijas se convirtieron en
matemáticos y profesoras. Ahora, aunque ella había dejado de enseñar cuando se casó, a Katherine la Universidad Estatal
de Virginia Occidental le solicitó si quería unirse a su programa de postgrado de matemáticas en 1940. Ella sintió que
esta reacción de la Universidad se debía a la decisión de la Corte Suprema de Justicia que en 1938 declaró que los
Estados debían proporcionar las mismas oportunidades educativas para los estadounidenses negros similares a las
ofrecidas a los blancos, ya sea mediante la creación de instituciones separadas o que les permitiera asistir a la misma
institución. Sin embargo, estaba dispuesta a tomar la oportunidad de estudios de posgrado. Lamentablemente, tuvo que
renunciar a sus estudios ya que su marido enfermó y Katherine tuvo que volver a enseñar para mantener a su familia.
En 1952 Katherine visitó a sus parientes en Newport News, Virginia y ahí se le dijo que el Comité Consultivo Nacional para la
Aeronáutica (NACA) (que más tarde se convertiría en la NASA) contrataba a mujeres matemáticos negras. En realidad habían
contratado mujeres para actuar como "contadoras" desde 1935 y, ante la escasez de mano de obra durante la II Guerra Mundial,
habían comenzado a contratar a mujeres afroamericanas. Katherine sintió que esto era una oportunidad que ella tenía que
aprovechar por lo que su familia se mudó a Newport News. Una vez allí trabajó como maestra de escuela sustituta de
matemáticas y solicitó un puesto en NACA. De hecho, recibió tanto una oferta de un puesto permanente de enseñanza y el de
un cargo en NACA en 1953, pero ella no dudó en aceptar el cargo en NACA. La salud de su esposo se deterioró y, en 1956,
murió de un tumor cerebral que, lamentablemente, era inoperable.
Cuando ella comenzó a trabajar en NACA, Katherine fue asignada a la oficina que ocupaban los ―calculistas‖ negros quienes
eran asignados a las divisiones que requirieran de sus servicios. Ella fue asignada a la División de Investigación de Vuelo y su
trabajo fue tan sobresaliente que esta división se convirtió en su lugar permanente de trabajo. Citando sus propias palabras
(léase referencia [14]):
Fuimos pioneros de la era espacial. Hemos trabajado en secreto durante cerca de tres años, a menudo sin
saber exactamente la verdad total de lo que era nuestro trabajo. ... Tenías que leer “Semana de la
aviación” para averiguar lo que habíamos hecho. Los rusos ya intentaban trasladarse al espacio en ese
momento, así que nuestros esfuerzos eran militarmente estratégicos.
En 1958 la NACA se convirtió en la NASA y todos los empleados de NACA se convirtieron en empleados de la NASA.
Katherine explicó:
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 55
Todo era tan nuevo - la idea de ir al espacio era nueva y atrevida. No había libros de texto, así que
tuvimos que escribirlos. Escribimos el primer libro de texto partiendo de cero. La gente llamaría y nos
preguntaría, “¿Qué te hace pensar que esto o aquello es posible?” y trataríamos de decirles. Creamos las
ecuaciones necesarias para rastrear un vehículo en el espacio. Tuve la suerte de que estuve trabajando con
la división que diseñaba todas las trayectorias originales, supongo que eso es lo que era porque es lo que
recuerdo.
Hasta 1958 los trabajadores negros de NACA fueron segregados. Tenían que comer separados del resto del personal
blanco y tenían baños separados de los que usaban sus colegas blancos. Sin embargo, después del cambio a la NASA,
esta segregación terminó. Aun así, todavía había discriminación contra la mujer y no se les permitía asistir a sesiones
informativas:
Estos eran hombres tan inteligentes, que sabían mucho, siempre me encantó la inteligencia y por lo que
preguntaba qué había ocurrido en las reuniones informativas - escuchaba y escuchaba y hacía preguntas.
Entonces, por supuesto, yo preguntaba porque yo no podía asistir a las mismas, y finalmente se cansaron
de lo demasiado frecuente de responder todas las preguntas que les hacía después de cada reunión de
información y me dejaron asistir a estas.
No era la única manera de discriminar a la mujer. No se les permitía poner sus nombres en sus informes de investigación:
Necesitábamos ser mujeres asertivas en aquellos días - asertivas y agresivas - y el grado en el que
teníamos que serlo dependía de dónde estabas. Yo tenía que serlo. En los primeros días de la NASA no se
les permitía a las mujeres poner sus nombres en los informes – a ninguna mujer de mi división le había
aparecido su nombre en algún informe. Estaba trabajando con Ted Skopinski y él quería irse a Houston...
pero Henry Pearson, nuestro supervisor - no simpatizaba con las mujeres – lo obligó a terminar el informe
en el que estábamos trabajando. Pero al final, Ted le dijo: “Katherine debe acabar el informe, ya que de
todos modos, ella es quien ha realizado la mayor parte del trabajo”. Así Ted dejó a Pearson sin elección;
terminé el informe y mi nombre apareció en este; fue la primera vez que el nombre de una mujer de nuestra
división aparecía en algo.
No era cualquier viejo informe. Fue Determination of Azimuth Angle at Burnout for Placing a Satellite over a Selected
Earth Position (Determinación del Ángulo de Acimut en Burnout para colocar un satélite en una posición seleccionada
de la Tierra). Contiene la teoría necesaria para el lanzamiento, seguimiento y retorno de los vehículos espaciales y fue
utilizado para el famoso vuelo espacial de Alan Shepard en mayo de 1961 y el vuelo de John Glenn en febrero de 1962.
Este documento fue el primero de 21 artículos escrito por Katherine mientras trabajaba para la NASA.
En 1959 Katherine se casó con James A. Johnson. Él había sido comisionado en 1951 como Segundo Teniente del
Ejército de los Estados Unidos y era un veterano de la Guerra de Corea. Fueron presentados por el Ministro de la Iglesia
Presbiteriana Carver Memorial de Newport News, Virginia, donde Katherine cantó en el coro .
Citando al sitio Web de la NASA (referencia [3]):
Katherine Johnson trabajó en la agencia hasta 1986, cuando ella se retiró después de 33 años de servicio.
Durante su permanencia en la NASA, Johnson recibió muchos premios. Entre ellos estaban el Premio
Órbita Lunar de la NASA y tres premios de Logros Especiales de la NASA. Ella fue nombrada Matemático
del Año en 1997 por la Asociación Nacional de Técnicos. Además de estos premios de la NASA, Johnson
ha sido honrada con un título Honoris Causa de Doctor en Derecho de la Universidad Estatal de Nueva
York y grados honorarios de Doctor en Ciencias del Colegio Universitario Capitol College de Maryland y
de la Universidad Old Dominion de Virginia.
También se menciona que la Universidad Estatal de Nueva York en Farmingdale otorgó a Johnson un doctorado
honorario el 4 de junio de 1998. En la notificación se lee:
Usted ha levantado nuestros corazones y mentes a las estrellas. Su genio en matemáticas y física ayudó a
borrar las barreras físicas y contribuyó a poner al primer astronauta estadounidense en el espacio. Usted
enfrentó las trabas impuestas por las fuerzas de la naturaleza y ayudó a lanzar a nuestro país hacia la
frontera del espacio. Por su contribución como pionera en tecnología aeroespacial y su continua búsqueda
de la excelencia en educación, la Universidad Estatal de Nueva York en Farmingdale orgullosamente
confiere a usted, Katherine Johnson, el prestigioso Doctorado en Leyes, “honoris causa”.
Johnson se retiró en 1986 y, así como disfrutaba de sus pasatiempos de jugar a las cartas, resolver rompecabezas y ver
deportes, ella también disfrutaba de viajar y hablaba sobre su carrera a los estudiantes entusiasmándolos a alcanzar su
potencial.
Johnson fue nombrada a Ex alumna Sobresaliente de la Universidad Estatal de Virginia Occidental en el año 1999. El 16
de noviembre de 2015, recibió la Medalla Presidencial de la Libertad por parte del entonces Presidente de EE. UU.,
Barack Obama. El 5 de mayo de 2016, la NASA llamó a uno de los edificios del Centro de Investigación Langley en
Hampton, Virginia, “Instalación de Investigación Computacional Katherine G. Johnson” . El Subdirector del centro de
investigación, Clayton Turner, dijo en su discurso de dedicación (leer referencia [9]):
HOMOTECIA Nº 6 – Año 19 Martes, 1º de Junio de 2021 56
Millones de personas en todo el mundo miraba el vuelo de Shepard, pero lo que no sabían en el momento
era que los cálculos que lo llevaron al espacio y de regreso al hogar con seguridad, fueron hechos por la
invitada de honor de hoy, Katherine Johnson.
En 2017 Johnson fue aún más conocida cuando se estrenó una película sobre su vida. Se titula Hidden Figures (Figuras
Ocultas).
REFERENCIAS.-
Artículos:
1. C Bolden, Katherine Johnson, the NASA Mathematician who advanced human rights with a slide rule and pencil,
Vanity Fair (August 2016).
2. C Buckley, On being a black female math wizz during the space race, The New York Times (6 September 2016).
3. H S Deiss, Katherine Johnson: A Lifetime of STEM, NASA Educational Technology Services (6 November 2013).
http://www.nasa.gov/audience/foreducators/a-lifetime-of-stem.html
4. N Feigenbaum, Inspiration From The Stars. Ex-nasa Technologist Earns Honorary Degree From Distant Admirers,
Daily Press (4 June 1998).
http://articles.dailypress.com/1998-06-04/features/9806030288_1_johnson-s-father-space-station-katherine-johnson
5. D Gutman, West Virginian of the year: Katherine G Johnson, Charleston Gazette-Mail (26 December 2015).
6. D Gutman, WV native, NASA mathematician to receive Presidential Medal, Charleston Gazette-Mail (16 November
2015).
7. J Hughes, Katherine Johnson: Space scientist, theheroinecollective.com (31 August 2015).
http://www.theheroinecollective.com/katherine-johnson-space-scientist/
8. Katherine Johnson. National Visionary, Oral History Archive, National Visionary Leadership Project.
http://www.visionaryproject.org/johnsonkatherine/
9. S Lewin, NASA Facility Dedicated to Mathematician Katherine Johnson, space.com (5 May 2016).
http://www.space.com/32805-katherine-johnson-langley-building-dedication.html
10. K Saville, What was the first computer model? - A Woman, Newport News Daily Press (14 December 1990).
11. J Sharkey, NASA dedicates facility to mathematician Katherine Johnson, spaceflightinsider.com (7 May 2016).
http://www.spaceflightinsider.com/space-flight-news/nasa-dedicates-facility-mathematician-katherine-johnson/
12. Shawnhymel, T3: Who is Katherine Johnson? An unsung hero of the Space Race earns her place among the stars,
sparkfun.com (23 August 2016).
https://www.sparkfun.com/news/2169
13. Y Smith, Katherine Johnson: The Girl Who Loved to Count, NASA Langley Research Center (24 November 2015).
http://www.nasa.gov/feature/katherine-johnson-the-girl-who-loved-to-count
14. W Warren, Katherine Coleman Goble Johnson, in Black Women Scientists in the United States (Indiana University
Press, 1999), 140-147.
Versión en español por R. Ascanio H. del artículo en inglés de J. J. O’Connor y E. F. Robertson sobre “Katherine Johnson” (Octubre 2016). Fuente: MacTutor History of Mathematics [http://www-history.mcs.st-andrews.ac.uk/Biographies/Johnson_Katherine.html].