homotecia nº 10-2010 - uc

24
Nº 10 - AÑO 8 - Valencia, 1º de Octubre de 2010 Tiraje: 100 ejemplares La relación que muy posiblemente existe entre la afectividad y la educación en matemática, conduce a un análisis sumamente interesante. Es de aceptarse que la afectividad por el aprendizaje de la matemática no sólo está referida a si le gusta o no la asignatura al estudiante. Hay una cultura escolar formada alrededor de la matemática que se vive tanto en el ambiente educativo como en el comunitario local y en el familiar, con profundas y significativas repercusiones en la sociedad. Y no es una cultura ligada solamente al kairos, lo transitorio, de instante, sino que se ha hecho permanente , en un continuo histórico muy ancestral. La matemática en Venezuela es un determinante social: todo ciudadano debe tener cierto dominio de la misma porque la sociedad crea oportunidades a las personas según un proceso que jerarquiza al ciudadano en base al nivel que puedan mostrar en el manejo del conocimiento matemático. Es decir, toda persona puede alcanzar el éxito en la satisfacción de sus aspiraciones pero es el dominio del conocimiento matemático lo que facilita este logro, permitiendo que sea más rápido o más lento. Y esta es una huella perenne,instalada” e “incrustada” en el intelecto ciudadano, creando un obstáculo epistemológico que ha enraizado una inercia paradigmática sobre su preferencia o no por la matemática, que va más allá de lo afectivo. Por otro lado, no es totalmente cierto que la matemática en su totalidad, sea la asignatura con el más alto porcentaje de aplazados a nivel nacional. Estadísticas detallan que hay zonas del país donde los más altos índices de reprobados lo tienen las asignaturas de formación social, lo que evidencia las causas de muchas de las actitudes y conductas de los discentes en los institutos educativos y fuera de los mismos. Tampoco es tan importante indagar qué siente o no el que hace matemática, es decir el matemático puro, porque además de moverse en un ambiente científico que en la práctica está alejado del medio educativo, el conocimiento matemático que produce le interesa a él mismo y más allá de ello, posiblemente a sus pares. Lo que debe preocupar es el que todo docente de matemática le de más importancia al hecho educativo que al hecho matemático. En otras palabras, lo que más le debe interesar al investigador en educación es cómo realiza el docente la transposición didáctica del conocimiento matemático, porque este sí es un elemento afectivo de la educación en matemática. Tal argumento se trae a colación porque hay investigaciones que han permitido establecer en primer lugar, que un docente de matemática puede ser excelente desde el punto de vista de cualquier evaluación que se le haga pero eso no garantiza el éxito de sus discípulos en esta asignatura. En segundo lugar, un docente de matemática puede ser del agrado de sus estudiantes, ser digno de su aprecio, establecer nexos de afectividad paternal o maternal con sus estudiantes basado en el respeto de la condición humana de sus discípulos y aún así, se produce el fracaso de éstos en el aprendizaje de la matemática. La discusión queda abierta. R R i i c c h h a a r r d d C C o o u u r r a a n n t t Nació el 8 de enero de 1888 en Lublinitz, Alemania, pero hoy en día con el nombre de Lubliniec está ubicada en Polonia; y falleció el 27 de enero de 1972 en New Rochelle, New York, Estados Unidos. RICHARD COURANT (1888-1972) Richard Courant. Su padre fue Siegmund Courant y su madre era Martha Freund. Richard fue el mayor de los hijos de Siegmund y Martha. Provenían de una familia judía con gran tensión entre sus miembros, sobre todo entre Siegmund y su hermano mayor Jakob. Después del nacimiento de su segundo hijo, Siegmund vendió su participación en la empresa familiar en Lublinitz, utilizando el dinero de la venta para comprar un negocio en Glatz. Un tercer hijo nació en el año en que se trasladó a Glatz. Cuando Richard tenía nueve su familia se mudó de nuevo, esta vez a Breslau. Su padre Siegmund confrontaba problemas, ya que había decidido comprar otra empresa pero su hermano Jakob lo persuadió que rompiera el contrato y se trasladara a Breslau. Siegmund trabajó para una compañía de seguros en Breslau y Richard asistió a la escuela de la localidad, el Gymnasium (Liceo) König-Wilhelm. Por una deficiente educación previa, Richard tuvo que esforzarse en la escuela en los primeros momentos, donde incluso su rendimiento en aritmética fue "menos que satisfactorio". Cuando Richard tenía catorce años comenzó a desempeñarse como tutor (maestro de clases particulares) con la finalidad de ganarse un dinero que le permitiera ayudarse a sí mismo. Poco después la tragedia golpeó a la familia cuando Jakob, el hermano mayor de su padre, se suicidó por tener graves dificultades empresariales. Otros miembros de la familia culparon a los padres de Richard de este hecho. (CONTINÚA EN LA SIGUIENTE PÁGINA) Revista HOMOTECIA © Rafael Ascanio H. – 2009 Hecho el Depósito de Ley. Depósito Legal: PP200902CA3088 e-mail: [email protected] Publicación Mensual Distribución Gratuita Publicada por: CÁTEDRA DE CÁLCULO DEPARTAMENTO DE MATEMÁTICA Y FÍSICA FACULTAD DE CIENCIAS DE LA EDUCACIÓN UNIVERSIDAD DE CARABOBO DIRECTOR–EDITOR: Prof. Rafael Ascanio Hernández SUB-DIRECTOR: Prof. Próspero González Méndez COORDINADORES DE PUBLICACIÓN: Prof. Rafael Ascanio Hernández Prof. Próspero González Méndez COMISIÓN ARCHIVO Y REGISTRO HISTÓRICO Prof. María del Carmen Padrón Prof. Zoraida Villegas Prof. Ivel Páez COMISIÓN REVISORA DE MATERIAL A PUBLICAR: Prof. Elda Rosa Talavera de V. Prof. Omaira Naveda de F. Prof. José Tadeo Morales Reflexiones "Las cosas son percibidas, los conceptos son pensados, los valores son sentidos". Max Scheler LAS IDEAS Y OPINIONES DE LOS AUTORES DE LOS ARTÍCULOS QUE PUBLICAMOS EN HOMOTECIA SON RESPONSABILIDAD DE LOS MISMOS. SI ALGÚN LECTOR TIENE OBJECIONES SOBRE ÉSTAS, AGRADECEMOS NOS HAGA LLEGAR A TRAVÉS DE NUESTRA DIRECCIÓN ELECTRÓNICA, [email protected], SUS COMENTARIOS. H H O O M M O O T T E E C C I I A A

Upload: others

Post on 29-Jun-2022

5 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: HOMOTECIA Nº 10-2010 - UC

Nº 10 - AÑO 8 - Valencia, 1º de Octubre de 2010 Tiraje: 100 ejemplares

La relación que muy posiblemente existe entre la afectividad y la educación en matemática, conduce a un análisis sumamente interesante. Es de aceptarse que la afectividad por el aprendizaje de la matemática no sólo está referida a si le gusta o no la asignatura al estudiante. Hay una cultura escolar formada alrededor de la matemática que se vive tanto en el ambiente educativo como en el comunitario local y en el familiar, con profundas y significativas repercusiones en la sociedad. Y no es una cultura ligada solamente al kairos, lo transitorio, de instante, sino que se ha hecho permanente, en un continuo histórico muy ancestral. La matemática en Venezuela es un determinante social: todo ciudadano debe tener cierto dominio de la misma porque la sociedad crea oportunidades a las personas según un proceso que jerarquiza al ciudadano en base al nivel que puedan mostrar en el manejo del conocimiento matemático. Es decir, toda persona puede alcanzar el éxito en la satisfacción de sus aspiraciones pero es el dominio del conocimiento matemático lo que facilita este logro, permitiendo que sea más rápido o más lento. Y esta es una huella perenne,” instalada” e “incrustada” en el intelecto ciudadano, creando un obstáculo epistemológico que ha enraizado una inercia paradigmática sobre su preferencia o no por la matemática, que va más allá de lo afectivo. Por otro lado, no es totalmente cierto que la matemática en su totalidad, sea la asignatura con el más alto porcentaje de aplazados a nivel nacional. Estadísticas detallan que hay zonas del país donde los más altos índices de reprobados lo tienen las asignaturas de formación social, lo que evidencia las causas de muchas de las actitudes y conductas de los discentes en los institutos educativos y fuera de los mismos. Tampoco es tan importante indagar qué siente o no el que hace matemática, es decir el matemático puro, porque además de moverse en un ambiente científico que en la práctica está alejado del medio educativo, el conocimiento matemático que produce le interesa a él mismo y más allá de ello, posiblemente a sus pares. Lo que debe preocupar es el que todo docente de matemática le de más importancia al hecho educativo que al hecho matemático. En otras palabras, lo que más le debe interesar al investigador en educación es cómo realiza el docente la transposición didáctica del conocimiento matemático, porque este sí es un elemento afectivo de la educación en matemática. Tal argumento se trae a colación porque hay investigaciones que han permitido establecer en primer lugar, que un docente de matemática puede ser excelente desde el punto de vista de cualquier evaluación que se le haga pero eso no garantiza el éxito de sus discípulos en esta asignatura. En segundo lugar, un docente de matemática puede ser del agrado de sus estudiantes, ser digno de su aprecio, establecer nexos de afectividad paternal o maternal con sus estudiantes basado en el respeto de la condición humana de sus discípulos y aún así, se produce el fracaso de éstos en el aprendizaje de la matemática. La discusión queda abierta.

RRiicchhaarrdd CCoouurraanntt Nació el 8 de enero de 1888 en

Lublinitz, Alemania, pero hoy en día con el nombre de Lubliniec está

ubicada en Polonia; y falleció el 27 de enero de 1972 en New Rochelle,

New York, Estados Unidos.

RICHARD COURANT

(1888-1972)

Richard Courant. Su padre fue Siegmund Courant y su madre era Martha Freund. Richard fue el mayor de los hijos de Siegmund y Martha. Provenían de una familia judía con gran tensión entre sus miembros, sobre todo entre Siegmund y su hermano mayor Jakob. Después del nacimiento de su segundo hijo, Siegmund vendió su participación en la empresa familiar en Lublinitz, utilizando el dinero de la venta para comprar un negocio en Glatz. Un tercer hijo nació en el año en que se trasladó a Glatz.

Cuando Richard tenía nueve su familia se mudó de nuevo, esta vez a Breslau. Su padre Siegmund confrontaba problemas, ya que había decidido comprar otra empresa pero su hermano Jakob lo persuadió que rompiera el contrato y se trasladara a Breslau. Siegmund trabajó para una compañía de seguros en Breslau y Richard asistió a la escuela de la localidad, el Gymnasium (Liceo) König-Wilhelm. Por una deficiente educación previa, Richard tuvo que esforzarse en la escuela en los primeros momentos, donde incluso su rendimiento en aritmética fue "menos que satisfactorio".

Cuando Richard tenía catorce años comenzó a desempeñarse como tutor (maestro de clases particulares) con la finalidad de ganarse un dinero que le permitiera ayudarse a sí mismo.

Poco después la tragedia golpeó a la familia cuando Jakob, el hermano mayor de su padre, se suicidó por tener graves dificultades empresariales. Otros miembros de la familia culparon a los padres de Richard de este hecho.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

RReevviissttaa HHOOMMOOTTEECCIIAA

© Rafael Ascanio H. – 2009 Hecho el Depósito de Ley.

Depósito Legal: PP200902CA3088

e-mail: [email protected]

Publicación Mensual DDiissttrriibbuucciióónn GGrraattuuiittaa

PPuubblliiccaaddaa ppoorr::

CCÁÁTTEEDDRRAA DDEE CCÁÁLLCCUULLOO

DDEEPPAARRTTAAMMEENNTTOO DDEE MMAATTEEMMÁÁTTIICCAA YY FFÍÍSSIICCAA

FACULTAD DE CIENCIAS DE LA EDUCACIÓN UNIVERSIDAD DE CARABOBO

DIRECTOR–EDITOR:

Prof. Rafael Ascanio Hernández

SUB-DIRECTOR: Prof. Próspero González Méndez

COORDINADORES DE PUBLICACIÓN:

Prof. Rafael Ascanio Hernández Prof. Próspero González Méndez

COMISIÓN

ARCHIVO Y REGISTRO HISTÓRICO

Prof. María del Carmen Padrón Prof. Zoraida Villegas

Prof. Ivel Páez

COMISIÓN REVISORA DE MATERIAL A PUBLICAR:

Prof. Elda Rosa Talavera de V. Prof. Omaira Naveda de F. Prof. José Tadeo Morales

Reflexiones "Las cosas son percibidas, los conceptos son pensados, los valores son sentidos".

Max Scheler

LAS IDEAS Y OPINIONES DE LOS AUTORES DE LOS ARTÍCULOS QUE PUBLICAMOS EN HOMOTECIA SON RESPONSABILIDAD DE LOS MISMOS. SI ALGÚN LECTOR TIENE OBJECIONES SOBRE ÉSTAS, AGRADECEMOS NOS HAGA LLEGAR A TRAVÉS DE NUESTRA DIRECCIÓN ELECTRÓNICA, [email protected], SUS COMENTARIOS.

HHOOMMOOTTEECCIIAA

Page 2: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

2

(VIENE DE LA PÁGINA ANTERIOR)

Poco después Siegmund se declaró en quiebra y los siguientes dos años fueron de extrema dificultad para Richard, que seguía asistiendo a la escuela y sólo con el apoyo que le proporcionaban las tutorías. En 1904 los padres de Richard partieron de Breslau hacia Berlín. Pero Richard ganaba lo suficiente para mantenerse a sí mismo, manteniéndose en Breslau, donde incluso pudo alquilar un alojamiento.

A pesar que aún no había aprobado los exámenes necesarios para entrar en la universidad, Richard dejó la escuela en 1905 y asistió a clases de matemáticas y física en la Universidad de Breslau. En 1906 se aprobó su ingreso a esta universidad, y la autorización para continuar los exámenes respectivos, pero ahora como estudiante oficial de la misma. Aunque su intención original era estudiar física, Courant encontró su enseñanza menos satisfactoria que en las matemáticas. Adolf Kneser, Landsberg y Georg Jakob Rosanes se encontraban entre sus maestros de matemáticas, pero todavía Courant encontró que, para él, sus cursos carecían de emoción.

Courant coincidió en Breslau con Otto Toeplitz y a Ernst Hellinger. Estos, varios años mayores que Courant y más adelantados educativamente, habían continuado sus estudios en Gotinga y le escribieron a Courant diciéndole lo emocionante que era estar ahí, sobre todo por la presencia del gran matemático Hilbert. En la primavera de 1907 Courant partió hacia Breslau, pasó un semestre en Zurich, y luego comenzó sus estudios en Gotinga, el 1º de noviembre de 1907.

En Gotinga, Courant comenzó asistiendo a los cursos de Hilbert y Minkowski; también se le permitió asistir a los seminarios conjuntos de los dos matemáticos en física matemática. También asistió a conferencias sobre física y filosofía. Haar era en ese momento el asistente de Hilbert pero terminó su trabajo doctoral en 1908 y lo que llevó a Courant en ese año a convertirse en el asistente de Hilbert. Reid escribió:

Durante los cuatro semestres que Courant sirvió como asistente de Hilbert, Hilbert se dedicó casi exclusivamente a temas de análisis... Courant tomó para sí el análisis como si se tratara de su elemento natural. Todos los temas matemáticos que trataría en sus futuros trabajos, los inició cuando era estudiante de Hilbert.

Courant obtuvo su doctorado en Gotinga en 1910 bajo la supervisión de Hilbert. Su tesis se tituló Über die Anwendung des Dirichletschen Prinzipes auf die Probleme der konformen Abbildung (Sobre la aplicación del Principio de Dirichlet a los problemas de conformación cartográfica). A fines de 1910 comenzó su año de servicio militar obligatorio. Hensel le ofreció un lugar de trabajo en Marburgo para su habilitación, lo que habría aceptado de no haber recibido una oferta de Hilbert para hacerlo en Gotinga. Aceptó la oferta de Hilbert pero terminado el servicio militar tuvo algunos problemas financieros ya que al enviar un subsidio económico a sus padres en Berlín, sus ingresos eran insuficientes. Courant comenzó nuevamente con las tutorías para mejorar sus finanzas.

Para su tesis de habilitación Courant trabajó de nuevo en el principio de Dirichlet. Al ser aceptada su tesis, dio su conferencia inaugural Sobre la existencia en las pruebas de matemáticas el 23 de febrero de 1912. A continuación, pasó a ser profesor de matemáticas en Gotinga hasta el comienzo de la Primera Guerra Mundial, pero este no fue para él un período especialmente productivo en matemática. Él se había casado con Nelly Neumann en el verano de 1912, una amiga de sus días en Breslau que también era una matemática.

Cuando la guerra estalló Courant se reclutó en el ejército. Antes de ver acción se enfermó gravemente con fiebre tifoidea. Regresó a su unidad y participó en una lucha donde vio morir a por lo menos la mitad de sus compañeros soldados. Sugirió entonces, la necesidad de diseñar un sistema telegráfico que utilizara la tierra como conductor por lo que se le permitió regresar a Gotinga para discutir la idea. En Gotinga su idea fue puesta en práctica y fue producida una caja para transmitir señales. Courant regresó a su unidad con su caja de comunicaciones.

El 27 Septiembre 1915 Courant fue herido y recibió la licencia. Poco después se divorció de Nelly Neumann. Aunque Courant regresó al frente, no es una exageración afirmar que el equipo de comunicación que diseñó le salvó la vida, puesto que su tiempo lo dedicó a enseñarles a los hombres como usarlo y así evitó lo peor de los combates. Courant encontró tiempo para continuar con su investigación matemática. Cuando Springer comenzó la nueva revista Mathematische Zeitschrift en enero de 1918, uno de los documentos de Courant, escrito mientras estaba en el ejército, apareció en la misma.

Después de la guerra, en diciembre de 1918, Courant regresó a Gotinga. Se casó con Nerina Runge, hija de Carle Runge, el 22 de enero de 1919 y un par de meses más tarde comenzó a enseñar como docente particular en Gotinga. Este fue un período de intensa actividad de investigación para Courant. En la primavera de 1920 acepta la cátedra de matemáticas en Münster, cuando se jubiló Killing. Sin embargo, después de unos meses Hilbert y Klein prepararon su regreso a Gotinga para sustituir Hecke que había ido a Hamburgo.

En 1922 Courant fundó el Instituto de Matemáticas de la universidad, pero en este momento fue sólo una formalidad ya que el edificio para su funcionamiento se construyó después de 1927. También en 1922 Courant publicó un libro sobre teoría de funciones. Se trató de una publicación conjunta con Hurwitz, aunque Hurwitz había muerto en 1919. Sobre la base de las conferencias de Hurwitz, Courant añadió un material propio. Algunas personas tales como Kellogg se mostraron disgustadas por la forma como tuvo origen el libro. Sin embargo, Friedrichs que era estudiante para ese momento escribió:

... la sección Courant, el tercer capítulo - cuando llegué a ese capítulo, empecé a leerlo en la mañana, lo leí toda la mañana y en la noche sin parar. Es el libro más impresionante que jamás he leído en matemáticas.

En este tiempo Courant publicó en conjunto con importantes matemáticos. En 1924 publicó, junto con Hilbert, un texto importante Methoden der mathematischen Physik. En realidad, Courant fue el único autor y la contribución de Hilbert se limitó a realizar acotaciones pertinentes. En este momento los intereses de Hilbert se habían trasladado fuera de la física matemática y no era mucho su interés por lo tratado por Courant en el texto. En 1925, con Friedrichs como su ayudante, Courant comenzó a trabajar en el segundo volumen del texto llamado Courant-Hilbert.

En 1928 el edifico del nuevo Instituto de Matemáticas, que comenzó a construirse el año anterior, estaba por concluirse. Fue formalmente inaugurado el 2 de diciembre de 1929.

Courant en 1932 fue invitado para disertar en los Estados Unidos, aprovechando de visitar las principales universidades.

Courant fue expulsado de Gotinga cuando los nazis llegaron al poder en 1933. El 30 de enero de 1933 Hitler llegó al poder y en marzo Courant partió de Gotinga para sus vacaciones de primavera en Arosa, Suiza. Había esperado no sólo tener unas vacaciones, sino también completar el segundo volumen Courant-Hilbert cuando no estuviera ejerciendo sus funciones en el Instituto de Matemáticas. Friedrichs fue con Courant para ayudarlo con el libro. Los acontecimientos políticos cambiaron sus planes, sin embargo, volvió a Gotinga a principios de abril por consejo de los miembros del Instituto.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 3: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

3

(VIENE DE LA PÁGINA ANTERIOR)

El 7 de abril de 1933 la Ley de Administración Pública proporcionó los medios para eliminar a los maestros judíos de las universidades y, por supuesto, también para eliminar los de descendencia judía de otras funciones. Todos los funcionarios públicos que no eran de ascendencia aria (tener un abuelo de religión judía hacía a la persona no aria) fueron jubilados. Sin embargo, hubo una cláusula de exención para aquellos no arios que habían luchado para Alemania en la Primera Guerra Mundial I. Courant por la cláusula de exención, no resultó afectado.

El 5 de mayo Courant recibió una carta oficial cuyo contenido lo forzaba a una licencia. Weyl fue hecho director del Instituto de Matemática e hizo todo lo posible para reinstalar a Courant. Mientras tanto, se le ofreció a Courant puestos en otros lugares. Se le ofreció un puesto en Estambul, tomándose suficiente tiempo para reflexionar un posible viaje a ese lugar, pero al final desistió de ello. Fue invitado a Cambridge en Inglaterra para una visita de un año, solicitó licencia lo que no tenía por qué hacerlo ya que estaba en licencia forzosa. Su licencia forzosa fue cambiada por una común y Courant partió a Inglaterra y de ahí va a la Universidad de Nueva York el año siguiente.

Los primeros meses en Nueva York fueron difíciles. Fue mal pagado, no había matemáticos de calidad en el personal y los estudiantes a los que enseñaba los encontró muy mal preparado. Sin embargo, el invitó a tantos matemáticos como le fue posible para dar conferencias en ese país. En junio de 1935 se ofreció un puesto permanente y se sugirió que implantara un curso de posgrado de alto nivel. En 1936 le ofrecieron una cátedra en la Universidad de Nueva York y se dio a la tarea de formar un centro de posgrado. Una vez más tuvo éxito con la significativa colaboración de sus alumnos. También se llevó bien con los administradores de los centros educativos y con las instituciones financieras que dieron su apoyo para que el proyecto resultara un éxito.

Courant construyó un centro de investigación para matemática aplicada en Nueva York, basado en el modelo de Gotinga. Muchos matemáticos que se vieron obligados a abandonar Alemania en los años previos al comienzo de la Segunda Guerra Mundial, recibieron ayuda de Courant para obtener posiciones en los Estados Unidos.

Entre 1940 y 1941 trabajó en un nuevo libro con Herbert Robbins, un joven topólogo de Harvard. Este libro es ¿Qué son las matemáticas?, y en se registran las opiniones de Courant sobre las matemáticas. Su objetivo, como escribe en el Prefacio, es formar al lector:

... sobre una recta de la carretera se pueden avizorar muchos elementos desde los cuales la sustancia y la fuerza motriz de la moderna matemática puede ser investigada.

El libro fue un gran éxito tanto en términos de ventas y comentarios.

Quizás uno de las más famosas piezas de matemática de Courant de todo este tiempo fue su "método de elemento finito". De hecho este método apareció por primera vez en una prueba de existencia de una versión del el teorema de cartografía de Riemann en el libro Hurwitz-Courant de 1922.

PORTADA Y CONTRAPORTADA DEL LIBRO ¿Qué son las Matemáticas?

FONDO DE CULTURA ECONÓMICA – MÉXICO – 2002

La idea apareció de nuevo como una nota a pie de página en una publicación Courant-Hilbert, Methoden der mathematischen Physik, de 1924. La primera aplicación como un método numérico, sin embargo, se dio por Courant en 1943 en su solución de un problema de torsión. El nombre de "elementos finitos" no se le debe a Courant, pues tal nombre se le asigna en el decenio de 1960.

Desde 1947 hasta su muerte Courant visitó Alemania casi todos los veranos. Nunca consideró regresar en forma definitiva, pues ya consideraba su residencia permanente a los Estados Unidos. De 1953 a 1958 fue director de su nuevo Instituto de Ciencias Matemáticas en la Universidad de Nueva York, que en 1964 fue nombrado Instituto Courant. Es justo decir fue un logro mucho mayor para Courant que el Instituto de Matemáticas de Gotinga. En Gotinga llegó a un lugar lleno de matemáticos de gran talento. En Nueva York comenzó con nada, después de experimentar casi la destrucción de su Instituto de Gotinga por las políticas raciales de los nazis. Ser capaz de crear el Instituto Courant a partir de la nada fue un logro bastante fenomenal.

Sufrió un derrame cerebral el 19 de noviembre de 1971; fue llevado al hospital en New Rochelle, donde falleció dos meses más tarde.

Versión en español del artículo en inglés de: J. J. O'Connor y E. F. Robertson

Page 4: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

4

Aportes al conocimiento

LLaa ccoonnssttrruucccciióónn ddeell ccoonncceeppttoo ddee nnúúmmeerroo nnaattuurraall..

Los niveles del pensamiento infantil en el concepto de número.-

Reflexionemos: Contar verbalmente es una de las primeras ideas de número que aprenden los niños. Muchos niños impresionan por su capacidad verbal de contar. ¿Tienen estos niños algún concepto de número? ¿Qué clase de pensamiento se requiere para contar en voz alta?

¿Qué tienen de común estas gráficas de perros y naranjas? Piense en cómo un niño pequeño llegaría a dar una respuesta correcta.

IMÁGENES: Recopilación propia.

Los niños pequeños que conocen los nombres de los números rara vez comprenden su significado. Aunque pueden pronunciarlos en orden correcto, generalmente tienen dificultad para asignarlos acertadamente a un conjunto de objetos. Veamos el siguiente ejemplo:

FUENTE: Ed Labinowicz (1987). Introducción a Piaget. Pensamiento. Aprendizaje. Enseñanza. (P. 98). México: Addison-Wesley Iberoamericana.

En la segunda actividad asocia el nombre del número con cada objeto, pero no comprende la necesidad lógica de incluir en un conjunto los objetos previamente contados.

Un adulto puede engañarse con la respuesta “correcta” de la primera actividad, pero si en vez de “números” se utilizan nombres para señalar a los frijoles: “Jorge, Raúl, Ana, Belén, Saúl”, posiblemente al preguntarle a la niña “cuántos” hay, responderá “Saúl” (comentario especulativo).

Conclusiones:

Recitar los nombres de los números en orden es a la matemática lo que una repetición de las letras del alfabeto es a la lectura. El hecho de “nombrar” las letras no implica que se sepa leer.

Un número es algo más que un nombre. Un número expresa una relación. Las relaciones no existen en los objetos reales. Las relaciones son abstracciones; un escalón sacado de la realidad física. Las relaciones son construcciones de la mente impuestas sobre los objetos.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 5: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

5

(VIENE DE LA PÁGINA ANTERIOR)

Sobre Piaget:

Piaget se interesó más allá de los procesos mecánicos del conteo verbal, de las sumas y de las multiplicaciones. Estudió una clase de habilidad numérica que es más sutil y más básica que los estudios numéricos hallados en la mayoría de los salones de clase de primaria. Su amplia preparación le ayudó a descubrir un desarrollo simultáneo de ideas lógicas sobrepuestas que influyen en la noción de número en el niño: La equivalencia a través de una correspondencia uno-a-uno (formar parejas), conservación del número (apreciar la equivalencia en cuanto a la misma cantidad de elementos de dos conjuntos distintos), seriación (ordenar por una característica), inclusión de clase (adición). (Labinowicz, 1987. “Introducción a Piaget. Pensamiento. Aprendizaje. Enseñanza”. P. 99).

JEAN PIAGET

(*NEUCHÂTEL, SUIZA, 1896-†GINEBRA, 1980)

Concepto de número.-

Noción intuitiva de número natural.-

El concepto de número natural es uno de los primeros conceptos matemáticos creación del hombre. Al haber en la naturaleza varios objetos de un mismo tipo, la primera inquietud del hombre fue clasificarlos y luego enumerarlos; así, de esta doble abstracción, orden y naturaleza de los elementos de una colección, nace el concepto de número abstracto, inicio del desarrollo posterior hasta nuestros días de la matemática.

Pero no basta reconocer al conjunto de los números naturales como: { }K3,

2,

1,

0,

=NNNN porque de igual manera

se pueden presentar como { } { } { }LKKK ,,1,0,2,3,3,2,0,1 === 3,

2,

1,

0,

NNNN Si los números naturales son ordenados en

la sucesión 0,1,2,3,…, cumplen con los Axiomas de Peano, desarrollados por el matemático italiano Giuseppe Peano (1858-1932).

Axiomas de Peano:

A1: El cero es un número natural.

A2: A todo número natural n, podemos hacer corresponder otro número natural único que denominaremos “siguiente de n” y lo denotaremos “sg n”.

A3: El cero no es siguiente de número natural alguno.

A4: Si dos números tienen el mismo siguiente, son iguales.

A5: Axioma de recurrencia: Sea A un subconjunto del conjunto N de los números naturales, tal que el número cero está en A y cada vez que el número n está en A, también lo está sg n. Entonces A coincide con el conjunto N de todos los números naturales.

Interpretación de los Axiomas de Peano:

A1 define un número natural, el cero; luego N es un conjunto no vacío.

A2 establece el “procedimiento” general de construcción del conjunto de los números naturales a partir del cero (todos y cada uno de los números naturales). Por esto, la necesidad de ordenar a los números naturales a partir del cero.

A3 hace ver que no hay ningún número natural “anterior” al cero. El cero es el “menor” número natural.

A4 señala que un número natural 0≠x es el siguiente de un solo número natural.

A5 permite afirmar que todo conjunto de números naturales que incluya al cero y cumpla con A2, es el mismo conjunto N de los números naturales.

Interpretación metodológica de A5:

Sea A, el conjunto de los números naturales para los cuales una propiedad p es verdadera y supongamos que hemos establecido las dos proposiciones siguientes:

1. La propiedad p es verdadera para el número cero.

2. La propiedad p es verdadera para el número natural n implica que p es verdadera para el sg n.

Afirmamos entonces por A5 que “la propiedad p es verdadera para todos los números naturales”.

La hipótesis “p es verdadera para el número natural n”, se denomina hipótesis de recurrencia.

Los axiomas A1, A2, A3 y A4 permiten la construcción del conjunto de los números naturales y el axioma A5

proporciona el instrumento lógico para el razonamiento denominado Inducción o Recurrencia en el conjunto N.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 6: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

6

(VIENE DE LA PÁGINA ANTERIOR)

Ejemplos.-

1.- Comprobar que )sin:(,41:)( **2 ceroelnaturalesNNnprimonúmeronnnP ∈∀=+−

Comprobando: Por simple inspección:

Valores de n Operación / Resultado Cumple condición: 1 12-1+41=1-1+41=41 Si 2 22-2+41=4-2+41=43 Si 3 32-3+41=9-3+41=47 Si 4 42-4+41=16-4+41=53 Si 5 52-5+41=25-5+41=61 Si

Aparentemente, con estos primeros valores la proposición parece ser verdadera y es posible que con otros valores siguientes se siga cumpliendo la condición; pero si se encuentra uno y solo un valor que no cumpla, entonces la proposición es falsa y no se puede generalizar. Tomemos otros valores:

Valores de n Operación / Resultado Cumple condición: 40 402-40+41=1600-40+41=1601 Si 41 412-41+41=1781-41+41=1781 No

Con el valor n = 41 no cumple porque el resultado no es primo (tiene tres divisores: 1, 41 y 1781). Entonces la proposición es falsa y no se puede generalizar. 2.- Comprobar: *,)12(...531 2 Nnnn ∈∀=−++++ .

Comprobando:

Elementos a considerar:

{ }.)(/

.,)12(...531:)(*

*2

verdaderoesnPNnA

NnnnnP

∈=

∈=−++++

Parte 1: Demostrar que A∈1 .

Esta parte corresponde a demostrar que la proposición se cumple para 1=n :

A

P

∈⇒==−

=−

111

112

111.2:)1( 2

Parte 2: Demostrar que A es inductivo [ ]AkAk ∈+⇒∈ )1(

Proposición que se acepta como verdadera: 2)12(...531:)( kkkP =−++++

Proposición a comprobar que es verdadera:

[ ] 22 )1()12()12(...531:)1()1(1)1(2)12(...531:)1( +=++−+++++⇒+=−++−+++++ kkkkPkkkkP

Para comprobar que )1( +kP es verdadera hay que partir de )(kP . Para ello hay que comparar ambas expresiones y

determinar similitudes. Comparando )1( +kP con )(kP resulta que:

)1( +kP = )(kP + )12( +k

Es decir que podemos llegar a )1( +kP partiendo de )(kP si a )(kP le adicionamos )12( +k .

Procedamos:

)1()1()12()12(...531

12)12()12(...531

)12()12()12(...531

)12(...531)(

2

2

2

2

+⇒+=++−++++++=++−++++++=++−++++

=−++++⇒

kpkkk

kkkk

kkkk

kkkp

Al obtener )1( +kP a partir de )(kP se admite que )1( +kP es verdadero (porque vv→ ).

Por lo tanto, como AkAk ∈+⇒∈ )1( y inductivo.esA .

Conclusión: Como S es inductivo contiene a todos los enteros positivos, es decir *NS= . Se puede afirmar entonces, que:

Es verdadera *2 ,)12(...531)( NnnnnP ∈∀=−++++=

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 7: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

7

(VIENE DE LA PÁGINA ANTERIOR)

3.- Dada la expresión ( ) pp ada 10110 ⋅+<≤⋅ , determinar el número entero “a” que verifica la expresión

para d=712,4 y p=2.

Solución:

En la expresión dada, sustituimos los valores indicados: ( ) 22 1014,71210 ⋅+<≤⋅ aa

Buscando obtener el valor de “a”, multiplicamos la desigualdad por 10-2:

( )1104,712

10101104,71210102

22222

+<⋅≤⋅⋅+<⋅≤⋅⋅

−−−

aa

aa

Como “a” es un número entero, “a+1” también lo será; entonces “a” debe ser igual a la parte entera de 2104,712 −⋅ :

7124,7124,7104,712 2 =→=⋅ − deenteraParte .

Luego:

( )

8004,712700

1084,71210.7

1014,7121022

22

<≤⋅<≤

⋅+<≤⋅ aa

Para reflexionar.-

1.- Se citó antes: “El concepto de número natural es uno de los primeros conceptos matemáticos creación del hombre. Al haber en la naturaleza varios objetos de un mismo tipo, la primera inquietud del hombre era clasificarlos y luego enumerarlos”. Con base en esta cita, como número natural ¿qué representa el cero? ¿Llegaría a la misma conclusión que UD un niño de siete años o menos? ¿A qué edad de su vida cree UD que una persona llegue a la misma conclusión?

Reflexión: Posiblemente para la mayoría de las personas “cero” significa “carencia de algo”, “ausencia de algo”, y desde un punto de vista práctico, significa “situación que ocurre cuando un algo se va agotando hasta acabarse”. Posiblemente un niño de siete años o menos no llegue a conclusiones similares pero si se considera que puede ser escolarizado desde esa edad, más que representar al “cero” con el símbolo acostumbrado, la experiencia en el medio escolar unido a su entorno vivencial le permitiría alcanzar en menor tiempo este significado del “cero”.

2.- Es falso que los axiomas de Peano aseguren que:

a) N∈0 .

b) Dado que ,Nn∈ se cumple que: sg n=n.

c) Si se tiene que sg n = sg m, entonces n=m.

Reflexión: Al revisar los axiomas de Peano, la primera y la tercera alternativas resultan verdaderas; la segunda no.

3.- ¿Cuál de las siguientes proposiciones no es verdadera?

a) (sg 17)� (sg 9)=180 b) (sg 3) – (sg 2)= sg 0 c) El siguiente del siguiente de la unidad es el número cuatro.

Reflexión: Si se revisan nuevamente los axiomas de Peano, se puede determinar que la alternativa (c) no es verdadera. El detalle que se debe resaltar acá es este: las dos primeras resultan verdaderas. Si a esto une la experiencia con el ejemplo anterior, la persona inferirá que dadas dos primeras alternativas correctas entre tres, la tercera debe ser la incorrecta; así en el caso de este ejemplo, por descarte y sin revisar, admitirá que la siguiente y última es falsa, acertando en esta oportunidad.

3.- ¿Cuál de los siguientes enunciados es falso?:

a) Todo número natural tiene otro número natural siguiente a él. b) Dos naturales distintos no tienen el mismo natural siguiente. c) (sg 2) = (sg 0)+ (sg 1)

Reflexión: Las dos primeras resultan correctas; por descarte la persona, sin revisar, admitiría que la tercera y última es incorrecta, pero resulta que no es así y falla. Si toma conciencia de esta experiencia, en la próxima oportunidad tendrá mayor cuidado.

Como reflexión final: ¿Hasta cuál edad de nuestros alumnos es válido informarles solamente que los números naturales los usamos para contar? ¿A cuál edad debería hacérsele conocer la Axiomática de Peano y todo lo que ésta involucra?

RR.. AA.. HH..

Page 8: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

8

Discusiones de Postgrado

EEPPIISSTTEEMMOOLLOOGGÍÍAA DDEE LLAA EEDDUUCCAACCIIÓÓNN MMAATTEEMMÁÁTTIICCAA..

Siguiendo con las discusiones durante el periodo lectivo 1-2009 (enero-abril) en “Epistemología de la Educación Matemática”, que como señalamos en números anteriores, es una asignatura conducente de la Maestría en Educación Matemática, ofertada por la Dirección de Estudios de Postgrado de la Facultad de Ciencias de la Educación de la Universidad de Carabobo, siendo el propósito de incluirla en estos estudios el fortalecer los fundamentos filosóficos y epistemológicos en el docente durante sus estudios de cuarto nivel, tanto en la matemática dimensionada ciencia en sí como sobre el conocimiento propio de su ejercicio profesional, después de haber leído y discutido los libros “La Epistemología” de Robert Blanché (1973) y “Epistemología de la Matemática” de Jean Piaget (1979), tocó en la siguiente oportunidad trabajar con: “La epistemología del profesor sobre su propio conocimiento profesional” de Gerardo Perafán (2004).

Este libro viene a ser la Tesis Doctoral de Gerardo Andrés Perafán Echeverri para optar al título de Doctor en Educación de la Universidad Pedagógica Nacional de Colombia, y consiste en la realización bajo los principios de la investigación interpretativa, de un estudio sobre fundamentos epistemológicos de los procesos de pensamiento del profesor en ciencias y del conocimiento que transfiere a sus estudiantes en el aula.

Elaborados por parte de los participantes los ensayos pensatorios conclusivos correspondientes, se realizó una selección de un cierto número de ellos para publicarlos en nuestra Revista HOMOTECIA, previa solicitud a los autores, con características similares a artículos de opinión, lo cual comenzamos a realizar en números anteriores.

A continuación presentamos el siguiente de ellos, cuya autora es la participante Maira Clemente.

LLAA EEPPIISSTTEEMMOOLLOOGGÍÍAA DDEELL PPRROOFFEESSOORR SSOOBBRREE SSUU PPRROOPPIIOO CCOONNOOCCIIMMIIEENNTTOO PPRROOFFEESSIIOONNAALL..

Por: MAIRA CLEMENTE C. I. Nº: 13.395.052

“La epistemología del profesor sobre su propio conocimiento profesional” es un trabajo realizado por el doctor Gerardo Perafán, bajo un enfoque de investigación interpretativa, y es aquí donde surge la primera duda de la lectura ¿Qué es una investigación interpretativa? El autor la define como el estudio de los fenómenos desde la perspectiva de los sujetos, con interés en conocer cómo las personas experimentan e interpretan el mundo social que construyen en interacción. Un concepto que deja bastante claro el camino al que se dirige la lectura, lo que resulta bastante interesante es predecir, gracias al título, que vamos a estudiar al “profesor”; un ente descuidado durante el proceso educativo.

En los argumentos para la realización de esta investigación, encontramos elementos de índole social, política, epistemológica y cultural.

En cuanto a lo social encontramos problemas tales como: El rechazo a la idea de cambio, imponiendo la permanencia de un mismo sistema educativo a pesar de las evoluciones que ocurren en el mundo. Otro problema, es la aplicación de un currículo igual para todos, como si no existieran diferencias tanto sociales como cognitivas entre los estudiantes. Pero el más llamativo de estos problemas va referido a las creencias y métodos de innovación del profesor y la concepción del mismo.

En cuanto a lo político, y específicamente en la educación, se trata de investigar qué pasa en las aulas, por qué el deterioro de su imagen, qué pasa con el rol de formación de sujetos históricos y en la reflexión por parte del docente referente de las implicaciones de su posición social y política en la cultura. Se deben recuperar los saberes que se crean en el aula y que por falta de programas de investigación se pierden y olvidan, lo cual ha afectado negativamente a los docentes que se ven a sí mismos como un simple creador de ambientes instruccionales y no como un trabajador del conocimiento.

Un enunciado bastante interesante es el de Malinouski, citado por Perafán, que plantea la explicación de lo explícito para la reivindicación del rol del docente.

Epistemológicamente se refiere a interpretar el desarrollo de la educación, a partir del pensamiento del conocimiento del profesor y de su incidencia en la enseñanza.

Culturalmente se propone estudiar al docente, sus factores y reconocer que las acciones no pueden ser comprendidas sin referencia al significado que los propios profesores y estudiantes atribuyen a su labor.

De manera que la investigación sobre el pensamiento del docente, aparece como un proyecto político, epistemológico y cultural, que pretende oír su palabra desconocida y crear condiciones para que circule la cantidad de discursos que lo constituyen.

Al estudiar los procesos del pensamiento de los docentes nos encontramos con Lee Shulman en 1975, quien fue uno de los primeros en describir la vida mental de los profesores; parece absurdo el hecho que una de las profesiones más antiguas del mundo, como lo es la labor docente, haya sido estudiada de manera formal hace tan pocos años, quizás por eso se ha desvirtuado la carrera del licenciado en educación, disminuyéndola a ser sólo un aplicador de currículo.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 9: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

9

(VIENE DE LA PÁGINA ANTERIOR)

Sin embargo, esta investigación propone un estudio al pensamiento del docente. ¿Qué piensan los docentes? ¿Cuál es su enfoque cognitivo, su intencionalidad dentro del aula y la relación entre el conocimiento y la acción docente?

En consecuencia de lo anteriormente expuesto, nace una nueva epistemología alternativa del profesor. ¿Realmente, generará esta epistemología soluciones a la crisis educativa? ¿Será el estudio de los procesos del pensamiento del profesor el punto clave?

Ahora la discusión se centra en hacer referencia al pensamiento del profesor dentro del aula, afirmando que mantiene de manera implícita y explícita, unos principios, unas reglas de funcionamiento propias acerca de la naturaleza, es decir cada docente mantiene un conocimiento de su propio conocimiento, quizás aún sin estar consciente de eso.

Las investigaciones en la actualidad buscan diferenciar el conocimiento profesional del profesor del conocimiento común, pues validan que son diferentes entre sí. Por lo tanto hablamos de reconocer la epistemología del conocimiento del profesor, al cual se le atribuye un carácter lógico del nuevo conocimiento.

En virtud que la definición de epistemología es polisémica y que el concepto mantenido por los investigadores depende del tipo de juicios que ellos se hacen sobre el conocimiento y el pensamiento del profesor, daremos a conocer varios tipos o concepciones de epistemología.

La primera, epistemología compleja, la cual es una búsqueda de alternativas racionales, no reduccionistas, al problema asociado con el orden, desorden y la organización del conocimiento y del mundo. Cabe también hablar un poco acerca del concepto de complejidad que se maneja al dar este tipo de definiciones, ya que se refiere a la tensión dinamizadora presente entre el orden y desorden en el conocimiento del mundo.

La siguiente, epistemología freudiana, en la cual cabe destacar que no es una epistemología que toma a Freud como argumento, sino una epistemología que busca en Freud una referencia. Así, bien se define como subyacente a un trabajo específico que tiene sus propias condiciones de posibilidad, reglas de funcionamiento y sus referencias específicas.

Epistemología positivista, es aquella que tiene como principio generador de la ciencia los datos provenientes de una observación sistemática de lo real. Concepto éste muy criticado por su carácter puramente científico.

Epistemología Crítica, busca principalmente ser una fi losofía de la ciencia, es decir una teoría unitaria o sistema definitivo sobre las condiciones de posibilidad, los principios, los métodos y los orígenes de la ciencia.

Una vez conocidos los diferentes tipos de epistemología, podemos hablar de pluriepistemología, y así comprender de forma más específica los procesos reales de producción de conocimientos ya sea, al referirse al docente o a la producción del conocimiento en matemática o en física, distinguiendo todos como procesos diferentes a los que se le aplica epistemologías diferentes.

Ahora bien llevemos el estudio de cada tipo de epistemología a la producción del conocimiento del profesor, cual es la verdadera discusión de la sesión. Y así entramos a una disyuntiva, acerca de sí la epistemología del profesor es positivista, crítica o tal vez compleja, para concluir que existen diferencias evidentes, según cada persona. Lo cual da motivos para creer que cada profesor tiene epistemologías diferentes y muchas veces combinaciones de varias, lo importante en este caso es el conocimiento que tenga el docente acerca de su propia epistemología y de esta forma concebir la formación de su conocimiento para mejorar su labor en las aulas de clases.

Perafán, al hacer referencia a la epistemología del profesor, se centra más en los aspectos metodológicos desarrollados durante la investigación. Estos son: La descripción de su objeto de estudio. Tres profesores de física de una institución Colombiana, que por lo concluido en la sesión de discusión, fácilmente puede ser llevado a una generalidad, ya que encontramos muchas semejanzas con el proceso de enseñanza aprendizaje en Venezuela.

Otros aspectos considerados son la validación de la investigación, y los criterios que permitieron esa validación, como son: el juicio que los propios docentes hacen de su labor, el juicio de la comunidad de profesores acerca de la coherencia interpretativa y del posible impacto de los saberes construidos, y por último el registro de datos para la indagación, para este último criterio de validación, no sólo se utilizaron cuestionarios, sino que hubo un observación por fases para identificar cada uno de los procesos usados durante el desempeño docente de estos profesores de física.

Para la interpretación de los resultados se utilizó un proceso de triangulación, el cual consiste en establecer o construir un sentido o significado a partir de la intersección de múltiples puntos de referencia.

En otro aspecto del desarrollo metodológico y como consecuencia de los resultados arrojados mediante la triangulación, la cual permitió evidenciar la diversidad de modelos epistémicos existentes en la práctica docente, Perafán realizó un estudio de casos acerca de la metáfora de la mirada, la cual es una variedad de expresiones lingüísticas, relacionadas con la acción de percibir por medio de los sentidos.

De esta forma logró identificar cinco usos de la metáfora de la mirada, el primero "Una dimensión reflexiva" dando a conocer los diferentes enfoques de la expresión "Mirar" ya que se concluye que la interpretación del profesor a la expresión es distinta a la del estudiante y es ahí donde surge la reflexión. De manera similar y en forma de ejemplificación se hace referencia a los otros cuatro usos que se le da a la metáfora de la mirada.

En un segundo planteamiento, la diversidad epistémica en este estudio, se hace referencia acerca de solicitar y dar razón, de forma bastante similar a la metáfora de la mirada, se hace un resumen de los usos de las apelaciones del sujeto.

Como se evidenció en la descripción anterior, tanto en la categoría de la metáfora de la mirada como en la categoría apelación del sujeto, estudiadas por separado, se presenta una diversidad epistemológica constitutiva del discurso que mantiene el profesor de física en el aula.

A modo de conclusión, acerca de la totalidad del texto, podemos decir que la investigación interpretativa, está comprometida con la reivindicación del docente de ciencias. El conocimiento profesional del docente se encuentra en un proceso de resignificación histórica. Por lo tanto se hace un llamado a las autoridades educativas para legitimar el conocimiento del profesor, su saber epistemológico sobre él mismo como un eje importante de la enseñanza y de la didáctica de las ciencias.

Page 10: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

10

PPeennssaammiieennttoo AAbbssttrraaccttoo

LLaa eessccrriittuurraa yy llaa eessttrruuccttuurraa ddee llaa ppeerrcceeppcciióónn.. Elementos No. 54, Vol. 11, Julio - Septiembre, 2004, Página 3.

Por: Alberto J. L. Carrillo Canán

Maestría en Estética, Facultad de Filosofía y Letras, BUAP, [email protected]. Artículo en línea. Disponible en: www.psicologiacientifica.com/publicaciones/ biblioteca/articulos/ar-salinas01.htm - 27k. Consulta: 2005, Mayo,

13.

“Speach, before the age of Plato, was the glorious depository of

memory”. (El discurso, antes de la era de Platón, era el almacén glorioso de la

memoria) McLuhan

En las últimas décadas la idea del mito como guía existencial del hombre arcaico ha recibido una explicación de gran interés, la cual podría ser resumida diciendo que el mito implica una organización configuracional y no analítica de la conciencia. Por el contrario, sería apenas con la aparición de la escritura alfabética que no solamente la conciencia en general sino ya la percepción misma se estructuraría de manera analítica y el mito perdería su papel de guía existencial. El objetivo de esta breve presentación consiste en exponer estas ideas apuntando hacia el posible cambio para la percepción y la conciencia que implican las nuevas tecnologías de la comunicación, en las cuales la escritura parece perder importancia.

En Die Geburt der Trägodie (El nacimiento de la tragedia) Nietzsche nos ofrece una apreciación extraordinariamente positiva del mito, entre otras razones por considerarlo una “imagen concentrada del mundo” (NI 145)1 o una “abreviatura de los fenómenos” (NI 145); en particular esto haría posible que el hombre perteneciente a una cultura mítica interpretara “su vida y sus luchas” (NI 145), es decir, se interpretara a sí mismo, de acuerdo con las “imágenes del mito” (NI 145). En el caso de Grecia, Nietzsche contrapone el hombre mítico al hombre “socrático”, el cual tendría una conciencia muy diferente, expresada en “la educación abstracta, las costumbres abstractas, el derecho abstracto, el estado abstracto” (NI 145). Nietzsche registra claramente la ruptura entre los mitos griegos y el “socratismo de la ciencia” (NI 148) y lamenta la “destrucción del mito” (NI 149) pero, a fin de cuentas, solo registra el paso del mito a la “abstracción” sin ofrecer ninguna explicación que no sea el pensamiento abstracto mismo, cuyo surgimiento es, precisamente, lo que requiere explicación.

Después de Nietzsche, principalmente durante la primera mitad del siglo pasado, los estudiosos de la antropología y de las religiones subrayaron y, si se quiere, enumeraron las diferencias entre el pensamiento o conciencia mítica y lo que se ha dado en llamar “conciencia occidental”, pero la ruptura evidente, las diferencias asombrosas, entre la conciencia mítica y la conciencia occidental quedaron, como en el caso de Nietzsche, más bien meramente registradas que explicadas. Sin embargo, hoy en día podemos recurrir a Eric A. Havelock, Walter J. Ong y Marshall McLuhan, entre otros autores, quienes han propuesto la interesante tesis de que el paso de la conciencia mítica a la conciencia occidental puede ser explicado por los efectos que la transición de la oralidad a la escritura alfabética acarrea en la organización de la percepción en particular y de la conciencia en general.

Para describir los efectos de la transición de una cultura de la comunicación oral a otra de la comunicación alfabética podemos echar mano de un término clave en las teorías de McLuhan, a saber, del término “configuración” (GV 64) o bien del término “patrón” (GV 40). En efecto, la idea básica para explicar las diferencias radicales entre los tipos de cultura recién mencionados es la de que las primeras, es decir, las culturas orales, basan su comunicación en el reconocimiento de patrones o configuraciones de la experiencia y, por lo tanto, en la repetición y conservación de los mismos, mientras que las segundas, es decir, las culturas que utilizan los textos alfabéticos, basan su comunicación no en la repetición o conservación de los patrones experienciales sino, por el contrario, en el análisis o fragmentación de los mismos, lo que significa la singularización y la abstracción de elementos de cada patrón y, con ello, la destrucción del mismo, es decir, su eliminación de la conciencia en tanto tal patrón. Tratemos de aclarar estas ideas.

Parece ser un hecho indudable que los diferentes grupos humanos propiamente dichos han utilizado algún lenguaje como principal medio de comunicación. Una dimensión especialmente importante de la comunicación la constituye la de la socialización de la experiencia, la cual se presenta como la transmisión del conocimiento. Ciertamente, ni todo el cono- cimiento ni toda la conciencia son verbales, pero si el vehículo básico de la comunicación es el lenguaje, entonces la articulación del conocimiento, la sedimentación social de la experiencia, gira alrededor de la verbalización. En tal caso, por ejemplo, los elementos auditivos, visuales, táctiles, olfativos y gustativos de una situación dada pueden pasar a ser parte del conocimiento colectivo de un grupo humano únicamente en la medida en la que son verbalizables, lo cual tiene límites claros; piénsese tan solo en las posibilidades prácticamente nulas de traducir un sabor o un olor en tanto tales a una verbalización. La otra posibilidad es, por supuesto, la reactualización de la situación en cuestión para introducir a otros miembros del grupo humano dado a la experiencia directa que interesa, pero esta segunda posibilidad, además de ya no ser comunicación en sentido estricto sino comunicación en el sentido de convivencia, tiene otro tipo de limitaciones. En este caso piénsese, por ejemplo, en un evento peculiar en la historia del grupo, como podría serlo una catástrofe natural singular; el complejo de sensaciones que corresponde a un evento de tal índole solo puede ser comunicable –transmisible en un sentido limitado; a saber, se trataría del complejo de sensaciones o emociones que la narración sea capaz de suscitar, aunque para ello se ayude de la música, la actuación y otros elementos visuales, auditivos o de los que se quiera.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 11: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

11

(VIENE DE LA PÁGINA ANTERIOR)

En cualquier caso, si la socialización de la experiencia y la preservación del conocimiento, así como la “organización de la sensibilidad” (PW 8) en su conjunto, están centradas en la articulación verbal, se presenta un problema capital: el de la memorización verbal. Qué tanto y cuál conocimiento es comunicable y, por tanto, realmente socializable, se ha sedimentado en una sociedad depende de qué tanto conocimiento se puede recuperar verbalmente de la memoria de sus miembros. Justamente en este marco es que las investigaciones del teórico de la literatura Milman Parry mostraron ser de una importancia excepcional. Brevemente podemos decir que estudiando las composiciones homéricas, Parry mostró, nos refiere Ong, que Homero, básicamente “[…] cosió partes prefabricadas unas con otras. [Es decir] [e]n vez de un creador, se tiene [en él a] un trabajador de línea de ensamblado.” (OL 22) El mismo Ong intenta sugerir el impacto de tal descubrimiento para nuestra cultura literaria o alfabética. Las personas desarrolladas en una cultura literata, como la nuestra, nos dice Ong,

[…] están educadas para, en principio, no usar nunca los clichés. ¿Cómo vivir [entonces] con el hecho de que los poemas homéricos se mostraron, más y más, como construidos de clichés o de elementos muy similares a los clichés? En su conjunto, conforme se desarrolló el trabajo de Parry y de otros académicos posteriores, se hizo evidente que solamente una fracción minúscula de las palabras en la Iliada y la Odisea no eran parte de fórmulas y [más grave aún] de fórmulas que son predecibles en un grado devastador. (OL 22s.)

Ong continúa diciendo:

Más aún, las fórmulas estandarizadas fueron agrupadas alrededor de temas igualmente estandarizados, tales como la reunión del consejo, la reunión del ejército, el desafío, el saqueo de los vencidos, el escudo del héroe, etc., etc. [De hecho] [a]lrededor del mundo se encuentra un repertorio de temas similares en la narración oral y en otros discursos orales. (OL 23).

Así pues, se trata, en lo fundamental, de que las culturas orales tienen que proceder por medio de fórmulas lingüísticas para poder memorizar y transmitir la experiencia verbalizada, fórmulas lingüísticas que, a su vez, articulan tópicos estereotipados o, por así decirlo, fórmulas temáticas. Mientras que las fórmulas temáticas refieren a situaciones o configuraciones, las fórmulas lingüísticas corresponden a un ritmo o canción –en el caso de la Iliada y la Odisea, al del hexámetro griego. En otras palabras, en una cultura oral todo lo que se comunica como digno de ser preservado o transmitido tiene que comunicarse en fórmulas cantadas y, más aún, con acompañamiento rítmico que incluye a todo el cuerpo, tanto psíquica como físicamente, así como, en muchas ocasiones, a instrumentos musicales. Esto tiene consecuencias realmente descomunales, ya que lo que hay que preservar o transmitir no se reduce a ciertos sucesos o situaciones excepcionales, sino que incluye tales cosas como las instrucciones para la construcción de barcos, los usos y costumbres en general e, incluso, las órdenes militares del momento así como todo tipo de comunicado público y muchos “privados” o, para ser más precisos, de incumbencia mucho más restringida que el todo de la comunidad. En pocas palabras, en sociedades puramente orales el poder y el liderazgo, tanto político como militar, tienden a concentrarse en los miembros que tienen el mejor sentido del ritmo y la mejor memoria: son estos los que pueden “poetizar” su comunicación y, de esta manera, darle la efectividad de la que depende el éxito de la comunidad misma. Esto significa, entre otras muchas cosas, que de hecho, en las culturas puramente orales al nivel público, y en gran medida a otros niveles más restringidos, no puede haber la diferencia –propia de las culturas literatas – entre prosa y poesía. La idea es que la comunicación lingüística puramente oral efectiva no puede realizarse sino como composición de temas estereotipados mediante fórmulas con ritmos definidos y la recepción de dichos temas así compuestos por parte audiencias rítmica y mnemotécnicamente entrenadas.

Esta idea, a pesar de su simplicidad, no deja de ser, para nosotros, miembros de una cultura literata, acostumbrados a la diferencia entre prosa y poesía, radicalmente sorprendente. Havelock ilustra esto de la siguiente manera:

En Europa occidental la poesía, con sus ritmos, sus imágenes y sus modismos, ha sido alabada y practicada como un tipo especial de experiencia. Visto en relación con el trabajo cotidiano, el marco poético de la mente resulta esotérico y requiere de un cultivo especial. […] Lo poético y lo prosaico se comportan como dos modos de autoexpresión mutuamente excluyentes. El uno es recreación o inspiración, el otro es operativo. Nadie se inflama en versos para reconvenir a sus hijos, ni para dictar una carta, ni para contar un chiste; menos aún para dar órdenes o emitir instrucciones. [Nuevo párrafo] Pero en la situación griega, durante la época no literaria, justamente eso es lo que usted tendría que haber hecho. (PP 134).

En otras palabras, cualquier cosa que tuviera que ser comunicada con efectividad o simplemente que valiera la pena ser comunicada, tenía que estar, por así decirlo, poetizada y, más aún, había que actuar su poetización: cantarla, danzar, gesticular, etcétera. La razón de esto parece obvia.

Sin rima, verso, ritmo o melodía, como estructuración verbal de situaciones estereotipadas, la memoria tenía muy poco alcance. Por ejemplo, órdenes militares de cierto grado de complejidad solo podían emitirse versificadas y el mensajero por su parte tenía que estar entrenado en la memorización de versos; igualmente, cada uno de los soldados tenía que recordar sus órdenes como quien recuerda estrofas de una canción. Por supuesto, lo mismo ocurría al nivel de la educación de los infantes y los jóvenes, de la transmisión verbal de los oficios, etcétera. Sin fórmulas más o menos “poéticas”, la memoria no podía ser empleada de manera eficiente. Por supuesto, el conjunto de la experiencia y de la percepción tenía que estar organizado de manera tópica y rítmica, centrado en clichés –piénsese en los campesinos o personas escasamente literatas que organizan y comunican su experiencia mediante proverbios, refranes o cancioncillas.

Con esto hemos llegado al centro del problema. Las fórmulas lingüísticas y los ritmos motores o sonoros que las acompañan implican una conciencia orientada al reconocimiento de configuraciones, de patrones. Los patrones tienen que mantenerse como tales. Esto explica, entre otras muchas cosas, que aún hoy en día en sociedades pura o primordialmente verbales se haga un uso muy amplio de las analogías.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 12: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

12

(VIENE DE LA PÁGINA ANTERIOR)

Como insiste en ello McLuhan, mientras que los silogismos, con su “de esto y esto, sigue esto y luego esto”, corresponden a una organización secuencial o lineal de la conciencia, mientras que las analogías corresponden a una organización configuracional de la misma; en éstas se reconocen no tanto elementos como las relaciones entre elementos (cfr. GV). Piénsese tan solo en la aplicación de un proverbio tal como “el que a buen árbol se arrima, buena sombra le cobija”. La aplicación del proverbio requiere que se reconozca no un tipo de elementos determinados (árbol, sombra, cobijar, etcétera) sino una relación entre elementos, es decir, se requiere que se reconozca la estructura de una situación. Pero tal cosa no es más que un patrón o una configuración. Estructuras, ritmos y fórmulas son, en los términos de McLuhan, configuraciones o patrones. Por el contrario, la introducción del alfabeto implica la abstracción portentosa consistente en analizar o fragmentar los sonidos lingüísticos en unos cuantos básicos, tal vez 30 o unos pocos más, sonidos estandarizados, carentes cada uno de todo significado y que se pueden recomponer de manera abierta para formar nuevas palabras y al margen de cualquier situación ya conocida. Simplemente esta apertura de la verbalización gracias a la escritura alfabética rompe de raíz con la compulsión del mito a la repetición y la permanencia. El “reconocimiento de patrones” (GV 40) resulta desplazado como forma básica de la conciencia tratándose de la comunicación, lo que equivale a decir, como forma básica del conocimiento o experiencia socializados.

La idea sería, entonces, abreviando aquí de manera brutal, que el desarrollo de una cultura con una comunicación alfabética permite y obliga a la fragmentación de las configuraciones como núcleo de la percepción y de la conciencia. Para dar un indicio de las consecuencias portentosas de esto, piénsese que si se pueden aislar sonidos como elementos independientes de una composición o patrón (por ejemplo en una palabra), entonces parece posible aislar a los elementos de una configuración visual. Ya no es necesario pensar la cama en el conjunto de la economía doméstica (un tema estereotipado), sino que ahora es posible preguntar, tal como realmente lo hizo Platón, por la cama en tanto tal, preguntar qué hace de la cama una cama (cfr. PW 34). En otras palabras, la articulación alfabética de la experiencia abre la puerta al pensamiento abstracto y analítico en general. Por ejemplo, de la misma manera que con la cama, ya no hay por qué pensar a un individuo únicamente en el entramado de sus relaciones comunitarias, sino que ahora se le puede pensar como individuo autosubsistente en términos ontológicos. Así como se puede pensar en sonidos autosubsistentes correspondientes a letras estandarizadas, se puede pensar en individuos estandarizados, de tal manera que muy probablemente esto es lo que hizo posible la invención de la democracia, la cual no ha sido rastreada en ninguna sociedad oral.2 Para concluir este breve trabajo habrá que hacer una rápida mención de los posibles cambios implícitos en la pérdida de importancia de la escritura alfabética provocada por las nuevas tecnologías, en especial las digitales. Si el análisis o fragmentación de los patrones parece ir de la mano con una sensibilidad organizada para la percepción de objetos individuales y no de los patrones o situaciones en los que están insertos, la tecnología digital produce por lo menos un cambio de gran importancia. Nuestro “sesgo” (McLuhan) literario nos ha llevado a identificar información en general con información verbalizada, en especial con su traducción no solo alfabética sino impresa. Durante los últimos siglos el conocimiento solo era almacenable en libros o, más en general, en caracteres alfabéticos registrados en diferentes medios, es decir, como experiencia verbalizada traducida a letras.

Pero ahora se puede almacenar no solo caracteres convencionales estandarizados sino también se puede almacenar patrones absolutamente singulares, en particular patrones musicales y patrones visuales. Gracias a la tecnología digital los bancos de sonido y especialmente los bancos de imágenes adquieren una importancia creciente como parte de la experiencia comunicable. Piénsese tan solo en la diferencia que hace la transmisión de las imágenes de las Torres Gemelas el 11 de septiembre del 2001 respecto de lo que sería la mera descripción verbal impresa del suceso. En otras palabras, la gran cuestión que está aquí a debate es, como lo piensan McLuhan y Ong, la de si estamos al borde de una reactivación de la percepción como reconocimiento de patrones y una reactivación de las formas de conciencia correspondientes, es decir, rítmicas, multisensoriales y resonantes o participativas, propias de la comunidad como “audiencia” (McLuhan). El mito y sus “imágenes” podían ser una “abreviatura de los fenómenos” por tener la estructura no de una secuencia narrativa sino de una configuración rítmica de la experiencia. ¿Qué tanto hacen posible las técnicas de comunicación digitales una “retribalización” (McLuhan) de la sociedad en una “aldea global” (McLuhan)?

N O T A S:

1 Véase la lista bibliográfica y de abreviaturas.

2 Esto pareciera corroborarse en el caso de los países árabes y sus tipos de gobierno. Dichos países son todavía altamente orales y la democracia es prácticamente inexistente en ellos, salvo el caso de Turquía, donde de los años 20 y 30 del siglo pasado Kemal Ataturk latinizó y, con ello, alfabetizó el idioma turco.

A B R E V I A T U R A S Y LISTA BIBLIOGRÁFICA:

o PP=Havelock, Eric A., Preface to Plato (1963) Harvard University Press, Massachusetts, 1963.

o GV=McLuhan, Marshall & Powers, Bruce R., The Global Village. Transformations in World Life and Media in the 21st Century (1986), New York: Oxford University Press, 1992.

o NI=Nietzsche, F., Sämtliche Werke, Band 1, Berlín, 1980.

o PW= Ong, Walter, J. The Presence of the Word (1967), Yale University Press, New Haven, 1967.

o OL=Ong, Walter, J., Orality and Literacy (1982), Routledge, London, 1988.

Page 13: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

13

LLaa ppoossiicciióónn ddeell hhoommbbrree ccoommoo sseerr ppeennssaannttee ffrreennttee aall

ccoonncceeppttoo ddee llaa cciieenncciiaa yy ssuu mmééttooddoo

Por: Pedro Angulo Landaeta

Noción de ciencia y su interpretación epistemológica, guiado por Habermas.- El hombre es una unidad biosicosocial que entendió la urgencia de establecer orden a su experiencia; además, comprendió, que la organización teórica fundamenta al poder y sustenta a la construcción cognitiva. Todo saber persigue al final una acción o una realización. El modo de ser que distingue y diferencia a los hombres es producto de una posición pensante que se adquiere dentro las relaciones de convivencias entre los entes metafísicos. Son las relaciones del día a día, instrumentos de orden que habilitan el medio de poder transformar información en conocimiento. Por ello, Habermas (2000), concentra su atención en la teoría como elemento decisivo y determinante que transforma arreglos de pensamientos en praxis. La teoría que según sus estructuras sirven para la clasificación de cuestiones prácticas está en esta mediada, trazadas para formar parte de la acción comunicativa, el cual, mantiene una doble relación entre teoría y praxis.

Los conceptos manejados acerca de la teoría del conocimiento reflejan la construcción de una realidad a través de un proceso cognoscitivo. Esta forma especial de indagación para aprender del mundo de los hechos determina la tarea de la ciencia. La cual imprime una dirección a la curiosidad humana en su afán de establecer un cuerpo teórico que permita enfrentar los problemas fenomenológicos con niveles de control que garantice propuestas eficientes para esclarecerlos y manipularlos de forma deliberadas, con el propósito de emancipar o crear dominación en el género humano.

La intervención en la dinámica de los eventos hipertecnologizado y globalizado requiere instrucción, conocimiento adaptado a la teoría científica de la realidad consolidada con tiempo histórico. A saber, Habermas (2000) presenta la tesis de dos caminos de penetración: 1.- El conocimiento de conducta de dicha materia en circunstancia definida ya no procede de la experiencia cotidiana transmitida por la tradición, sino, de hipótesis legales confirmadas empíricamente, las cuales permiten pronosticar sobre la dependencia de magnitudes correlacionadas; 2.- La intervención del hombre no tiene que limitarse a cosas materiales; los procesos que pretende disponer, ya se trate de opiniones, formas de conductas o reglas, no requieren en general más de su comprobación mediante datos observables.

De este modo, la extensa y compleja literatura científica que invade el mundo presente sobre el análisis de la ciencia hace difícil una selección adecuada y con características de acierto sobre los conceptos definitorios de la ciencia. Sin embargo, la profundización y ampliación de la esfera científica obligan a entregar algunas interpretaciones que son de constante referencia.

A continuación se presentan, secuencialmente, definiciones que enriquecen y profundizan el debate y discusión de la especificidad de la ciencia y su camino de penetración sostenido por Habermas.

a.- “La ciencia es el intento de hacer que la diversidad caótica de nuestra experiencia sensoria corresponda al sistema lógicamente uniforme (unificado) de pensamiento”. –Albert Einstein.

b.- “A mi entender, tenemos que hacernos a la idea de que no hemos de considerar la ciencia como un cuerpo de conocimientos, sino más bien como un sistema de hipótesis: es decir, como un sistema de conjeturas o anticipaciones que por principio no son susceptibles de justificación, pero con operemos mientras salgan indemnes de las contrastaciones; y tales que nunca estemos justificados para decir que son verdaderas, más o menos ciertas, ni siquiera probables”. –Popper.

c.-“Yo insisto..., en que la ciencia es practicada por individuos, el conocimiento científico es intrínsicamente un producto de grupo y que es imposible entender tanto su eficacia peculiar como la forma de su desarrollo sin hacer referencia a la naturaleza especial de los grupos que la producen”.-Kuhn.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 14: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

14

(VIENE DE LA PÁGINA ANTERIOR)

d.-“La ciencia como su nombre lo indica, es en primer lugar, conocimiento. Convenimos en que es conocimiento de un determinado género, un conocimiento que busca leyes generales relacionando ciertos hechos particulares. Gradualmente, sin embargo, el aspecto de la ciencia como conocimiento es desplazado a segundo término por el aspecto de la ciencia como poder manipulador. Por conferirnos la ciencia este poder de manipulación es por que tiene más importancia social que el arte. La ciencia como persecución de la verdad es igual pero no superior al arte. La ciencia como técnica, aunque puede tener poco valor intrínseco, posee una importancia práctica a la que no puede aspirar el arte”. -Bertrand Russell.

e.- “La ciencia ya no es más la suma de un saber y de lo digno de ser sabido sino un camino para avanzar hacia delante y penetrar en un ámbito aún no investigado y, por lo tanto aún no denominado”. -H. Gadamer.

f.- “... Tal vez lo que se conoce ahora mejor de la ciencia es la facultad de privar a los hombres del placer y de tornarlos más fríos, más insensibles, más estoicos. Pero también podrían descubrirse de ella facultades de gran dispensadora de dolores. Y entonces se descubrirá a la vez su fuerza contraria, su facultad de ofrecer al placer un nuevo cielo estrellado”. -F. Nietzsche.

g.- “No existe definición neutra y objetiva de la ciencia. Es una búsqueda metódica del saber. Es una manera de interpretar el mundo. Es una intuición, con sus escuelas y grupos de presión, sus prejuicios y recompensas oficiales. Es un oficio controlado por un misterio especial y forzosamente útil a los industriales y a los militares. La ciencia es, ha sido, o puede ser, muchas cosas todavía”. –Thullier.

Se destaca en las definiciones anteriores que el término ciencia ha sido identificado por los científicos y estudiosos de la materia en diversas dimensiones. Históricamente estas diferentes corrientes han revestidos formas muy variadas y a veces muy matizadas, pero encuentran siempre las grandes líneas de un esquema simbolizado por un tipo de conocimiento que genera una búsqueda de verdad probablemente no absoluta pero posible de ser verificada o con posibilidades de falsabilidad. La complementación de estas dimensiones facilita la comprensión global de la ciencia como cuerpo de conocimiento, como método de investigación, y como inseparable ente de la sociedad que la sustenta. Sin embargo, es importante enfatizar que ningunas de las pretensiones en que se usa el término ciencia puede quedar establecido a la perfección y de manera definitiva, pues, la misma condición dinámica de la búsqueda de la verdad niega tal pretensión. Igualmente queda claro que el consenso de opinión sobre qué es y que representa está compartido por ciertas características originales de un hecho singular.

Desde luego, la fuente de inspiración del hombre de ciencia se encuentra en su exterior; y desde allí, edifica su banco de identidad, el cual, sugiere un plano referencial para el debate y la discusión del hecho científico; así mismo, el orden genético de la información que se estructura en arreglos de pensamientos ordenados, representa el conocimiento; por ello, la ordenación de la composición hipotética que describen las conductas que acontece en el mundo de los hechos converge a una teoría científica; esta a su vez, es la realidad del científico. En tal sentido Habermas (2000) sostiene que la guía teórica para la acción está sustentada, ciertamente, más bien de una compresión del mundo científicamente configurado.

Además, roles generales de la ciencia la constituyen actividades imaginativas y exploratorias que forman parte del apetito humano por el conocer. Y, el compromiso por una actividad crítica y analítica en que se exige una tarea de discernimiento. Ambos episodios son sucesivos y complementarios en la producción del conocimiento científico, pues el acto creativo requiere el sustento crítico y analítico y viceversa.

En otro orden de idea, se evidencian características generales que identifican a la ciencia de cualquier otro concepto. Muchas discusiones se han establecido sobre tales características, pero sin lugar a duda, la unión inquebrantable de la racionalidad, métodos de comprobación y objetividad de las ciencias evidencian características singulares que identifican esta área de conocimiento de cualquier otra disciplina.

La racionalidad es la utilización de la razón como medio de comprensión y entendimiento sobre el objeto de estudio. De este modo, se convierte en la conciencia de la reflexión del objeto en estudio para captar el mundo exterior desde la subjetividad, establecer relaciones y establecer correlaciones. Igualmente se plantea que el funcionamiento de la mente humana está basado en los procesos de la percepción, emoción, condicionamiento, memoria, aprendizaje, pensamientos y capacidad de solucionar problemas. Cabe destacar otra característica fundamental en el análisis del concepto de la razón para la ciencia, ha sido el argumento de que en base a un comportamiento racional se debe dominar los sentimientos e instintos, por que, a través de esta facultad de desprendimiento, el hombre de ciencia organiza los datos suministrado por los sentidos en un hecho de objetividad legitimada. No obstante, el camino de racionalidad objetiva enfoca su acción en predicción. Control y predicción de los eventos en el mundo de los hechos, es su fin. La razón se identifica al poder y la dominación del mundo fenomenológico. Para muchos desaparece el sujeto mismo como unidad sintética para dar paso a las instancias sociales. Al respecto Habermas (2000), imagina un futuro en el que la razón y el conocimiento trabajen en pro de una sociedad mejor. En ese futuro, la comunicación humana no debería estar sujeta a la dominación del Estado y los ciudadanos racionales deberían poder actuar en la sociedad de forma libre en el ámbito político.

Los métodos de comprobación son caminos de penetración que permite a la razón disciplinar estrategias, técnicas y tácticas para construir genéticamente el conocimiento científico. De este modo, el método es un discurso, un ensayo prolongado de un camino que se piensa durante el proceso mismo. Es un viaje, un desafío, una travesía, una estrategia que se ensaya para llegar a un final, en el cual, se desea descubrir su fundamento epistemológico y al mismo tiempo insólito, imprevisto y errante. No es el discurrir de un pensamiento seguro centrado en reglas inmutables, es la búsqueda que se inventa y se reconstruye continuamente como actividad pensante del sujeto viviente, no abstracto. Un sujeto capaz de aprender, inventar y crear en y durante el caminar científico. Por medio del método se construye y se cuestiona el ser epistemológico de la ciencia; en consecuencia, el método no puede ser un discurso declarativo expresado mediante un código de comunicación, a él se le exige certeza, materializada en el fin de la ciencia. Pues, las conclusiones científicas tiene el afán de buscar dominación humana sobre el comportamiento en estudio, y la vía de llegar a ello es por el método que inspira confianza en su certeza, tales como: verificación basada en la experimentación, falsabilidad, paradigmas o registros avalados por las ciencias estadísticas.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 15: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

15

(VIENE DE LA PÁGINA ANTERIOR)

El mundo de los hechos corresponde a la objetividad, el cual, ocurre fuera e independiente de la voluntad de los sujetos pensantes; por otra parte, la realidad es la apreciación de forma subjetiva del mundo de los hechos. En consecuencia, la realidad es un esfuerzo epistemológico de los seres pensantes que se construye mediante la subjetividad y desde donde mantienen control acerca de los comportamientos que acontecen en el mundo de los hechos; por ello, la objetividad es la explicación o interpretación que disertan los seres pensantes sobre su medio ambiente, escenario particular del mundo de los hechos. Por eso, este criterio puede ser definido como la posición que adopta el investigador antes los hechos tal como son y suceden. La correspondencia entre estos hechos sometidos a estudios y la obediencia que imponen los métodos de comprobación, exige la eliminación de todo interés subjetivo en sus resultados. En esta prueba se ubican tanto los teoremas lógicos o matemáticos como cualquier otra proposición de las disciplinas empíricas o fácticas. Siendo tarea o responsabilidad de la ciencia el de ofrecer un conocimiento que sea contrastable y coincidente con la teoría y el mundo de los hechos. Tal intercambio es controlado y reproducido en las mismas condiciones por quien esté interesado. Aquí no se trata de buscar una correlación o conveniencia sino la de ofrecer la evidencia de esa correlación.

Desarrollo epistemológico del método de comprobación.-

Aristóteles inventa el empirismo, pues considera que todas las filosofías y las ciencias tienen que partir de las experiencias, es decir, de todas las sensaciones que nos ofrece el mundo de la percepción y del conocimiento sensible.

Redescubre la experiencia y la erige en base del conocimiento verdadero. La percepción que había sido desechada como conocimiento impreciso y engañoso es decir, el DOXA, para él es el punto de partida, necesario y obligatorio, no sólo de toda la filosofía, sino de todas las ciencias.

Fundamentalmente, a través de la inquietud científica de Bacon, quien propuso en su obra (1920) el método inductivo para adquirir conocimiento. Bacon argumentaba que los intelectuales no podían continuar aceptando tan pasivamente como verdades absolutas las premisas transmitidas por las autoridades de la materia, sino en su opción el investigador tenía que inducir sus conclusiones mediante la observación directa. En realidad, era necesario observar la naturaleza para reunir así los datos particulares que permitan hacer generalizaciones a partir de ellos.

Unas de las limitaciones más elementales de la inducción radica en observar grandes cantidades de algo que se pretende estudiar, aunque se puede asumir que esos entes observables pueden ser todos iguales y que no es necesario registrar sus características a cada uno de ellos, siendo suficiente una muestra. Los métodos matemáticos han pretendido dar confiabilidad a tal proceso, mediante técnicas de muestreo que resultan bastante representativas. En virtud de ello, se escoge un modelo hipotético deductivo que permite la búsqueda del conocimiento científico. El principio fundamental de este método es la relevancia de dos procesos en la metodología científica: el descubrimiento y la justificación. El primero, simboliza la inspiración, imaginación o intuición por parte del investigador ante una situación determinada. El segundo proceso es la justificación, es decir, el acto de someter las hipótesis al método de comprobación, a través del principio de verificabilidad, falsabilidad, paradigma o sencillamente estrategias de comprobación de la comunidad científica. Este segundo proceso marca para muchos estudiosos la gran diferencia entre ciencia y cualquier otro acto propiamente creativo, como por ejemplo la pintura. Estas manifestaciones de arte no admiten o exigen justificación.

El principio de verificabilidad es una valoración de forma claramente explícita que se le atribuye a aquellas proposiciones mediante las cuales las evidencias físicas están sustentadas en el mundo de los hechos. Esta postura fue defendida por el Círculo de Viena –filosofía denominada “Positivismo Lógico”-, el cual, centra sus argumentos en dos premisas: primero, debatir la metafísica, esto es alejarse de cualquier sugerencia de que existiera más allá del mundo de la ciencia y el sentido común; segundo, que todo enunciado debería ser contrastable empíricamente. En consecuencia, el control de la teoría podría reproducirse -en condiciones de laboratorio- la acción del objeto en estudio. Sin duda alguna el proceso de verificación es complejo y no necesariamente por ser verificable una teoría es realmente determinante y rigurosa. Esto implica que los controles experimentales tienen una función central pero su significación puede ser debatida. En la década de los sesenta, Popper argumentó que la imposibilidad de verificar hipótesis, no necesariamente, era inconsistente, irracional y etiquetado como no científico. La contribución de Popper es la determinación de la lógica de la investigación científica. En este sentido desarrolla las siguientes tesis:

1. El problema central de la epistemología es el progreso del conocimiento, el mejor modo de estudiar el aumento del conocimiento es estudiar el conocimiento científico;

2. La lógica inductiva lleva forzosamente a incoherencias lógicas. El problema de la inducción se elimina con el método de contracción deductiva.

3. Es necesario establecer la distinción entre la psicología del conocimiento (hechos empíricos) y la lógica del conocimiento (relaciones lógicas). A la primera le interesa el acto de la creación. Mientras que la lógica del conocimiento consiste pura y exclusivamente en la investigación de los métodos empleados en las contracciones sistemáticas a que debe someterse toda idea nueva antes de que pueda sostener seriamente.

4. La falsabilidad es el criterio que permite distinguir las ciencias empíricas de los sistemas metafísicos. La distinción entre ambas ciencias no niega que las ideas metafísicas tiene un rol importante en el avance de la ciencia a través de la historia.

También, por esta misma época Kuhn inicia sus planteamientos cuando publica su primer trabajo titulado “La estructuras de la Revoluciones Científicas”. Allí entrega uno de sus conceptos fundamentales: paradigmas. Los cuales son considerados como realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y solución a una comunidad científica. Durante el dominio de un paradigma determinado la actividad científica normalmente va dirigida la articulación de aquellos fenómenos y teorías que proporcionan el paradigma vigente. Ya Habermas (2000) sostiene, la razón de dicha postura, cuando expresa: la teoría es la influencia sobre la conducta humana no menos que el dominio de la naturaleza.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 16: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

16

(VIENE DE LA PÁGINA ANTERIOR)

Asimismo, Kuhn discute, lo contrario se da cuando el paradigma es reemplazado por otro, episodio denominado como revolución científica.

Los cambios de una teoría obedecen a muchas razones. Pero así como se reemplazan, también las teorías de levantan o se aprueban. Este aspecto de gran importancia para Kuhn, quien señala algunos criterios fundamentales en esa elección. Estos son los siguientes:

a. La precisión es uno de los primeros criterios. Una teoría es precisa cuando dentro de su dominio, las consecuencias deducibles de ellas deben estar en acuerdo demostrable con los resultados de los experimentos y observaciones existentes.

b. La coherencia es otro de los criterios de elección de teorías. Consiste en que la teoría ha de ser coherente no sólo de manera interna o consigo misma, sino también con otras teorías aceptadas y aplicadas a aspectos relacionados de la misma naturaleza.

c. La teoría debe ser amplia: Dado que los problemas y hechos, en el espacio determinado y en un tiempo definido pueden o deben interrelacionarse, es conveniente que las teorías den explicaciones que se extiendan más allá de su propio campo. La interdisciplinariedad es lo que garantiza la generalización de los hallazgos, leyes o subteorías a otros hechos de campos científicos diferentes.

d. La teoría debe ser simple, ya que la misma debe ordenar fenómenos que, sin ella, y tomados uno por uno, estarían aislados y, en conjunto serían confusos.

e. Una teoría debe ser fecunda, porque ella está obligada a revelar fenómenos nuevos o relaciones no observadas ante las cosas que ya se saben.

A principio del siglo XIX, la tecnología alcanzó un nivel que permitió a los científicos diseñar experimentos que fuesen sensibles al comportamiento de las partículas muy pequeñas. Con el descubrimiento del electrón en 1897 y la investigación de la relatividad, los experimentadores empezaron a sondear la estructura atómica de la materia. En 1900, el físico alemán M. Planck anunció su descubrimiento teórico de que las energías de los electrones que vibran en las fuentes de luz incandescente, se restringían a valores característicos. Como resultado, la radiación se emitía en paquetes discretos de energía, a los que llamó cuantos. El descubrimiento de Planck inició una revolución de ideas que cambiaron por completo nuestra manera de pensar acerca del mundo físico. De este modo, las reglas aplicadas al macro mundo (a saber, las leyes de Newton, que funcionaban con tanta propiedad para los objetos grandes) sencillamente no son aplicables a lo que sucede en el micro mundo del átomo. Mientras que en el macro mundo el estudio del movimiento se llama mecánica, en el micro mundo el estudio del movimiento de los cuantos se llama mecánica cuántica. De manera más general, el grupo de leyes desarrolladas desde 1900 hasta fines de la década de 1920, que describen todos los fenómenos cuánticos del micro mundo, se ha llegado a conocer como física cuántica.

La física cuántica revela que la materia está cuantizada; por ello, la electricidad está cuantizada, ya que todas las cargas eléctricas son algún múltiplo entero de la carga de un solo electrón; también está cuantizada la energía y el momento angular. La energía viene en paquete, o cuantos, y sólo puede existir un número entero de cuantos. Los cuantos de luz, o de la radiación electromagnética en general, son los fotones. Luego, si la energía de un fotón se divide entre su frecuencia, el número único que se obtiene es la constante de proporcionalidad h, llamada constante de Planck. Podemos introducir esta constante en la proporcionalidad antes dada y expresarla como: 34106.6, −×== hhfE joules-segundos.

Aunado a esto, el Principio de Incertidumbre, en mecánica cuántica, principio que afirma que es imposible medir simultáneamente de forma precisa la posición y el momento lineal de una partícula, por ejemplo, un electrón. El principio, también conocido como principio de indeterminación, afirma igualmente que si se determina con mayor precisión una de las cantidades se perderá precisión en la medida de la otra, y que el producto de ambas incertidumbres nunca puede ser menor que la constante de Planck. La incertidumbre es muy pequeña, y resulta despreciable en mecánica clásica. En cambio, en la mecánica cuántica las predicciones precisas de la mecánica clásica se ven sustituidas por cálculos de probabilidades.

El principio de incertidumbre fue formulado en 1927 por el físico alemán W. Heisenberg y tuvo una gran importancia para el desarrollo de la mecánica cuántica. Las implicaciones filosóficas de la indeterminación crearon una fuerte corriente de misticismo entre algunos científicos, que interpretaron que el concepto derribaba la idea tradicional de causa y efecto. Otros, entre ellos A. Einstein, consideraban que la incertidumbre asociada a la observación no contradice la existencia de leyes que gobiernen el comportamiento de las partículas, ni la capacidad de los científicos para descubrir dichas leyes.

Por lo tanto, la razón epistemológica de la física clásica y el hecho científico sufrió un quiebre en su ser, con respecto al efecto de causalidad, según el cual nada puede existir sin una causa, y conociendo las causas y leyes, con seguridad se puede predecir todo. Esta fe determinista, sin perder su fuerza, ha perdido sin embargo sus límites, cuando apareció el campo de lo aleatorio. Es decir, aquello que no se puede prever con certeza. Aquí es importante aclarar que los fenómenos aleatorios se pueden someter a un estudio científico riguroso, pues se cuenta con el método estadístico. Este permite interpretar un género de dato en cualquier disciplina científica. Se entiende que muchos fenómenos son descriptibles y verificables en términos probabilísticos y estadísticos, lo que convierte a estas áreas en instrumento básico para la investigación científica.

Page 17: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

17

EEnnrriiccoo FFeerrmmii Nació el 29 de septiembre de 1901, Roma, Italia; y falleció el 29 de noviembre de 1954, en

Chicago, E. E. U. U.

Físico nuclear italiano. Fue alumno de la Escuela Normal Superior de Pisa y se graduó en 1922. Entre este año y 1932 se desarrolló la primera fase de su actividad científica: la de la Física atómica y molecular. En 1927 aplicó la "estadística de Fermi" a los electrones que se mueven en torno al núcleo del átomo, con lo cual estableció un método aproximativo para el estudio de muchas cuestiones atómicas ("método de Thomas-Fermi").

El segundo período de su labor en el ámbito de la ciencia se extendió entre 1933 y 1949, y estuvo dedicado a la Física nuclear. En 1933 su teoría de la radiactividad "beta" dio forma cuantitativa al proceso de la transformación de un neutrón en un protón mediante la emisión de un electrón y un neutrino. Luego estudió la radiactividad artificial, descubierta por el matrimonio Joliot-Curie, y en 1934 descubrió la provocada por un bombardeo de neutrones; posteriormente vio que las sustancias hidrogenadas y, en general, los elementos ligeros podían disminuir la velocidad de los neutrones después de choques elásticos. Y, así, en 1935-36 estudió las propiedades de absorción y difusión de los neutrones lentos.

Todo ello le valió en 1938 el premio Nobel de Física. A fines de aquel año se trasladó a los Estados Unidos; allí trabajó en la Universidad de Columbia de Nueva York, y luego, a partir de 1942, en la Universidad de Chicago, donde, tras las investigaciones llevadas a cabo con diversos colaboradores, hizo funcionar el 2 de diciembre de 1942 una pila de uranio y grafito, el primer reactor nuclear.

Terminada la guerra, se dedicó al estudio de los neutrones lentos y, en particular, de la difracción de los neutrones por diversos cristales. Durante el período 1947-49 realizó investigaciones teóricas y experimentales sobre las influencias mutuas existentes entre las partículas elementales y publicó un esbozo de teoría acerca del origen de los rayos cósmicos. La última fase de la actividad científica de Enrico Fermi empezó en 1949, comprendiendo una amplia serie de experiencias sobre las propiedades de difusión de los mesones por los protones, campo en el cual llegó asimismo a numerosos resultados fundamentales.

Enrico Fermi perteneció a muchas academias italianas y extranjeras, y fue galardonado por diversos países. En 1953 fue nombrado presidente de la Sociedad Americana de Física. Además de unas doscientas memorias aparecidas en varias revistas de Italia y de otras naciones, publicó cuatro libros: Introduzione alla Fisica atomica (1928), Molecole e cristalli (1934), Thermodynamics (1937) y Elementary particles (1951). La figura de Fermi destaca en la historia de la Física no sólo por sus dotes de investigador, sino también por sus elevadas cualidades de maestro.

ENRICO FERMI (*1901-†1954)

Más sobre la vida de Fermi… En 1918, le concedieron una beca en la Escuela Normal Superior de Pisa, donde recibió su doctorado en física en 1922 bajo la guía del profesor Puccianti. Luego, el gobierno italiano le concedió una beca para estudiar algunos meses en Gotinga con Max Born. Posteriormente, en 1924, se traslada a Leyden becado por la Fundación Rockefeller y, en el mismo año, vuelve a Italia para ocupar una cátedra de física en la universidad de Florencia.

En 1926, Fermi descubrió las leyes estadísticas, conocidas hoy en día como la «estadística de Fermi», por la cual las partículas son gobernadas conforme al principio de exclusión de Pauli. Tales partículas se llaman ahora «fermiones» en honor a Fermi y contrastan con los «bosones» que obedecen a la estadística de Bose-Einstein.

Tras su estadía en Florencia, Fermi fue nombrado profesor de la cátedra de física teórica de la universidad de Roma, un puesto que conservó hasta 1938 en que, inmediatamente después de recibir el premio Nobel de Física por sus estudios de la radiactividad artificial producida por los neutrones y por las reacciones nucleares provocadas por neutrones lentos, escapa a Estados Unidos para evitar el fascismo de Mussolini y, con ello, la persecución de su esposa, que era judía.

Durante los años de su carrera en Roma, Fermi estudió problemas en electrodinámica y realizó investigaciones teóricas sobre varios fenómenos espectroscópicos. Sin embargo, el trabajo más importante de Fermi comenzó cuando él dirigió su atención desde los electrones externos a los núcleos atómicos en sí. Previamente, en 1934, él desarrolló la teoría del decaimiento beta, trabajo que logró formular uniendo la teoría de la radiación con la idea de Pauli sobre el neutrino. Después del descubrimiento realizado por Marie e Irene Curie y Frédéric Joliot de la radiactividad artificial (1934), él demostró que la transformación nuclear ocurre en casi cada uno de los elementos que son sometidos a bombardeos de neutrones.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 18: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

18

(VIENE DE LA PÁGINA ANTERIOR)

Este trabajo dio lugar al descubrimiento, ese mismo año, de los neutrones lentos, lo que condujo, posteriormente, al descubrimiento de la fisión nuclear y a la producción de elementos que yacen más allá de aquellos descritos en la tabla periódica (es decir, los elementos transuránicos).

Intuitivo teórico y brillante experimentador, Fermi, con sus colaboradores, sometió una larga serie de elementos al bombardeo por neutrones. Una pequeña ampolla que contenía una mezcla de polvo de berilio y de radón constituía la fuente de proyectiles y lanzaba por segundo 20.000.000 de neutrones contra blancos formados por las sustancias elegidas para la investigación. Las energías individuales de los proyectiles se repartían sobre una escala amplia; muchos alcanzaban hasta 8.000.000 de eV.

La mayoría de los sesenta y tres elementos que Fermi y sus colaboradores investigaban, cedieron a la acción transformadora del bombardeo y se volvieron activos. Si bien la duración de la vida del núcleo activado raramente sobrepasó algunos minutos, no obstante el equipo de Fermi logró identificar la naturaleza química de los elementos portadores de la actividad inducida. De las sustancias que en ese proceso fueron examinadas, más de cuarenta se revelaron transmutables por la irradiación neutrónica. Así la coraza del núcleo había sido perforada por el neutrón, penetrando en él como una suerte de caballo de Troya.

Una vez transcurridos seis meses desde sus primeros ensayos de bombardeo neutrónico, Fermi y su equipo, inducidos por un afortunado azar, realizaron un descubrimiento excepcional. Al procurar mejorar el rendimiento de las transmutaciones, notaron que la intensidad de la activación como función de la distancia a la fuente, presentaba anomalías que dependían -así parecía- de la materia que rodeaba a la fuente neutrónica. Comprobaron que el paso de los proyectiles a través de sustancias hidrogenadas como agua y parafina, en vez de disminuir -como hubiera podido creerse-, aumentaba de manera sorprendente, a menudo en una relación de uno a cien, la eficacia de los proyectiles y la consiguiente actividad de la materia bombardeada. Ese imprevisto efecto fue interpretado por Fermi con la capacidad de deducción que lo caracterizaba: los neutrones – al penetrar en la sustancia hidrogenada – pierden rápidamente energía en sus reiterados choques con los protones. Expulsados por la fuente con una velocidad de varios millones de kilómetros por segundo, se convierten al atravesar una pantalla de parafina en neutrones lentos con una velocidad del orden de un kilómetro por segundo, casi desprovistos de energía y más o menos en equilibrio térmico con la materia que los rodea.

El efecto descubierto por Fermi es bastante extraño y sin una comparación en nuestro mundo macroscópico donde la eficiencia de los proyectiles se acrecienta con su energía cinética. Lo mismo sucede con proyectiles cargados en el mundo microscópico. Los físicos que habían bombardeado los blancos atómicos con partículas alfa, con deutones o protones, pusieron su empeño en acelerar los proyectiles: los tubos de descarga de Cockcroft, los generadores electroestáticos de Van de Graaff, los ciclotrones de Lawrence, fueron inventados y construidos, en primer término, para servir a esa finalidad. Antes del descubrimiento de Fermi, los investigadores hubieran comprendido difícilmente que era menester moderar la velocidad de un proyectil para aumentar su eficacia. Mas con los neutrones que no llevan carga y que, por ende, están libres de toda repulsión por parte de las barreras de potencial eléctrico de los núcleos, el problema cambia de aspecto. Dada su pequeña velocidad, los neutrones lentos – explicó Fermi – tienen tiempo para sufrir la acción de los núcleos que atraviesan y dejarse capturar por éstos gracias a un efecto de resonancia con las capas neutrónicas de los núcleos, efecto del cual la mecánica ondulatoria permite dar cuenta.

La facilidad con que los neutrones lentos se incorporan en los núcleos, provocando su transmutación, permitió a Fermi y colaboradores a producir isótopos radiactivos de una larga serie de elementos. Los isótopos así obtenidos, más pesados que la sustancia primitiva, se desintegran expulsando electrones negativos; como la pérdida de una carga negativa equivale a la ganancia de una positiva, se forman de esta manera nuevos núcleos con números atómicos más elevados que el núcleo primitivo.

El procedimiento hallado por Fermi para bombardear elementos pesados con neutrones, adquirió un particular interés cuando el físico italiano atacó en 1934 al más pesado de los elementos naturales, el uranio. El núcleo de este último, radiactivo en estado natural, se desintegra irradiando una partícula alfa, disminuyéndose así en dos su número atómico. Sin embargo, era de esperar que el núcleo de uranio, expuesto al bombardeo neutrónico, al capturar un neutrón, se desintegrara emitiendo un electrón, lo cual aumentaría su número atómico en una unidad, formando entonces un elemento desconocido de número 93. Si éste resultaba radiactivo a su vez, podía dar nacimiento a un elemento de número 94 expulsando un electrón. Así aparecerían nuevos átomos, inexistentes en la naturaleza terrestre, que ocuparían en la tabla periódica de Mendelejeff posiciones situadas más allá del uranio: elementos transuránicos.

Ya en 1938, Fermi era considerado, sin duda alguna, como el mayor experto en neutrones y, cuando arribó a los Estados Unidos, continuó investigando sobre ellos. En ese país, pronto fue nombrado profesor titular de una de las cátedras de física de la Universidad de Columbia, en New York.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 19: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

19

(VIENE DE LA PÁGINA ANTERIOR)

Cuando en 1939 Hahn y Strassman descubren la fisión, él vio inmediatamente la posibilidad de la emisión de neutrones secundarios y de una reacción en cadena. Se centró a trabajar con enorme entusiasmo sobre el tema, y dirigió una serie de experimentos clásicos que condujeron finalmente a la construcción de una pila atómica que produjo la primera reacción nuclear en cadena controlada. Ello ocurrió en Chicago el 2 de diciembre de 1942, en un campo del voleibol situado en los bajos del estadio deportivo de la Universidad de Chicago.

Lo anterior, llevó a Fermi a jugar un rol importantísimo en la solución de los problemas ligados a la construcción de la primera bomba atómica, y era uno de los líderes del equipo de físicos en el proyecto de Manhattan encabezado por Robert Oppenheimer (1904 – 1967) para el desarrollo de ese artefacto nuclear.

Fermi se hizo ciudadano norteamericano en 1944 y, una vez finalizada la Segunda Guerra Mundial, en 1946 aceptó una cátedra en el Instituto de Estudios Nucleares de la Universidad de Chicago, una posición que desempeñó hasta su muerte, acaecida el 29 de noviembre de 1954, truncada su vida prematuramente a causa de un cáncer. En ese período, Fermi fundó un grupo para la investigación de la física de altas energías, incluyendo la interacción del pión–neutrón. El Premio Enrico Fermi otorgado en su memoria es concedido anualmente a quien más haya contribuido al desarrollo, uso o control de la energía atómica. Su nombre ha sido distinguido con el honor de designar al elemento atómico Nº 100, al que se le dio el nombre de Fermio (Fm).

Durante los años de Fermi como investigador, también se ocupó del problema del origen de los enigmáticos rayos cósmicos, formulando una teoría sobre ello, según la cual un campo magnético universal – actuando como un acelerador gigante – explicaría las fantásticas energías presentes en las partículas de esos rayos. Fue también uno de los científicos que investigó la existencia de los ovnis.

El Profesor Fermi era el autor de numerosos artículos sobre física teórica y experimental y, como conferencias, siempre contó con un gran auditorio. Dictó varios cursos en universidades como la de Michigan, Ann Arbor; y en la Universidad de Stanford, California. Fue el primer receptor de una dieta especial de investigación de US$50.000 – que ahora lleva su nombre – para las investigaciones referidas al átomo.

Se casó con Laura Capon en 1928. Tuvo un hijo, Giulio; y una hija, Nella. Sus pasatiempos favoritos eran las caminatas, el montañismo, y los deportes de invierno.

FUENTES:

Page 20: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

20

EEssppaacciioo yy TTiieemmppoo Consideraciones actuales sobre la Teoría de la Relatividad

Por: HUGO A. FERNÁNDEZ

FUENTE: casanchi.com - FECHA: 16 MAYO 2009

La Teoría de Relatividad no es un modelo sobre el movimiento de los cuerpos, o de la Mecánica o del Electromagnetismo, ni sobre alguna disciplina particular de la Física.

Es una teoría sobre el espacio y el tiempo, que trata sobre sus propiedades y de qué manera ellas inciden y regulan las leyes sobre el comportamiento de los fenómenos naturales.

Tratemos de describir brevemente algunos aspectos de interés sobre la evolución que sufrieron estos conceptos básicos fundamentales.

La experiencia mostró que el espacio físico (tridimensional) posee una simetría particular por la cual el tamaño y la forma de los objetos materiales en reposo respecto de un observador no dependen de la posición ni de la orientación del objeto.

Este simple hecho permite determinar empíricamente una unidad de medida espacial e introducir el concepto de distancia, requisito necesario para reconocer la geometría correspondiente al espacio, que resultó la euclídea, válida para todo observador.

Estas propiedades se conocen hoy como homogeneidad e isotropía del espacio .

Análogamente, por observación de los fenómenos naturales periódicos se asumió que el tiempo físico, concepto que permite ordenar la ocurrencia de sucesos (“antes” y “después”), era una magnitud unidimensional mensurable que admite una definición similar a la de distancia, llamada intervalo o duración. La experiencia mostró también que el tiempo físico poseía una simetría particular por la cual la duración de un dado evento causal, bajo idénticas condiciones, no dependía del lugar de ocurrencia ni del instante de inicio.

Esta propiedad actualmente se denomina uniformidad del tiempo .

Hasta fines del siglo XIX se suponía que el espacio y el tiempo eran magnitudes independientes con valores absolutos, por lo cual toda medición de distancia o de intervalo era idéntica para todo observador. Nuestro Universo era tridimensional, de geometría euclídea, y solamente su evolución requería el análisis temporal, sin que ello incidiera en las propiedades del espacio.

La métrica del espacio (euclídeo tridimensional) era invariante, condición que puede expresarse en coordenadas cartesianas mediante:

ds2 = dx2 + dy2 + dz2 Invariante

Esta interpretación, aceptada durante más de dos milenios, puede ser entendida con un ejemplo cotidiano. Supongamos tener una dada secuencia de fotos de un móvil, obtenidas a intervalos conocidos y cámara fija, tal que el movimiento del objeto puede estudiarse por comparación y así conocer la evolución del fenómeno dinámico.

Cada foto será distinta pero ellas siguen siendo bidimensionales, su métrica espacial es la misma (y su escala se conserva).

Los trabajos de Lorentz y Poincaré, aparecidos alrededor del año 1900, mostraron que las “distancias” e “intervalos”, medidos sobre un mismo fenómeno por observadores en movimiento relativo, daban resultados distintos y dependientes de la velocidad entre observadores. La geometría espacial seguía siendo euclídea para cada observador pero las distancias y los intervalos medidos no eran idénticos (nacía la relatividad post Galileo), es decir que la métrica euclídea tridimensional no era invariante.

Con el advenimiento de la Teoría de Relatividad de Einstein (1905) quedó claramente establecido que para todo observador inercial el espacio y el tiempo conservaban las históricas propiedades, pero sus métricas (espacial y temporal) diferían entre sistemas de referencia con movimiento relativo constante. Las transformaciones de Lorentz eran las relaciones funcionales que vinculaban dos sistemas de referencia inerciales.

Sin embargo, inicialmente no se entendió que esta relación funcional (Lorentz) entre sistemas de referencia inerciales implicaba algo mucho más profundo: el Universo era esencialmente de cuatro dimensiones.

Este descubrimiento se debió a Minkowski (1908) quien se percató que la pérdida de invariancia de la métrica euclídea espacial era debida a la relación existente entre el espacio y el tiempo, por lo cual la métrica correcta debía contener al tiempo.

La adecuada métrica invariante en cuatro dimensiones se deduce fácilmente de las Transformaciones de Lorentz, resultando:

ds2 = c2dt2 – (dx2+dy2+dz2) Invariante

Debido a los signos distintos de las partes espacial y temporal en el segundo miembro, esta métrica se denominó seudoeuclídea a propuesta de Klein y Hilbert.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Page 21: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

21

(VIENE DE LA PÁGINA ANTERIOR)

Importantes estudios contemporáneos han mostrado que las propiedades de simetría del espacio y el tiempo, representadas mediante su métrica en un espacio de cuatro dimensiones (y su invariancia), son suficientes para fundamentar la Teoría de Relatividad Especial, sin necesidad de recurrir a los postulados propuestos por Einstein.

Específicamente se ha demostrado que si aceptamos que los fenómenos que ocurren en nuestro Universo responden a una métrica cuadridimensional seudoeuclídea del espacio-tiempo, entonces el Principio de Relatividad y la existencia de una velocidad tope y absoluta pueden ser obtenidos como consecuencias.

De acuerdo con el notable físico ruso A. Logunov, la Teoría de Relatividad queda rigurosamente establecida postulando que los fenómenos físicos suceden en un espacio cuadridimensional cuya geometría es seudo euclídea.

Consecuencias

Esta formulación moderna de la Relatividad Especial (Logunov, 1996) reviste una extraordinaria importancia ya que establece rigurosamente que las condiciones de validez de la teoría dependen única y exclusivamente de las propiedades del espacio y el tiempo asignadas. No es necesario postular la constancia de la velocidad de la luz ni el Principio de Relatividad.

Es fundamental resaltar que la homogeneidad e isotropía del espacio, la uniformidad del tiempo, y la métrica seudo euclídea invariante, que convalidan la Teoría Especial de Relatividad, son exactamente los mismos postulados que fundamentan los llamados Principios Universales de conservación (Teorema de Emmy Noether, 1915), por lo cual todas las leyes válidas en esta teoría poseen la misma jerarquía que las leyes de conservación de la energía, de la cantidad de movimiento y del momento angular.

En consecuencia, el extraordinario descubrimiento hecho por A. Logunov nos pone frente a una integración histórica de las leyes relativistas de la Física y los Principios

Universales, generando una situación crítica, ya que el incumplimiento de cualquiera de estas leyes relativistas que signifique invalidar sus fundamentos obligará a revisar todo el conjunto, pues todas ellas se derivan de los mismos postulados básicos.

Asimismo, la existencia de una velocidad máxima posible, única y absoluta, obtenida como consecuencia de asumir una geometría seudo euclídea del espacio-tiempo y su métrica invariante, clarifica que cualquier modelo teórico que proponga otra alternativa, tal como atribuir velocidades máximas diferentes para la gravedad y el electromagnetismo (T. van Flandern, "The speed of gravity - What the experiments say", 1998; S. Kopeikin, "Bi-metric theory of gravity", 2006, etc.), poseerá una métrica espacio temporal diferente a la seudo euclídea.

Dado que la forma matemática de una ley tiene implícita la geometría utilizada, las leyes que describen el comportamiento de los fenómenos serán distintas en marcos teóricos que usen diferentes métricas.

Destaquemos la evidente incompatibilidad entre las teorías General y Especial, debida a que las propiedades establecidas en cada caso para el espacio y el tiempo son contradictorias y antagónicas entre sí. Ante la presencia de masa ambas teorías tienen métricas espacio temporales distintas, lo que implica que los fenómenos se interpretan de manera distinta y, por supuesto, responden a leyes diferentes.

Como vemos, existe una profunda sutil diferencia entre cambiar de sistema de referencia espacio temporal, procedimiento usual, útil y lícito, a modificar sus propiedades cambiando la métrica.

No debemos extrañarnos, entonces, que en la Teoría General de Relatividad no se cumplan ni los Principios Universales ni la Relatividad Especial, dado que la métrica (espacio curvo) es dependiente de la distribución de materia. Más aún, ninguna ley relativista en el espacio de Minkowski es válida en la Teoría General, y ello incluye al Electromagnetismo de Maxwell. En este sentido digamos que hay una discusión centenaria respecto de la validez de la mal denominada Paradoja de Born, sobre que un electrón en movimiento hiperbólico no irradia en el espacio curvo de la Teoría General y si lo hace en el espacio de Minkowski de la Teoría de Maxwell.

Este tema puede ser profundizado con los siguientes trabajos:

1. A. Logunov (“Curso de Teoría de la Relatividad y de la Gravitación”, Lecciones 1 y 2, 1998) 2. N. Mermin ("Relativity without light", Am. J. Phys. 52 (2), 1984) 3. S. Cacciatori, V. Gorini, A. Kamenshchik ("Special Relativity in the 21st century", 2008) 4. Mitchell J. Feigenbaum ("The Theory of Relativity - Galileo's Child", 2008)

Hugo A. Fernández [email protected]

Profesor Titular de Física Moderna Universidad Tecnológica Nacional - Argentina

Page 22: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

22

Obtenido de "http://es.wikipedia.org/wiki/Teorema_de_los_cuatro_colores".

Entre todas las grandes conjeturas todavía no demostradas de las matemáticas, la más sencilla (sencilla en el sentido de que hasta un niño pequeño puede comprenderla) es la del famoso teorema topológico de los cuatro colores: ¿Cuántos colores son necesarios para iluminar un mapa arbitrario, de modo que nunca dos regiones colindantes sean del mismo color? La imposibilidad de trazar cinco regiones planas, de manera que cada par de ellas tenga frontera común, fue enunciada por Moebius en una conferencia que dio en 1840, donde la presentó en forma de cuento acerca de un príncipe oriental que legó su reino a sus cinco hijos con la condición de que fuera dividido en cinco regiones, cada una de ellas fronteriza con las otras cuatro. Este problema es equivalente al siguiente de la teoría de gráficos: ¿Es posible disponer cinco puntos sobre el plano de manera que sea posible unir cada uno con los otros cuatro mediante líneas rectas que no se corten? En cualquier libro de teoría de grafos puede verse la demostración de esta imposibilidad. Se podría creer que el teorema de los cuatro colores (para iluminar un mapa arbitrario, de modo que nunca dos regiones colindantes sean del mismo color, es siempre suficiente con cuatro colores) sería consecuencia inmediata de éste, pero tal conjetura es errónea. Es fácil hacer mapas que exigen cuatro colores; y basta un conocimiento elemental de las matemáticas para poder entender la demostración de que cinco colores son siempre suficientes. ¿Pero son los cuatro colores necesarios y suficientes? Para expresarlo de otro modo, ¿es posible hacer un mapa que exija utilizar cinco colores? Los matemáticos que se han interesado en esta cuestión pero no ha podido estar seguros hasta ¿???

Contra lo que se ha dicho frecuentemente, no fueron los cartógrafos los primeros en observar que tan sólo son precisos cuatro colores para iluminar un mapa. Al parecer, el primero en enunciarlo explícitamente fue Francis Guthrie, un estudiante de Edimburgo quien se lo mencionó a su hermano Frederick, que más tarde sería químico. Éste, a su vez, se lo comunicó en 1852 a su profesor de matemáticas, Augustus de Morgan. La conjetura se hizo célebre después de que el gran Arthur Cayley admitiera, en 1878, que había estado trabajando infructuosamente en esta cuestión. En 1879, el jurista y matemático inglés Sir Alfred Kempe publicó la que él creía ser una demostración. Un año más tarde hacía aparecer en la revista Nature un artículo con el algo infatuado título «Cómo iluminar un mapa con cuatro colores». Durante una decena de años, los matemáticos creyeron el problema resuelto, entonces P. J. Heawood localizó un error fatal en la demostración de Kempe. Desde entonces, las mejores mentes matemáticas del mundo han estado bregando inútilmente con el problema. Lo que hace el problema tan atrayente y fascinador es que parece que demostrarlo haya de ser tarea fácil. En su obra autobiográfica titulada Ex-Prodigy, Norbert Wiener escribe que, como todos los matemáticos, intentó demostrar el teorema de los cuatro colores, con el único resultado de ver todas sus demostraciones fundirse como el oro en la mano del pródigo.

El estado actual del problema es que se ha establecido su validez para todos los mapas que no tengan más de 38 regiones. Puede pensarse que se trata de un exiguo resultado, pero éste parece algo menos trivial cuando se sabe que hay más de 1038 mapas topológicamente distintos que tengan treinta y ocho o menos regiones. Ni siquiera una moderna computadora electrónica podría examinar todas estas configuraciones en un tiempo razonable. El hecho de que hasta el momento se carezca de demostración para el teorema resulta todavía más exasperante si se tiene en cuenta que se han podido demostrar teoremas análogos para superficies mucho mas complejas que el plano. (La esfera es en lo que a este problema se refiere equivalente al plano pues cualquier mapa sobre la esfera se puede transformar en un mapa plano pinchando el mapa por el interior de una región y proyectando la figura que resulta sobre una superficie plana.) Para las superficies de una sola cara como la banda de Moebius, la botella de Klein y el plano proyectivo se ha podido demostrar que seis son los colores necesarios y suficientes. Este número es de siete para la superficie del toro. De hecho, el problema de iluminar un mapa ha sido resuelto para todas las superficies de orden superior que han sido estudiadas seriamente. Solamente cuando se quiere aplicar el teorema a superficies topológicamente equivalentes al plano o a la superficie esférica continua el problema desafiando a los topólogos; y lo que es peor, sin que aparentemente haya ninguna razón para ello. Hay algo de diabólico en el modo en que todos los intentos de demostración van progresando lindamente para, a última hora, cuando está a punto de completarse la cadena deductiva, mostrar una laguna irreparable. Nadie puede predecir lo que el porvenir reserva a este famoso problema, pero es seguro que alcanzará renombre universal quien sea capaz de alcanzar alguno de estos tres posibles resultados.

1. Descubrir un mapa que forzosamente necesite cinco colores. En su excelente artículo «El problema del mapa de cuatro colores, 1840-1870» H. S. M. Coxeter escribe: «Si hubiera de atreverme a formular una conjetura, diría que posiblemente existan mapas que exigen el empleo de cinco colores, pero que incluso el más sencillo de ellos tendrá tantas regiones, centenares de miles, posiblemente, que nadie enfrentándose a él, tendría el tiempo ni la paciencia para hacer todas las comprobaciones que serían necesarias para excluir la posibilidad de poderlo colorear con cuatro tintas.»

2. Descubrir una demostración del teorema, verosímilmente mediante alguna técnica nueva que quizá permitiera al mismo tiempo abrir algunas de las puertas más sólidamente ancladas en diversas partes de las matemáticas.

3. Demostrar que es imposible demostrar el teorema. Esto quizá suene extrañamente, pero en 1931, Kurt Godel estableció que en cada sistema deductivo lo bastante complejo como para incluir en si toda la aritmética existen teoremas matemáticos que son «indecidibles» en ese sistema. Hasta el momento, sólo para muy pocas de las grandes conjeturas todavía no resueltas de las matemáticas se han podido establecer su indecidibilidad en este sentido. ¿Es una de ellas el teorema de los cuatro colores? Si así fuera, la única manera de que pudiéramos considerarlo como «verdadero» seria adoptarlos bien a él mismo, bien a otro teorema indecidible que le esté íntimamente ligado, como postulado nuevo e indemostrable de un sistema deductivo más amplio.

* NOTA: El teorema de cuatro colores es un teorema sobre el coloreo de grafos, y establece lo siguiente: Dado cualquier mapa geográfico, éste puede ser coloreado con cuatro colores diferentes, de forma que no queden regiones adyacentes con el mismo color. Dos regiones se dicen adyacentes si comparten un segmento de borde en común, no solamente un punto. Es fácil ver que no es posible colorear cualquier mapa en estas condiciones con sólo tres colores, y es laborioso pero no complejo demostrar la propiedad con cinco colores. El problema de los cuatro colores fue planteado por primera vez por Francis Guthrie en 1852 y resuelto en 1976 por Kenneth Appel y Wolfgang Haken con la ayuda de una computadora. La prueba sin embargo, no es aceptada por todos los matemáticos dado que sería impracticable por su gran cantidad de detalles que una persona se vería imposibilitada de verificar manualmente. Sólo queda aceptar la exactitud del programa, del compilador y del computador en el cual se ejecutó la prueba. Otro aspecto de la prueba, que puede ser considerado negativo, es su falta de elegancia. Una crítica sin mucho sentido que habla sobre la elegancia de la prueba, comentada en la época de su publicación, dice: «una buena prueba matemática es similar a un poema — ¡pero esto es una guía telefónica!» (En Mathematics, Microsoft Encarta Online Encyclopedia, Microsoft Corporation, 2007, en inglés). En la actualidad ya se realizó otra demostración, pero también haciendo uso de cálculos en la computadora, lo cual verifica la prueba original, pero queda la interrogante de una prueba que se pueda efectuar con lápiz y papel.

Page 23: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

23

CUENTOS MATEMÁTICOS

MMII PPRROOFFEE RRAAMMÓÓNN--22 Por: ARMANDO SAMANIEGO

Colombiano, escritor y conferencista de Matemática Recreativa. (Este es el segundo capítulo del libro Mi Profe Ramón, en el cual narro un poema, las extravagancias del 9 y una curiosa

multiplicación) FECHA: 22 MARZO, 2008

Era miércoles, ya llevábamos dos días de aquel año de clases, y el flojo del Rodrigo, empezaba a quejarse de lo larga que se le había hecho la semana; era nuestra segunda clase de Algebra con aquel profesor que había dejado una grata imagen en su primera aparición.

Una vez entró a clase, nos habló de algo de historia de los números y de algunos personajes que la habían inventado o creado; en esos momentos Ángela, una de mis compañeras, debo decir, la más bonita niña del salón cuyo único defecto era ser hermana del gordo Benítez, le preguntó al profesor ¿Quién inventó las matemáticas? El profesor Ramón dijo que en la historia de las matemáticas hay muchos personajes que se destacaron, pero decir uno solo sería injusto con los demás, además hubo mucha gente que trabajó muy duro y no pasaron a la historia y añadió: Ángela, les voy a narrar un poema escrito por un amigo matemático:

UN GRAN PERSONAJE

En vida he admirado A científicos y doctores

A deportistas, actores, cantautores Políticos no, pero sí a otros errores.

Todos ellos tienen su valor Han delegado bastante

A este mundo inquietante Donde crear es un don.

Pero nadie ha escrito tanto Poesía, ensayos, cantos Ni teatro, obras, tangos Como al que me refiero.

Creador del fuego y del juego Progenitor de sonrisas y llantos

Pintor, cantor, arquitecto Inventor, genio y sabio.

No es Einstein, Newton, Kepler, Beethoven, Mozart, ni esa gente Hay alguien que en verdad goza

De ser creador permanente.

Bastantes libros escribió Muchas obras le plagiaron Cuchillo y tenedor inventó Y su nombre lo olvidaron.

Hoy en verdad yo me animo A declarar su trascendencia No vaya a ser que se pierda En la historia sin clemencia.

Siendo todo un personaje A este humano importante

No le han hecho su homenaje

Hoy voy a revelar al orbe Que su apellido no lo sé

Pero Anónimo su nombre es.

“Lo que quiero enseñarles es que debemos admirar por igual a los grandes genios reconocidos así como a los que la historia olvidó pero dejaron huella”. Después, el profe le preguntó al gordo Benítez “¿cuántos hermanos tiene?”, a lo que Benítez, después de tragar lo que tenía en la boca respondió, “junto con Ángela somos 9 hermanos”; se oyó un rumor burlesco, con semejante cifra, no en vano les apodaban la familia curí, todos les decían así aunque nunca en nuestras vidas habíamos visto un animal de esos, salvo el loco de Johan David que decía tener dos en la pecera de su casa, junto a un tiburón. Retomando, el profesor escribió con tiza roja este número (9) en el pizarrón y nos contó nueve curiosidades de él, entre las que recuerdo las siguientes, que ustedes, queridos lectores tendrán que comprobar: 1. Cuando multiplicas el número 12345679 por algún múltiplo de 9 (9, 18, 27, 36, etc.) ¿Qué sucede?

2. ¿Qué tienen de especial los productos 999999 · 2, 999999 · 3, 999999 · 4,… hasta 999999 · 9?

3. Halla los resultados y concluye: 182 – 152; 1682 – 1652; 16682 – 16652; 166682 – 166652.

4. Halla los resultados concluye: 602 – 512; 5602 – 5512; 55602 – 55512; 555602 – 555512.

Armando SOLANO SAMANIEGO [email protected]

Page 24: HOMOTECIA Nº 10-2010 - UC

HOMOTECIA Nº 10–Año 8 Jueves, 1º de Octubre de 2010

24

TEODORO DE CIRENE

(456 AC-398 AC)

Teodoro de Cirene, fue un filósofo y matemático

griego, desarrollador de la teoría de los números

irracionales, y no debe ser confundido con el

filósofo cirenaico Teodoro, el Ateo.

Nació en el 456 AC en Cirene, hoy en día llamada

Shahhat y situada en Libia; y falleció en el 398

AC en la misma población.

Fue uno de los dos principales filósofos de la

escuela moral de Cirene. Alumno de Protágoras y

uno de los profesores de Teeteto y Platón (quien

le consagró su diálogo “Teeteto”). Vivió la

mayor parte de su vida en Atenas donde también

tuvo contactos con Sócrates. Trabajó en campos

tan diversos como la filosofía, la astronomía, la

aritmética, la música y la educación.

Como era Pitagórico, creía que la alegría y el

juicio eran la base para llegar a la felicidad. Es

conocido sobre todo por su trabajo matemático,

donde probó la irracionalidad de las raíces de los

números enteros no cuadrados (2, 3, 5...), al

menos hasta el 17, a base del método tradicional

pitagórico de usar la reducción al absurdo y llegar

a una inconsistencia relacionada con pares e

impares.1 También desarrolló la espiral que lleva

su nombre usando el Teorema de Pitágoras y

añadiendo perpendicularmente a un segmento una

unidad lo que forma triángulos cuyas hipotenusas

son las sucesivas raíces gráficamente2.

ESPIRAL DE TEODORO DE CIRENE

REFERENCIAS.

1. ↑ James R. Choike (1980). «Theodorus' Irrationality

Proofs». The Two-Year College Mathematics Journal.

2. ↑ James Gow (1884). A Short History of Greek Mathematics. University press.

Obtenido de: "http://es.wikipedia.org/wiki/Teodoro_de_Cirene"