Download - Equipo 11 DHTIC
Historia del LHC El inicio oficial del proyecto fue en 1984, con un simposio organizado en Lausanne, Suiza. Grupos se formaron para proponer un proyecto que acelerase hadrones. En 1989 las primeras colaboraciones comenzaron y él se tornó el proyecto prioritario del CERN. En 1992 un encuentro en Evian, Francia marca el inicio para las propuestas de experimentos. La idea era construir un acelerador superconductor sofisticado que funcionase a bajísimas temperaturas. El 16 de diciembre de 1994 el consejo del CERN aprobó el proyecto para ser construido en dos etapas. (Adballa, 2011)
EL MODELO ESTÁNDAR
El LHC es la versión más actual de una serie de experimentos que se iniciaron con Lord Rutherford en 1911 encaminados a conocer la estructura de la materia. En un celebérrimo experimento, bombardeó con partículas alfa una delgada lámina de oro. Su sorpresa fue encontrar que el átomo era una estructura prácticamente vacía
con un pequeño núcleo en su centro. El LHC pretende hacer algo similar con los protones. Durante años
los protones se consideraron partículas elementales, y como tales indivisibles. El resultado de todo ello fue un desarrollo
teórico conocido como cromo dinámica cuántica (QDC), que desembocó en el llamado modelo estándar. (Sánchez, 2010)
OBJETIVO
Su presupuesto y su puesta en marcha supero los 53 millones de euros, y su objetivo es hacer chocar partículas (protones) que interactúen con las cuatro fuerzas fundamentales, buscando entre 42 escenarios posibles confirmar la existencia de Bosón he Higgs. Durante el proceso de colisión de partículas, se producen 600 millones de choques por segundo, recreando las fuerzas y condiciones similares a las que posiblemente se experimentaron fracciones de segundo después del denominado Big Bang y
posteriormente analizar los efectos.
¿QUÉ ES AQUELLO QUE FORMA LAS COSAS, O
MEJOR DICHO, LA MATERIA?
Desde que este experimento se llevó a cabo, su intensa colisión de partículas ha dado pie a numerosas teorías sobre posibles desastres que pudieran provocar la destrucción de la Tierra, entre ellas está la formación de hoyos negros. La postura científica ha sido el de rechazar cualquiera de estas suposiciones, pues carecen de respaldo matemático. "La partícula de Dios" sería la pieza faltante en el llamado Modelo Estándar de la Física de Partículas que es la mejor descripción que los científicos tienen, en una escala más pequeña que los átomos, para explicar cómo es que el universo funciona: toda la materia con una masa conocida no fue creada de la
nada, sino que fue originada por energía que, al alcanzar cierta intensidad, resulto en un Bosón de Higgs, y este a su vez produjo las partículas con masa de las que se creó toda la materia posible. (Pertzel, 2012)
¿Y QUÉ ES EL BOSÓN DE HIGGS? ¿CÓMO SE
RELACIONA CON EL GRAN COLISIONADOR DE
HADRONES?
El bosón de Higgs es una partícula elemental propuesta en el modelo estándar de física de partículas. Su nombre data de 1964 gracias al trabajo de Peter Higgs quien el junto con sus colaboradores
propusieron en 1964 el mecanismo de Higgs, hoy usado para explicar el
origen de la masa en las partículas elementales. El 4 de Julio de 2012 la CERN (Organización Europea para la Investigación Nuclear) convoco
a la prensa para dar a conocer al mundo uno de los hallazgos de
la física más grandes para la humanidad hasta la fecha, se trataba especialmente del Bosón
de Higgs. (Bosman & Rodrigo, 2012)
PRUEBAS AL GRAN COLISIONADOR DE
HADRONES
Sus primeras partículas inyectadas fueron el 1- 08- 2008 y el primer intento para hacer circular los haces por toda la trayectoria del Colisionador se produjo el 10 de septiembre de 2008 mientras que las primeras Colisiones a alta energía tendrán lugar durante el 2009. El nuevo acelerador usa el túnel de 27 km de circunferencia, creado para el Gran Colisionador de Electrones y Positrones. Las
partículas serán Aceleradas mediante 1232 dipolos superconductores que deben operar a -271oC. Las partículas que atraviesen CMS dejarán señales que permitirán reconocerlas, así que a través de su existencia se podrá inferir la presencia de partículas nuevas. (González, 2011)
TRASTORNO POR DÉFICIT DE ATENCIÓN.
Este trastorno por Déficit de atención con
hiperactividad (TDAH) es un
trastorno que se presenta en la infancia
del ser humano e impide el desarrollo de
ciertas habilidades desde distintos
aspectos como: médico, cognitivo,
social y conductual adaptativo. Es el
trastorno más frecuente en la infancia
de los niños. Dicho trastorno es
caracterizado generalmente por un
decremento en la atención y un
comportamiento hiperactivo-impulsivo.
Generalmente las personas que presentan este trastorno
(TDAH) no son aceptadas por su familia, esto les
causa tensión, y en muchos de los casos que la
familia es ajena a la situación que presenta la
persona con este trastorno. Cabe mencionar que
cualquier problema psicológico está relacionado
con la familia, es por ello que en este sentido
dicho problema deben ser atendidos de
manera familiar. El objetivo de dicho trabajo
es dar a conocer la efectividad que tiene la
terapia familiar sistémica en la disminución de
conducta disruptivas e inatención de niños con (TDAH)
en la escuela y en el hogar, así como de mejorar sus funciones
ejecutivas y puedan lograr una mejor calidad de vida.
Bibliografía Martínez, G. (2014).trastorno por Déficit de Atención.
Psicología Científica, 1, 13-15.
INGENIERÍA DEL COMPORTAMIENTO:
La ingeniería del comportamiento es la
aplicación de técnicas precisas para el
establecimiento, mantenimiento o eliminación de
conductas humanas. -Técnica de exposición en
vivo, se expone a la persona en una situación
estimular vívida frente a la cual se inducen
conexiones de adquisición, mantenimiento o
reducción de conductas respondientes y
operantes.
TÉCNICA DE EXPOSICIÓN DE FANTASÍA
Plantea algo muy similar a la técnica antes mencionada, pero esta
utiliza la evocación imaginativa como sustitución de estimulaciones
reales.
TÉCNICA DE AUTORREGULACIÓN
Que capacitan a la persona para lograr un cambio en sí mismo y en el
entorno que habita, mediante técnicas de auto
control o dominio de habilidades y destrezas
propias. -Técnicas “racionales” utiliza el lenguaje
para articular métodos de discusión e
información, es decir la forma en que la persona
percibe al mundo.
Biografía José, D. (2014). Ingeniería del
comportamiento: un enfoque tecnológico para
potenciar la práctica. Psicología Científica, 1, 21-
24.
IMPACTO DE LA “TELEVISIÓN BASURA” EN LA
MENTE Y LA CONDUCTA DE LOS NIÑOS Y
ADOLESCENTES
Sabemos que existe esa llamada “televisión basura” que no es más
que un conjunto de programas de televisión cuyos contenidos son muy
pobres tanto en la propuesta cognitiva como en la socio-afectiva que
nos brindan, por decir dos aspectos centrales que forman la riqueza
psicológica de cualquier ser humano.
Bibliografía:
M., A. (2012). Impacto de televisión basura en la mente y la conducta.
Avances en Psicología, 44-45.
En la labor de psicólogos y docentes hemos podido ver
como en los últimos años los niños y los adolescentes
están hoy por hoy mucho más expuestos a una
parafernalia tecnológica cada una más
demandante y cambiante que la otra. Queremos
ver esta vez el tema de la televisión y su impacto
en la psique humana, sobre todo por la infantil
por considerarlo un tema muy importante y de la
repercusión en la mente juvenil y en temas
esenciales como la escolaridad, el juicio lógico,
el manejo de la palabra, la convivencia
armoniosa, la inteligencia y las actitudes positivas
y sanas.
Bibliografía:
Humbert, E. (2008). The effects of psychotherapy. Magazine of
Consulting Psychology, 16,19-24
Riesgo sexual en adolescentes según la edad de debut sexual Se
considera la adolescencia como una de las etapas más importantes
del ser humano debido a los cambios físicos
y psicológicos que en ella se generan,
pues en este lapso de tiempo que el
individuo se apropia de nuevos
valores, define su identidad, inicia el
proceso de independencia en el
ámbito familiar y, a la vez, sus
vínculos amorosos, los cuales
tienen implicaciones importantes en
su identidad. (Ramírez, Lizárraga, Félix,
Campas y Montaño, 2006; Robles y Díaz-Loving,
2012).
¿Qué es clonación? Es un proceso de la
naturaleza que se presenta en organismos
unicelulares los cuales se reproducen
asexualmente por bipartición como las bacterias.
O en organismos vegetales como el pasto por
reproducción vegetativa; en los animales la
conocemos como partenogénesis. Los gemelos
univitelinos son un caso de clonación natural.
La Clonación humana inicio con el científico
Hans Spemmann en 1938 quien trabajo con
salamandras, desarrollo una técnica llamada
Transferencia Nuclear. La cual consiste en el uso
de una aguja hueca de 1 diezmilésima de pulgada con la que se retira
un set de cromosomas de un óvulo causando una primera herida,
enseguida se selecciona una célula somática diferenciada, de la cual
se toman dos sets de cromosomas y se inserta en el óvulo enucleado
causando una segunda herida. Como el óvulo ya no tiene su propio
material genético y realmente tampoco recibió un espermatozoide
haploide debemos de informarle que fue fecundado y que ahora es un
cigoto. La activación el
embrión clonado se logra
con ionomicina y una
corriente eléctrica suave de
algunos mili volts parecida al
cambio de potencial que
ocurre en un ovulo
fecundado
¿Se debería clonar a los seres humanos?
En un foro de la Academia Nacional de Ciencias, en marzo de 1977 en
Washington. Mientras se trataba el tema de la clonación una banda de
opositores comenzaron a gritar ¡no seremos clonados! Mientas
desenrollaban un cartel que proclamaba “Crearemos la raza perfecta,
Adolfo Hitler.
El Biólogo molecular Leon Kass Dijo en alguna reunión en Chicago de
la Asociación de Facultades de Derecho de Estados Unidos que no
debe clonarse a ningún ser Humano. Expreso que por solo tener la
capacidad de hacerlo no es una razón justificable. El doctor Paul
Ramsey de Princeton, el teólogo citado con más frecuencia por
aquellos que está encontrar de la clonación dijo que los errores en los
experimentos de clonación son inevitables en la formación de
embriones y deberían ser prohibidos.
El doctor Joshua Lederberg y Joseph Fletcher de Stanford, han sido
dos de los principales científicos que están a favor de la clonación
humana. Lederberg nunca ha dejado de lado la forma de tener bebes,
pero cree que la reproducción por clonacion debería tener las mismas
oportunidades, mientras la máxima de Fletcher es que la humanidad
debe contralar la evolución
huma na. (Lester & Hefley,
1998).
Nos propusimos explorar los rasgos del fenómeno de migración de
personal altamente calificado de México hacia Estados Unidos. A tal
efecto analiza, principalmente, dos fuentes de información: por una
parte los datos de la encuesta continua de hogares del Buró del Censo
de Estados Unidos, la American Community Survey, a través de los
cuales se identifican y comparan los rasgos del perfil sociodemográfico
y educativo de la población de mexicanos residentes en Estados
Unidos de América, con los correspondientes a la población nativa y
los que representan al subconjunto de residentes foráneos no
mexicanos en ese país. El trabajo con los micro datos de la encuesta
hace posible dimensionar con precisión los volúmenes de población en
distintas categorías relevantes: escolaridad, ocupación, e ingresos.
Mediante la observación de estos datos intentamos aproximarnos al
conocimiento de las características del grupo de mayor calificación
dentro del contingente de migrantes mexicanos. La segunda fuente de
información, que permite un ángulo analítico complementario, se
deriva de las estadísticas sobre visas de residencia temporal
tramitadas por mexicanos.
•Perfil sociodemográficos de los migrantes mexicanos en Estados
Unidos
La población de mexicanos residentes en Estados Unidos exhibe
características que la diferencian notablemente, tanto del conjunto de
personas nacidas en ese país, como también del resto de los
migrantes provenientes de otros países y regiones. Del perfil
sociodemográfico de los mexicanos en Estados Unidos se destacan
algunos componentes básicos: condición migratoria, distribución por
sexo y edad; escolaridad, ocupación y tasa de pobreza.
De las distintas fuentes estadísticas disponibles en México y en
Estados Unidos se optó por la encuesta continua del Buró del Censo
estadounidense, la American Community Survey (U.S. Census
Bureau, 2008) En esta encuesta se consigna, además de datos
anuales, información válida para el periodo 2005 a 2007. La muestra
así construida supera los ocho millones de registros, lo que representa
2.7% de la población total. A través de la consulta a la base de datos
de la encuesta es factible discriminar distintos conjuntos demográficos.
Así se identificó la población por origen étnico y racial, según la
clasificación del Censo, la población por lugar de nacimiento (incluidos
países extranjeros), o la población por condición de ciudadanía. Para
determinar con mayor precisión el perfil sociodemográfico comparativo
de los mexicanos residentes en Estados Unidos respecto a los nacidos
en esa nación, y en contraste con los inmigrantes de otros países, se
decidió construir tres subconjuntos:
a) El de los nacidos en Estados Unidos, que resulta de la resta entre la
población total residente en Estados Unidos en el periodo de la
encuesta menos la población de inmigrantes, es decir, los nacidos en
cualquier otro país independientemente de su condición migratoria.
b) El de los migrantes mexicanos, que consigna exclusivamente a los
nacidos en México, residentes en Estados Unidos,
independientemente de su condición migratoria.
c) El resto de los inmigrantes, esto es, la resta de los nacidos en el
extranjero residentes en Estados Unidos menos los inmigrantes
mexicanos.
Esta acotación se traduce en que los subconjuntos de población son
exclusivos unos de otros, a diferencia de la estadística convencional,
que los suele absorber en forma concéntrica, por ejemplo la población
estadounidense, con todos los inmigrantes incluidos, o la población de
inmigrantes, con el segmento de mexicanos dentro de ella. La
estadística reporta, en primer lugar, que en el periodo de referencia la
población total estadounidense ascendió a 298 â € ™757,310
individuos, de los cuales 37'234,785, es decir 12.5%, nacieron en el
exterior. Del total de inmigrantes 11'424,600 nacieron en México, lo
que quiere decir que los oriundos mexicanos representan 3.8% de la
población total en Estados Unidos, y 30.7% de la inmigración total a
ese país. Estos datos coinciden, con algunas diferencias cuantitativas,
con los registrados en otras fuentes, por ejemplo con las proyecciones
censales.
Del total de inmigrantes no mexicanos en Estados Unidos, más de la
mitad, esto es 51.0%, figura bajo el estatus de población inmigrante
naturalizada, es decir que ya han adquirido la ciudadanía
estadounidense, aunque se sigan consignando en la estadística
como foreign–born people.De los inmigrantes mexicanos sólo 21.6%
presentan la condición de naturalizados. La variable periodo de
ingreso al país muestra que la inmigración mexicana no difiere, en
forma notoria, con respecto al resto de los migrantes: 28.3% de los
mexicanos, contra 25.4% del
resto de los inmigrantes,
llegaron a Estados Unidos en
el año 2000 o
posteriormente. El 33.5% de
los mexicanos y 30.3% de los
extranjeros de otros países lo
hicieron en el lapso de 1990
a 1999, finalmente 38.2% de
los nacidos en México contra
44.3% de los nacidos en
otros países ingresaron a
Estados Unidos antes de
1990.
La combinación de estos datos representa una dinámica compleja,
porque quiere decir, en resumen, que el flujo migratorio de mexicanos
hacia Estados Unidos se integra no por una, sino por múltiples
corrientes migratorias. Algunas presentan el perfil típico de la
inmigración a ese país: ingreso, colocación laboral, naturalización.
Pero otras exhiben más bien los rasgos de las migraciones de tipo
circular y continuo, lo que explicaría la relativamente escasa
proporción de individuos que consiguen el estatus
de naturalización (Reyes, 1997). Por supuesto esta inferencia abstrae
las intenciones, expectativas y estrategias de los migrantes. Según
varias encuestas, prácticamente dos terceras partes de los
inmigrantes mexicanos en el vecino país llegan con la intención de
quedarse, sea para siempre o en tanto sea posible (Passel, 2007).
¿Nano qué?
La manipulación de la materia en una
milmillonésima parte de un metro, el
nombre nanotecnología, ya es una de
las propuestas principales de
desarrollo tecnológico del siglo XXI..
¿Qué tanto nos influye?
Todavía está aumentando su notorio
grado de incertidumbre, desarrollo de
nanotecnología. Y, debido a sus
potencialidades, la competencia
intercapitalista en tal un nicho es aún
más intensa. El trabajo aborda este
proceso desde un enfoque
sociopolítico y geoeconómico con el fin
de reconocer las dinámicas y los
intereses en juego; las relaciones de
poder y redes; la competencia
intercapitalista real las tensiones y
contradicciones; etcétera.
Algunos aspectos importantes
Y en la industria?
Se espera que las estructuras nanoescalares jueguen un papel enorme en el almacenamiento de información y energía, dos elementos cruciales en casi todos los productos o procesos basados en la electricidad. La tecnología nanométrica es ya responsable del elemento clave en la fabricación de discos duros de computadora. Además, los nanotubos han demostrado funcionar como transistores diminutos. A fines de agosto de 2001, los investigadores de IBM crearon un circuito capaz de ejecutar cálculos lógicos simples mediante un nanotubo de carbono auto ensamblado
Los puntos que nos interesa
examinar son: a) la difusión y
accesibilidad de las tecnologías
por distintos sectores sociales;
b) las bases de legitimación que
sostienen las posiciones de
aceptación acrítica de los
avances científicotécnicos; y c)
el papel que debería cumplir el
mundo institucional de las
prácticas científicas y técnicas
para que éstas sean puestas al servicio de una sociedad
auténticamente democrática. Analizamos el caso de los desarrollos
actuales en el campo de la nanotecnología a propósito de estos
diferentes aspectos.
lo chafa
Este trabajo propone algunas reflexiones en torno a los alcances y
consecuencias del creciente protagonismo de las actividades que
genéricamente conocemos como "tecnociencia", y que contribuyen en
gran medida a consolidar un modelo de organización económica y
social que segrega de sus beneficios a amplios sectores de la
población y pone en riesgo la sustentabilidad del planeta.
UNA GRAN PROMESA
Si bien existe hoy un gran consenso entre los especialistas en que la
nanotecnología será un factor crucial para solucionar los graves
problemas originados por la exclusión social que afecta a gran parte
del planeta, a este mundo de promesas debemos ponerlo en
correspondencia con otro, que genéricamente se refiere a la
posibilidad de que esta nueva tecnología sea destinada a fines menos
altruistas [2]
bENEficios a futuro
Se menciona un chip a base de nanopartículas magnéticas,
desarrollado por el Instituto de Biotecnología y Nanotecnología de
Singapur, que diagnostica enfermedades en cuestión de minutos con
[Haga clic aquí para agregar una descripción]
sólo tomar como muestra una
gota de sangre. Para el
cáncer se hace referencia a
un dispositivo que puede
detectar el cáncer de próstata
a través de un análisis de
orina, y que incluso podría
llegar a eliminar la necesidad
de realizar biopsias. Además,
se ha desarrollado una
herramienta de diagnóstico que sobre la base de muestras de saliva
detecta el cáncer oral. Incluso, en la Universidad de Alberta, en
Canadá, se ha creado una herramienta capaz de replicar segmentos
de ADN para hacer pruebas y encontrar enfermedades. El equipo no
supera el tamaño de una caja de zapatos y es capaz de funcionar
como un laboratorio entero, aun cuando pueda ser usado por una
persona sin mayores conocimientos de medicina. De hecho, cuesta
sólo US$100. En los laboratorios locales no están disponibles estas
nuevas tecnologías, pero demora menos de un día obtener resultados
de exámenes. [3]
inyeccciones de genes
Se basan en la terapia génica, vía inyección. De momento, sólo se han
curado de su depresión los ratones de un estudio realizado en el
Centro Médico Weill Cornell, del Hospital Presbiteriano de Nueva York
(EE. UU.). Los científicos querían estudiar la viabilidad de la terapia
génica para mejorar los niveles de serotonina, ya que las personas
con depresión tienen niveles bajos de este neurotransmisor. Para ello,
se fijaron en el gen p11, responsable de la fabricación de la proteína
p11, la cual, a su vez, permite aumentar la presencia de serotonina en
el cerebro. Michael Kaplitt, director del estudio, y sus colaboradores
bloquearon en un primer paso la fabricación de la proteína en ratones,
de forma que éstos empezaron a mostrarse apáticos, se movían
menos, se mostraban deprimidos. Luego, inyectaron un virus para
transportar el gen p11 hasta el núcleo accumbens, una región cerebral
especialmente afectada en la depresión. Los ratones volvieron a
comportarse con normalidad. Gracias al gen, habían logrado fabricar
la proteína p11 de nuevo. Asimismo, Kaplitt estudió el tejido cerebral
de varias personas fallecidas. La mitad habían sido diagnosticadas
con depresión, y la otra mitad, no.
una batalla a escala nanometrica
El trabajo de los nanotecnólogos es entrometerse en la materia a nivel
molecular y atómico, permitiendo su observación a escalas de entre 1
y 100 nanómetros, que corresponden con el tamaño de partículas y
estructuras un millón de veces más pequeñas que un milímetro. Éste
es un campo científico al que se le augura un gran porvenir en ámbitos
como la medicina, la alimentación y el medio ambiente. Y es
precisamente nano el terreno de juego en el que se mueve la
serotonina que antes mencionábamos. Científicos de la Universidad
de Ciencias y Salud de Oregón (EE. UU.) han conseguido colocar un
diminuto espía robótico en el interior del cerebro para entender mejor
cómo la proteína p11 consigue elevar los niveles de serotonina. Este
intruso nanométrico permite marcar un receptor de proteínas
individuales en la superficie de las neuronas y evaluar la eficacia de
los fármacos antidepresivos que influyen en la recaptación de la
serotonina. Dejando volar la imaginación, se habla de un futuro con
nanorobots o miembros biónicos. Asimismo, gracias a la nanomedicina
se podrían aplicar principios activos desde dentro del organismo y sólo
en los lugares deseados, lo que sería ideal para el tratamiento del
cáncer. [4]
E Referencias Bibliográficas
[1] G.D.C. Ramos, “Entre la
competencia y la dependencia
tecnológica: la nanotecnología
en elcontinente americano”,
Nómadas, Revista Crítica de Ciencias Sociales y Jurídicas (2008)
[2] C. T. , G, Boido & Baldatti,” Nuevas tecnologías: ¿para quiénes? El
caso de lananotecnología” Revista Iberoamericana de Ciencia, (2012)
[3]“ApoyoPublicaciones”,(2009)Laboratorioenunchip:http://go.galegrou
p.com/ps/i.do?id=GALE%7CA197363680&v=2.1&u=uabuap&it=r&p=A
ONE&sw=w&asid=cfd68bc5de4351ea108421ae1b924cd2,(2009)
[4] J. A, Rodríguez, “La guerra del futuro contra la depresión:
nanotecnología, inyecciones degenes y estimulación cerebral profunda
son las nuevas armas para combatir, en un futuroquizás no muy
lejano,” la depresión. (2011)
[5] M. P. ,Pinzón Ruiz, “Nanotecnología en los alimentos” (2012).