revista uni-ieeendo esfuerzos 4edición
Post on 22-Mar-2016
223 Views
Preview:
DESCRIPTION
TRANSCRIPT
Grupo de Prensa y Redacción de la
UNIVERSIDADNACIONAL DEINGENIERÍA
UNI-IEEEndo Esfuerzos
La Revista de la Rama Estudiantil IEEE de la UNI
400 000 Miembros Eficiencia Energética Paper
Rama Estudiantil de la UNI
Rama Estudiantil IEEE de la UNI.Pabellón Q1, 2° Piso, Oficinas 218-220.uni.reieee@gmail.comreieee.uni.edu.pe / reieeeuni.blogspot.com
N°
04
Año
2011
Membrecía IEEE Rompe Records.En promedio, las membrecías totales han estado creciendo cerca de 2% anualmente en los últimos siete años.
El Capítulo de Potencia y Energía PES-UNI, presenta el “I Concurso de Aplicación en Eficiencia Energética” con el patrocinio de ABB.
Jorge Llantoy nos presenta su paper titulado “Preliminary Internetworking Simulation of the QB50 Cubesat Constellation” presentado en el Latincom.
GRUPO DE PRENSA Y REDACCIÓN DEL IEEE UNI
UNI-IEEEndo Esfuerzos Esta iniciativa surgió a raíz de la necesidad de contar con la
información en nuestro idioma de nuestra famosa y
reconocida revista del IEEE Spectrum, así como también
incluir recursos para nuestros miembros y voluntarios.
REDACTORES & TRADUCTORES
Luis M. Farfán Salazar.,
Miembro IEEE
Estudiante de Pregrado de Ingeniería de Eléctrica, Ha participado
activamente desde los inicios en el Comité Organizador IEEE
INTERCON 2011
UNI, ha participado en la Delegación hacia el
INTERCON 2010 en Puno y en la Reunión Regional de Ramas,
actualmente es el Presidente de la Rama Estudiantil IEEE de la UNI.
Paul Dremyn Gomez Ch.,
Miembro IEEE
Estudiante de Pregrado de Ingeniería de Telecomunicaciones,
Ha
participado como Directiva del ComSoc UNI, ha participado
como
asesor en Capacitaciones, se dedica actualmente a la Plataforma Web
de la Rama y Como Asesor del Comité de Organizador
para el
INTERCON 2011.
M. Joaquin Fuentes Z.,
Miembro IEEE
Estudiante de
Pregrado de Ingeniería de Telecomunicaciones,
actualmente se encuentra desempeñando el cargo de Vicepresidente
del Consejo Estudiantil de Gerencia de Tecnología, TMC UNI, también
es el Responsable del Comité de Registro e Inscripciones de
INTERCON 2011.
Pamela
R.
Crisóstomo Yance., Miembro IEEE
Estudiante de Pregrado de Ingeniería de Telecomunicaciones,
actualmente se encuentra desempeñando el cargo de Tesorera
del
Consejo Estudiantil de Gerencia de Tecnología, TMC UNI, también es
el Responsable del Comité de Call for Papers y Visitas Técnicas
de
INTERCON 2011.
INVITADOS ESPECIALES
Portada: Juan Carlos Quispe.
COORDINADOR GENERAL DEL GRUPO
M. Joaquin Fuentes Z., mjfuentes@ieee.org
COMPILACIÓN
Y
ESTRUCTURA
M. Joaquin Fuentes Z., mjfuentes@ieee.org
REVISIÓN Y CONTROL DE CALIDAD
Paul Dremyn Gomez Ch.., dremyn@ieee.org
DIRECTVA
PRESIDENTE
Luis M. Farfán Salazar., luis.farfan@ieee.org
VICEPRESIDENTE
Jesús J. Briceño A., jbricenoa@uni.pe
SECRETARIO
Jorge L. M. Cabrera Ch., jorgecch@ieee.org
TESORERA
Lizeth
I. Castillo Ch., l.castilloch@ieee.org
VOCAL
Sabrina P. Reynaga A, sabri1291@gmail.com
CAS
PRESIDENTE
Samy N.
Mori Cubas.,
msamync@ieee.org
VICEPRESIDENTE
Diego
Gomero Gomero., diegogomero@gmail.com
SECRETARIO
Pier Santy Cabrera., pierosc16@gmail.com
TESORERO
Aldair Llapo Hernandez., aldairhernan@gmail.com
VOCAL
German Mendoza Reyes. gmendoza.fiee@gmail.com
ComSoc
PRESIDENTE
VICEPRESIDENTEJulio A. Quispe R., jaquisper@uni.pe
SECRETARIO
TESORERO
PES
PRESIDENTE
H. Ivan. Espinoza C., iespinozac@uni.pe
VICEPRESIDENTE
Renzo A. Vargas P., rvargasp@uni.pe
SECRETARIO
Cesar R. Canchero M., ccancherom@uni.pe
TESORERO
Juan C. Quispe H., jcquispeh@ieee.org
RAS
PRESIDENTE
Mishell Sanchez G., msanchezg@ieee.org
VICEPRESIDENTE
Martin Capcha P., martin.capcha@ieee.org
SECRETARIO
Hector Sandoval ., hector.sandovalj@gmail.com
TESORERO
David Lagos Huamaní.,
dlagosh@ieee.org
TMC
PRESIDENTE
Frank A. Moreno Vera.,
frank.moreno@ieee.org
VICEPRESIDENTE
M. Joaquin Fuentes Z., mjfuentes@ieee.org
SECRETARIO
Miguel Hurtado Garrafa, miguel.hurtado@ieee.org
TESORERA
Pamela
Pamela
R.
R.
C. Y
C. Y
.,
.,
pamela.crisostomo@ieee.org
pamela.crisostomo@ieee.org
COMITÉ DE PUBLICIDAD
Carlos F. Romero A.,
cromeroa@uni.pe
COMITÉ DE INFORMÁTICA
Y WEB
M. Joaquin Fuentes Z., mjfuentes@ieee.org
Paul Dremyn Gomez Ch.., dremyn@ieee.org
Rama Estudiantil de la UNI
Michael B. Díaz, michaeldq1085@gmail.com
Celso García Q., celsogarciaq@gmail.com
Magister Julio Salvador Jácome, Ingeniero Mecánico Electricista de la Universidad
Nacional de Ingeniería (UNI), Magister en Ingeniería de Sistemas en la UNI, Magister
en Administración de Negocios en ESAN, Doctor en Administración y Dirección de
Empresas en ESAN/ESADE. Actualmente es Profesor Principal de la Facultad de
Ingeniería Eléctrica y Electrónica de la UNI.
Graduado en Ing. de Telecomunicaciones, fue presidente del Capítulo de
Comunicaciones, IEEE ComSoc UNI, así mismo participó en el Proyecto Chasqui I
en el Área de Comunicaciones Satelitales, del Centro de Tecnologías de Información
y Comunicaciones, CTIC-UNI, actualmente se encuentra trabajando el Alcatel-Lucent
del Perú.
Jorge L. Llantoy P., Miembro IEEE.
Estudiante de Pregrado de ingeniería electrónica, actualmente desempeña el cargo
de tesorera de la Rama Estudiantil IEEE de la UNI. Además, participa activamente
del capítulo de robótica y automatización de la REIEEE UNI .También es la
responsable del Comité del V Concurso Nacional de Robótica desarrollado durante
el INTERCON 2011.
Estudiante de Pregrado de ingeniería electrónica,actualmente desempeña el cargo
de vicepresidente del capítulo de Robótica y Automatización de la Rama Estudiantil
IEEE de la UNI. También es el responsable del Comité de Conferencias en el
área de del INTERCON 2011.Robótica y Automatización
Martín Capcha Presentación: Miembro IEEE
Lizeth Castillo Chincha: Miembro IEEE
PRESENTACIÓN
El presente mes de agosto será recordado por mucho tiempo en
la memoria de los voluntarios de la Rama Estudiantil IEEE de la
UNI, pues del 8 al 12 de agosto se desarrolló el IEEE INTERCON
2011, organización que se viene trabajando desde setiembre
del 2009. Recuerdo que en ese tiempo aún no participaba de la Rama
Estudiantil y me invitaron a participar de un comité para postular a ser
sede de tan importante Congreso. El reto fue grande y ambicioso, se
obtuvo la sede de tan importante Congreso y una joven nueva generación
empezó a tomar las riendas de la Rama Estudiantil de la UNI. Eso conllevó
a una serie de experiencias a lo largo del tiempo que nos permitieron
solidificarnos como organización, desarrollar más actividades como eventos
y proyectos.
El mes de agosto también será recordado pues se obtuvo el primer puesto
de Rama Ejemplar, el segundo puesto en el Concurso de Páginas de WEB
y el tercer lugar en el concurso Casos de Éxitos (Revista UNI-IEEEndo
Esfuerzos) en la Reunión Regional de Ramas de Región 9 desarrollada en
Lima, estos premios se obtuvieron por las ganas, motivación y dedicación
que le ponen los voluntarios IEEE de la UNI. Estos premios nos motivan
para seguir trabajando y aportando al IEEE y a la UNI, instituciones que
nos respaldan y apoyan.
Esta IV Edición de UNI-IEEEndo Esfuerzos nos trae artículos novedosos
relacionados a la Energía en el Perú, las redes sociales en internet, los más
de 400000 miembros del IEEE, imágenes del INTERCON 2011 entre otros
artículos interesantes.
Para la quinta edición de UNI-IEEEndo Esfuerzos se publicaran los
resultados que nos dejó el INTERCON 2011, pero más allá de las
estadísticas y números puedo afirmar que el INTERCON 2011 nos dejó un
gran grupo humano, formando muchos líderes los cuales aprendieron en el
camino a serlos; y eso cumplió con uno de los objetivos con los cuales
nace el INTERCON, la formación de líderes.
Esperando que la IV Edición de UNI-IEEEndo Esfuerzos sea de su agrado y
enviándoles saludos a nombre de la Rama Estudiantil IEEE de la
Universidad Nacional de Ingeniería, me despido.
Membrecía IEEE Rompe Records (400 000 y contando)
El IEEE había logrado un par de importantes hitos en membrecías al final del año pasado. Por primera vez en
su historia, tiene más de 400 000 miembros, y sólo la membrecía estudiantil alcanzó el número de 100 000. En promedio, las membrecías
totales han estado creciendo cerca de 2% anualmente en los últimos siete años. Y después de muchos años de declinación, las membrecías totales de las sociedades se
incrementaron el año pasado, con las sociedades de Communications, Computer, y Power & Energy liderando el camino. Ha habido crecimiento
alrededor del mundo, particularmente en Canadá, India, Japón, Reino Unido, y Estados Unidos. Y a pesar del agrio entorno económico,
desde 2008 hasta 2010, el total de membrecías IEEE se incrementó 7% y las membrecías estudiantiles, un 21%. Éstas aumentaron mayormente en Australia,
Canadá, China, Reino Unido, y Estados Unidos.
Por qué ellos se unen La publicación The Institute IEEE preguntó a los miembros a que nos digan por qué ellos se unen al IEEE
y por qué se mantienen. El miembro estudiantil graduado Dody Ismoyo listó varias razones por las cuales registrarse: los muchos seminarios y webinarios
IEEE, programas de entrenamiento continuo, y libros web, así como la oportunidad que él tiene de conocer ingenieros principales de la industria.
Dody se convirtió en un miembro estudiantil en Universiti Teknologi Petronas, Malasia, donde obtuvo el grado de bachiller en ingeniería de sistemas de
potencia. Después de un año, sin embargo, él dejó su membrecía porque, en sus propias palabras, él “falló en ver los beneficios”. Pero él se volvió a afiliar el último año
cuando el comenzó a conseguir su grado de maestría en ingeniería de potencia en la Universidad de Sydney, Australia, y él está contento de haberlo hecho.
“Afiliarme a la IEEE ha cambiado mi vida tanto, especialmente en mi vida post universitaria”, él dice. “He encontrado gente que realmente entiende qué
estoy hablando, ya que generalmente tenemos el mismo entorno de educación en ingeniería.. Él también fue presentado en
Engineers Australia, una institución que mantiene actividades conjuntas con el IEEE, incluyendo seminarios y presentaciones técnicas, muchas de las cuales Dody
asiste. “Muchos compañeros de clase preguntan cómo tengo conocimiento de muchos
eventos relacionados a la ingeniería y yo les respondo „Porque soy un miembro IEEE,‟ él dice. “¡Renovaré mi membrecía tanto como
pueda!” Mohammed Al-Donbok se convirtió en un miembro estudiantil porque él “quería familiarizarse con los estándares IEEE y tener
acceso a los artículos técnicos (papers)” menciona. “IEEE también me dio la oportunidad de tomar cursos de educación continua.” Al-Donbok es un estudiante de
ingeniería eléctrica en An-Najah National University, en Israel, y es un miembro estudiantil de las sociedades Communications y Power & Energy. También dice que él
ha tenido muchas gratas experiencias con su rama estudiantil. “Espero crear cambios en el sistema de comunicaciones de mi país e IEEE me
ayudará llevar a cabo mi visión.” menciona. “Para mí, IEEE significa ser un miembro trabajador, ambicioso y conocedor.” Wilber Hernández se unió
porque su profesor de tesis de pregrado se lo recomendó. Hernández está buscando el título de graduado en gestión de tecnología en el Stevens
Institute of Technology, en New York. “Desde el primer momento tuve acceso a la librería digital IEEE Xplore en mi instituto, no he sido capaz
dejar de lado sus publicaciones, con sus profusas historias, artículos de investigación y referencias.”, afirma. “Se ha convertido en una gran
fuente de ideas para mí.” El miembro estudiantil Suyong Vyawahare aprendió del IEEE en secundaria
después de leer un artículo de la revista IEEE Spectrum acerca de energía. Después, Vyawahare comenzó a explorar los magazines
técnicos, los cuáles le expusieron los estándares IEEE. Cuando ingresó al Atharva College of Engineering, en Mumbai, India, se unió a la rama
estudiantil IEEE y se involucró en sus actividades. Él ha servido como el secretario asistente de la rama y su coordinador de eventos. “Mientras aprendo
más acerca de los programas y ofrecimientos del IEEE, estoy aún más orgulloso de ser un miembro”, nos dice. “Yo también quiero continuar mi membrecía porque el IEEE
ofrece programas de educación continua y programas de certificación profesional.” Muchas otras razones
Encuesta tras encuesta llevada a cabo a lo largo de los años por la IEEE han mostrado que las personas se unen, y se quedan porque ellos quieren permanecer al
corriente técnicamente, obtener acceso a las publicaciones e impulsar sus oportunidades de carrera. Muchos miembros, quienes respondieron directamente a
The Institute IEEE, confirmaron aquellas razones y se hizo eco de los hallazgos de otras encuestas, tal como el valor de las oportunidades
en publicaciones y redes de contactos, descuentos en el registro de conferencias, y un seguro de vida ofrecido a través del programa de descuentos de miembros
IEEE, formalmente conocido como el Programa de Ventajas Financieras del IEEE. Paul DeAndrea de New
York, ha sido miembro desde que él era un estudiante de pregrado en 1974. Ahora él pertenece a las sociedades IEEE de Power & Energy e
Industry Applications. “Artículos publicados acerca de las reuniones de sociedades han ayudado a expandir mi entendimiento de estas áreas y me han
mantenido al corriente,” afirma DeAndrea. “Las publicaciones IEEE fueron fuentes excelentes después en mi carrera hacia mi exitosa búsqueda de mi título
de graduado en ingeniería eléctrica. También me he contactado con otros practicantes de ingeniería y tuve la suerte de tener coautoría en un artículo
publicado en el IEEE Transactions on Industry Applications.” Peter Tobias, un miembro de Minnesota, Estados Unidos, dice que él se mantiene “para
apoyar al IEEE como mi organización profesional por las muchas cosas que ello hace.” Él hizo una lista de la publicación de revistas científicas y técnicas,
relacionados con el trabajo de asistencia, capítulos locales y la representación de los intereses de política pública de los miembros IEEE-USA. “El patrón
consistente del crecimiento de membrecías que el IEEE ha experimentado últimamente es una prueba de cuán valiosas son
nuestras publicaciones, servicios y beneficios, para el desarrollo de las carreras de actuales y futuros profesionales técnicos,” nos dice Howard Michel,
vicepresidente de IEEE Member and Geographic Activities. “Mientras nuestras
membrecías crezcan”, menciona Michel, “nuestra red de pares se expande también, brindándonos más alcance y profundidad a
nuestra ya muy diversa membrecía. Yo espero este crecimiento para acelerar el mundo así como el IEEE continúa desarrollando nuevos productos y servicios
y como nuestros miembros continúan corriendo la voz entre sus colegas.”
Elaborado por: KATHY
KOWALENKO
Traducido por: MARTIN
CAPCHA
Debajo del capó de Google y Facebook
Una mirada a los datacenters, servidores y software que nos
mantienen con la sensación de estar siempre conectados.
Archivos aislados: los racks de los servidores de archivos se encuentran perfectamente alineados en su último datacenter construido en Prineville, Ore.
Era 1999, y los fundadores de Google,
Larry Page y Sergey Brin, recién estrenados de haber constituido la
empresa de extraño nombre,
necesitaban servidores – cantidades de
ellos. Fue entonces cuando compraron placas madres de computadoras,
discos duros y fuentes de poder. No
hace mucho que los jóvenes ya habían experimentado problemas económicos
mientras estaban en la universidad,
fue así que ahorraron dinero, lo que
hicieron a continuación fue unir cuatro placas madres a una sola fuente
de poder, montándolos increíblemente
sobre cajas de galletas, claro está correctamente alineados y teniendo
cuidado de que no se produjeran
cortos circuitos entre las placas.
Finalmente tuvieron listo un feo pero funcional servidor con todos los
cables de red colgando por las
paredes.
Todo esto apunta a que no se puede
negar que la infraestructura técnica de
Gogle ha mejorado muchísimo desde sus primeros días, pero aún así
Google se resiste a develar los detalles
del trasfondo de toda su infraestructura. En entrevista con la
Revista Spectrum, los ingenieros de la
compañía a menudo ofrecían algunas respuestas vagas sobre este asunto,
tales como “No queremos conversar
sobre algo específico” o “No podemos
hablar mucho de eso”. Google incluso ha intentado mantener en secreto la
ubicación de varias de sus cerca de 3
docenas de Datacenters, la cual incluye 20 que se encuentran
repartidos por los Estados Unidos. Por supuesto que es sumamente absurdo
que de una empresa multimillonaria
no se tenga registrada esta
información con los agentes federales e incluso aprobado por los inspectores
del Gobierno y construido siguiendo
planos. Información considerable acerca de la Infraestructura de datos
de Google, puede ser encontrada en
… Bueno, simplemente buscando en Google.
Facebook, también, rápidamente se
catapultó de ser un proyecto estudiantil hacia un juego para
dominar la Web, y vaya que los
Ingenieros de Facebbok han tenido que pedalear muy duro para
mantenerse en la creciente ola de
popularidad. De hecho estas dos empresas tienen mucho en común, es
más se puede decir que llevan unas
vidas paralelas - cada uno de ellos
abrió su datacenter en su séptimo año de operación, por ejemplo. Pero
Google y Facebook se
diferencian en
algunas cosas
fundamentales, particularmente
en la forma en
la que cada empresa
produce el
software que crea las cosas
que ellos hacen
y que nos
mantienen a la expectativa, y
también del
punto de apertura en el
que se
encuentran cuando son
consultados por
operaciones
técnicas.
Por supuesto, estas operaciones son del tamaño tal como la demanda se lo
ido solicitando, ahora, en un día
cualquiera, Google en el campo de
Ingeniería de búsquedas tiene cerca de un millón de peticiones, y cerca de ¼
de millón de personas visitan la
página de Facebook. Ambas compañías han tenido una fuerte
demanda por Ingenieros en el
esfuerzo por mantener todo el tráfico,
y el resultado
de todo este trabajo de
hecho se nota.
El Data Center de Google en The Dalles, Ore. Fue completamente
terminado en el 2006, y es uno de los
primeros que la compañía construyó en vez de alquilar uno. Por ese
entonces Google trataba de mantener
lo más seguro la información acerca
de su infraestructura que los acuerdos con las autoridades incluían
confidencialidad de tal manera que no
se filtre siquiera a la prensa. Google
afortunadamente ahora es lo suficientemente abierta como para dar
algunos vistazos de su nueva sede, en
las riberas del Río Columbia, visto sólo desde Google Earth y con sólo
pocos ángulos de visión general antes
de comenzar su construcción.
La actitud de Google para con sus
Datacenter no es a la de matar- si es
posible, sin embargo, por ejemplo en el 2009, Google organizó un
encuentro sobre Eficiencia Energética
en Datacenters, en la cual se reveló muchas de sus operaciones, días
después una visita con video relatado
de uno de sus datacenters, en la cual la Compañía sólo se refirió a la misma
como el Datacente A, apareció en
Youtube, es decir por la propia gente
de Google. Esta disposición de mantener más de 45000 servidores
montados en 45 contenedores gigantes
como de entrega de carga, dando la impresión de una estructura
construida de forma cavernosa y
temporal, como si a Google en algún
momento se le ocurriría tomar sus servidores y moverse de lugar.
Esta forma modular no es única de Google, pero no es un estándar
conocido en l práctica. Google
también marcó sus distancias con los
tradicionales datacenters en los cuales se daba una manera específica de
establecer cortes de energía, Los
generadores de respaldo funcioan
cuando la red eléctrica falla, pero no responden instantáneamente por lo
que se requiere un sistema de
alimentación eléctrico ininterrumpido, para que los servidores aún se
encuentren en funcionamiento luego
de los 10 primeros segundos en los que las luces comienzan a parpadear.
Frescos proceadores: Datacenter de Facebbok en Prineville, Ore, usa un sistema muy curioso en base a la expulsión de aire fresco que al salir de las tuberías caen directamente sobre
los servidores.
Muchos Datacenter utilizan
ampliamente UPS centralizados para
manejar este tipo de cortos intervalos, sin embargo estos equipos
actualmente se encuentras desaprovechados, esto quizás debido a
que cada uno de estos equipos
convierte el voltaje de alimentación a
DC y nuevamente lo regresa a AC, las cuales se envían a distintas unidades
de distribución energética y luego
finalmente a los servidores. este desperdicio corresponden a los picos
de tensión que corresponden a un 10%
de la electricidad que va hacia los equipos informáticos. para evitar estas
pérdidas Google asigna un pequeño
UPS a cada servidor.
Otra medida de conservación de
Energía que muestra Google en su
paseo por los servidores de Youtube son las técnicas de enfriamiento
conocida como Economización a base
de Agua. Esto es importante porque sólo apenas unos cuantos años de
utilización de este sistema de
enfriamiento representan el 40% del
recibo de luz para un típico Datacenter. La Economización a base
de Agua disminuye los costos por que
usa – como lo puedes adivinar – agua, que gotea en los intercambiadores
hacia a fuera del edificio. Un lazo
cerrado de enfriamiento que pasa a
través de los servidores apilados en los montacargas absorbe la
temperatura caliente emitida por los
servidores, a medida que el agua cae y gotea sobre los servidores se evapora,
llevándose consigo mucho del calor a
disipar. Esta técnica combinada con
una buena configuración del clima mantiene a los servidores lo
suficientemente fríos como de
costumbre y los refrigerantes se
pueden encender en los casos que fuesen necesarios. Los Datacenters de
Google usan más eficientemente la
electricidad que cualquier Datacenter típico. Los expertos de los datacenters
calibran sus estadísticas, denominada
Eficacia del Uso de la Energía (PUE, por sus siglas en inglés), que se
calcula dividiendo toda la potencia
eléctrica entregada a un contenedor
por la potencia entregada sólo a los ordenadores y los equipos
relacionados a la Red. Par finales del
2010, los datacenters de Google alcanzaron un PUE de a.113 – lo cual
es impresionantemente cercano al
valor ideal de 1.0, esta es una importante mejora durante los últimos
5 años. Cuando se tomó una muestra
de 22 de los datacenter, se obtuvo un
PUE de 2.0, lo que significa que por cada vatio utilizado para el cálculo y
tareas de Red, otro vatio se malgasta
en refrigeración, luces, ventilación, bombas, equipos de oficina, y
probablemente una máquina
expendedora.
Aunque otros Datacenters puedan
presumir de eficiencias que rivalizan
con las que Google ha informado, las cifras PUE de Google, probablemente
se arrastren mucho más abajo en
comparación con otros centros de
Eficiencia Energética puestas en marcha. La firma ahora está
trabajando en un Datecenter en
Finlandia, en la cual también enfriarán
los servidores en base a aguade mar que se bombea desde el mar Báltico
por ejemplo, Pero no creo que los
Ingenieros de Google sean los únicos que sepan como contruir e
implementar un Centro de Datos
Super-Eficinete.
Los Ingenieros de Facebook ahora
están en plena marcha a velocidad, de
tal forma que han estado dispuestos a mostrar sus resultados, por la prensa
circula la información de que se está
expandiendo la infraestructura de Facebook, acerca de la nueva
cnstrucción de Centro de datos,
localizado en lo que fue hasta hace poco un pedazo de bosque al este de
las montañas Blue-Ridge, estoy
impresionado por la enorme escala del
proyecto: 34000 metros cuadrados (370000 pies cuadrados), o lo que es
lo mismo una estructura de 340
metros de punta a punta frente a nosotros, imagine un Super Centro
Comercial Walmart y aún así no
estuviéramos pensando en algo lo
suficientemente grande, es más puede que Facebook ocupe el lugar de
alguno de estos grandes centro
comerciales, aún más impresionante que su tamaño es la velocidad con la
que el contratista DPR/Fortis puso
todo el material de contrucción y el
acero en el lugar, y abriéndose camino en tan solo algunos meses.
Esto me sorprende, dijo Tom Furlong,
quien dirige el Sitio de Operaciones del Centro de Datos de Facebook. En
una reunión que tuvimos en referencia
aun Remolque de Construcción, en un lugar del condado de Rutherford en
Carolina del Norte, Furlong comenta
que en los primeros años de Facebook se solía hacer instalaciones en
Condominios aprovechando la
Infraestructuras sobre todo para
utilizar sus servidores empresariales, luego ya la compañía creció y
finalmente comenzó a comprar sus
propios centros de datos.
Pero esta situación cambió en el 2008,
donde gran parte de las Economías mundiales se desaceleraron, en ese
momento la mayor parte de los
servidores de Facebook fueron
alquilados en el Centro de datos de la Bahía de San Francisco, donde hasta
la fecha se siguen utilizando 8
instalaciones aisladas y unidas por enlaces de datos de alta velocidad,
también comenzó con el alquiler de
otro centro de datos al norte de
Virginia, para lograr formar una red de Centros de Datos.
Baterías Incluídas: Los Servidores de Google tienen una alimentación de potencia
ininterrumpida.
Sin embargo cuando se decidieron
iniciar su búsqueda de más espacio,
comenta Furlong, descubrió que
muchos Proyectos de Centros de datos fueron dejados de lado por las
Víctimas que aparecieron ante la
Crisis Financiera. Por último la búsqueda se tornó tan frustante que a
principios del 2009, Facebook decidió
construir su propio Centro de datos., ya por Agosto Furlong y sus
compañeros se habían asentado
en Prineville, Oregon, a sólo
150 kilómetros del centro de Google en The Dalles. Antes de que el centro
de Prineville incluso fuera terminado,
la compañía anunció planes para construir un segundo en Carolina del
Norte. Como si quisiera
demostrar mesura, el CEO de
Facebook, Mark Zuckerberg, dijo que la apertura es una norma social nueva,
los ingenieros de Facebook han
lanzado muchas de las especificaciones técnicas para el
estdo-del-arte de la técnica de datos,
de lo que ellos creen que tienen valores PUE de 1,07 o menos. Ellos
llaman a esta participación “El
Proyecto de Computación Abierta”.
No es exactamente el código
abierto de su hardware para que
cualquiera pueda duplicar, pero las descripciones que ofrece
es sorprendentemente detallada.
El centro de Prineville, que
oficialmente entró en funcionamiento
en abril, se aleja notablemente del
enfoque que favorece a Google. "Se puede ahorrar algo de dinero con la
modularidad, pero te limita en muchas
maneras diferentes", dice Furlong. Así las zonas de sus servidores de
Facebook se colocan directamente en
el suelo del centro de datos, donde se enfría por el flujo de aire que sopla
desde el lado. Jay Park,
Director de diseño de centros de
datos y de la construcción de Facebook, Explica que el uso de la
"Refrigeración por evaporación
directa." Unafina niebla enfría el aire, que a su vez enfría los
servidores. "Es un gran sistema de
riego Honkin ", dice Park.
El enfriamiento por
evaporación directa encaja bien con
la filosofía general que los Ingenieros de Facebook del centro de
datos siempre han tenido: la
simplicidad. "Nosotros filtramos el
aire, pasa a través del sistema de riego, a continuación llega al centro
de datos. Si el aire exterior
es demasiado frío, vamos
a recircular parte de ella. Si no, vamos a volcarla hacia fuera." Park
cuenta que el diseño mecánico es tan
sencillo que no requiere cálculo computacional para sus conductos, y
su dinámica de fluidos muestra que
todavía hace su trabajo. En las instalaciones de Facebook de Carolina
del Norte serán configurados de
manera similar, si bien
se incluyen sistemas de respaldo de aire acondicionado para
complementar el sistema de
riego durante los periodos de calor.
Los Centros de Datos de Facebook, al
igual que los de Google, prescinden
de UPS centralizadas. En su
lugar, una fase de las tres fase, de
480 voltios AC derivada de la
centralita principal es
enviado directamente a los servidores,
que contienen suministros de energía
personaliza, dos de ellas utilizan lo
que equivale a un avance de 277-
voltios de corriente alterna.
Durante un corte de
energía, los suministros también pued
e salirse de la DC de 48
voltios procedentes de los
gabinetes de diseño especial de
UPS instalado al lado de los
bastidores del servidor.
Ese acuerdo permite ahorrar vatios, y
también simplifica el
mantenimiento, porque hay muchas
menos piezas de equipo para
mantener. "En los centros de
datos tradicionales, con los UPS más
arriba en la cadena alimentaria,
tiene una gran cantidad
de interruptores y conexiones
adicionales para eludir",
dice Furlong. "Moviendo los primeros
planos en el servidor le da la
flexibilidad de no tener todas esas
cosas con cables adicionales."
Los Gigante centros de datos –
incluyendo la eficiencia energética-no
son, por supuesto, nada sin los
servidores adecuados. Facebook
puebla sus localidades de Oregón y
Carolina del Norte con diseño
personalizado en sus servidores, al
igual que Google lo ha hecho desde
hace mucho tiempo.
Amir Michael , director de diseño de
hardware de Facebook, explica que
cuando la empresa decidió
construir sus propias instalaciones,
"tuvimos un borrón y cuenta nueva",
lo que permitió que él y sus
colegas puedan optimizar los diseños
de sus centros y los servidores en
conjunto para la máxima eficiencia
energética . El resultado fue
un servidor en el que "se le ven los
huesos al descubierto. Yo lo
llamo diseño de una" vanidad-libre
"sólo porque no me gusta que la gente
lo llama feo", dice Michael. "No
tiene marcos delanteros. No
tiene pintura. No tiene logos o
etiquetas adhesivas sobre el
mismo. Realmente solo tiene lo que se
requiere."
Foto: David Schneider [arriba] Michael Lloyd / El Oregonian / Landov [abajo], Grandes Cajas: las
próxima sede del Centro de Datos de Facebook de Carolina del Norte [arriba] es casi el doble del
tamaño de las instalaciones de Google en The Dalles, Oregon [abajo].
Google también mantiene el
servidor bajo coste a un mínimo. Al
igual que Facebook, que
compra materias primas a nivel de
hardware y sólo compra las muchas
piezas que se rompen, en lugar de la
compra de sistemas de gama alta que
son menos propensos a las fallas, pero
también mucho más caro. La
economía, si no otra cosa, llevó a los
ingenieros de ambas compañías a
conclusiones similares aquí. Ajuste y
el acabado podría contar si vas a
comprar un servidor o incluso cien,
pero no cuando va a
comprar decenas de miles de
personas a la vez. Y luchar por una
alta fiabilidad es un poco inútil a esta
escala, donde el fracaso no es sólo una
opción, es un hecho cotidiano de la
vida.
Michael explica que él ayudó a
diseñar tres tipos básicos
de servidores para el funcionamiento
de la aplicación de Facebook. La capa
superior del hardware, conectado
directamente con la mayoría de
los usuarios de Facebook, se compone
de servidores Web exteriores. Ellos no
requieren mucho espacio en disco, lo
suficiente para el sistema
operativo(Linux), la base de servidor
Web de software (que hasta hace
poco era Apache), el código necesario
para montar las páginas de
Facebook (escrito en PHP, un
lenguaje de script), algunos archivos
de registro, y unos pocos
bits y otras piezas. Esas
máquinas están conectadas a una capa
más profunda de los servidores
de relleno de los discos duros basados
en memoria flash y unidades de
estado sólido, que proporcionan
almacenamiento persistente para el
gigante de las bases de
datos MySQL que tienen fotos de los
usuarios de Facebook,
videos, comentarios, y listas de
amigos, entre otras cosas . En el
medio está la RAM,
pesados servidores que ejecutan un
sistema de cacheo de memorias para
proporcionar un rápido acceso a los
contenidos de uso más frecuente.
Los Geeks Alphas reconocen
que estas piezas de software Linux,
Apache, PHP,
MySQL, “memcached”, todos
provienen de la comunidad de código
abierto. Los programadores de
Facebook han modificado estos y
otros paquetes de código abierto para
satisfacer sus necesidades, pero en
el nivel más básico, están
haciendo exactamente lo que los
desarrolladores de web han hecho: la
construcción de su sitio en una
base de código abierto.
No es así en Google. Los
programadores han escrito la mayoría
del software de su
empresa impresionante desde cero,
con la excepción de la ejecución de
Linux en sus servidores. Las más
destacadas son el Google File
System (GFS o, del sistema de
archivos distribuido a gran
escala), Bigtable (una base de
datos de baja
sobrecarga), y MapReduce (que
proporciona un mecanismo para llevar
a cabo varios tipos de cálculos de
forma masiva en paralelo). Es
más, los programadores de Google
han reescrito el código de la
compañía principal de búsqueda en
más de una vez.
Hablando hace dos años en la
Segunda Conferencia de ACM
Internacional sobre la Web de
búsqueda de datos, JeffDean,
miembro Google que trabaja en el
grupo del sistema de infraestructura
de la empresa, dijo que en los últimos
años su compañía ha realizado
siete revisiones significativas en la
forma en que implementa la
búsqueda web. Sin embargo, los
extranjeros no se dan cuenta de
que, debido a, como explicó "se puede
sustituir la parte de atrás todo sin que
nadie se diera cuenta."
¿Cómo hemos de interpretar la
diferencia entre Google y las
culturas de ingeniería de Facebook en
relación con el uso de código
abierto? Parte de la
respuesta sólo puede ser que Google,
después de haber empezado antes, no
tenía más opción que desarrollar su
propio software, ya que alternativas
de código abierto aún no estaban
disponibles. Sin embargo, Steve Lacy,
quien trabajó como ingeniero de
software de Google desde 2005 a
2010, piensa lo contrario. sostiene
que Google sólo sufre de un grave
caso de no inventado
aquí síndrome. Muchos paquetes de
código abierto "Google pone la
infraestructura a la vergüenza cuando
se trata de la facilidad de uso y el
enfoque del
producto," escribe Lacy."[Sin
embargo los de Google]
Los ingenieros desalientan el uso de
estos sistemas, hasta el punto en que
son castigados por siquiera pensar
en utilizar otra cosa
que Bigtable / Llave y GFS /Colossus
para sus productos."
Google o la infraestructura de
Facebook todavía podrían agrietarse
en su creciente carga? Bases de
usuarios regulares de Facebook ha
crecido a más de quinientos millones
de personas, y continúa
añadiendo más de 20 millones de
usuarios al mes. Y Google ha de
dedicar grandes recursos de
computación para mantenerse al día
con las 34 000 búsquedas que
realiza cada segundo, durante la
ejecución de las subastas de
anuncios, la traducción
de idiomas, manejar el tráfico de
Gmail, recibiendo los vídeos de
YouTube y mucho más. ¿Puede todo
esto caber en un vaivén sin fin?
Parece que sí. Mientras que los
costos son enormes, estas
empresas parecen ser el manejo de
la carga de computación con relativa
facilidad. Pero quizás eso no debe
sorprender. Después de todo, si no
tiene potencia suficiente, siempre se
puede retrasar la introducción de
cualquier uso intensivo de recursos de
servicios que están
trabajando y que tanto despliegue
de estas características con suficiente
regularidad.
Tomando Google Instant, una
función de búsqueda instantánea de
que la empresa presentó en
septiembre pasado. "El objetivo
era aumentar el factor de alegría",
dice Ben Gomes, quien encabezó el
equipo de Google
Instant. Instantánea se ve a las
primeras letras que lleva una consulta
de búsqueda y ofrece una página de
resultados sobre la base de lo que se
anticipa que la intención de
escribir. Por lo tanto, incluso para una
simple consulta, búsquedas
múltiples ahora debe ir en paralelo, y
los cálculos deben llevarse
a cabo para elegir que los resultados
para mostrar. Google se ha hecho un
cambio, si sus ingenieros tenían
alguna duda sobre la capacidad de sus
sistemas para tomar el castigo?
Del mismo modo, Facebook sin
duda puede controlar en gran
medida a sus usuarios de su
sistema fiscal. Desde el año pasado,
En la RRR 2011,
desarrollada en la ciudad
de Lima-Perú, nuestra
revista alcanzó el 3er
puesto como caso de
éxito a nivel
latinoamericano.
Muchas gracias a todas las personas que hicieron
esto posible.
por ejemplo, los usuarios de
Facebook habían subido50 mil
millones de imágenes del sitio. Y, sin
embargo, a pesar de la enorme
cantidad de ancho de banda y espacio
de almacenamiento consumido
por todas esas fotos,
Facebook haaumentado periódicament
e la resolución de las imágenes los
usuarios pueden guardar. ¿Qué
habrían hecho si sus ingenieros de
operaciones sentían que
su infraestructura informática estaba
en peligro de colapso?
Mi punto es que ni Google
ni Facebook es probable
que contemplen la ampliación de sus
sistemas para satisfacer la demanda.
Claro, habrá problemas técnicos
y retrasos de tiempo en tiempo. Sin
embargo, parece poco probable
que cualquiera de estas
sociedades vayan a sufrir de una
falta a largo plazo de empuje de
computación, ya que siguen dando
forma a la manera en que manejamos
nuestras vidas en línea. La rapidez
con que tendrán que construir nuevos
centros de datos, y qué
tipo de nueva tecnología de ahorro de
energía a los centros
contendrán, nadie lo
sabe. Pero una cosa es segura: sus
servidores siempre será feos.
Traducido por:
Paul Dremyn Gomez Ch.,
dremyn@ieee.org
Artículo Original de: David Schneider.
China's Godson Gamble
La apuesta del Ahijado de China
Estructura de malla coloca al procesador de supercomputadora lejos de la competencia
La supercomputadora Dawning 6000, que los investigadores chinos esperan dar a conocer en el tercer trimestre del 2011, tendrá algo muy diferente bajo su cubierta. A diferencia de sus precursores, que emplearon chips originarios de Estados Unidos, esta máquina aprovechará un procesador de gama alta propio del país, el Godson-3B. Con una frecuencia pico de 1.05 Gigahertz, el Godson es más lento que los productos de sus competidores, al menos uno de ellos opera a más de 5 GHz, pero el chip aún impresiona con su eficiencia energética sin precedentes. Puede ejecutar 128 mil millones de operaciones punto flotante por segundo usando solo 40 watts - el doble o más de rendimiento por watts que sus competidores. El Godson tiene una estructura interconectada excéntrica - para la transmisión de mensajes entre los múltiples núcleos del procesador - que también ha ganado atención. Mientras Intel e IBM están comercializando chips que lanzarán comunicaciones entre núcleos al estilo carrusel en una "interconexión tipo anillo", el Godson conecta núcleos usando una versión modificada del sistema de interconexión tipo rejilla llamada red de malla. Los diseñadores del procesador, liderados por Weiwu Hu en la Academia China de Ciencias, en Beijing, parecen apostar por un nuevo tipo de disposición para futuros procesadores de computadora de gama alta.
Un diseño de malla va mano a mano con el ahorro de energía, dice Matthew Mattina, arquitecto jefe en el San José, California - basado en Tilera Corp. un fabricante de chips ahora montando procesadores de 36 y 64 núcleos usando interconexiones tipo malla en el chip. Imagine una interconexión tipo anillo como un flujo en carrusel. Llegar a alguna salida le exige trasladarse alrededor de casi todo el círculo. Viajando lejos de tu destino antes de llegar a él, dice Martina, requiere más conmutaciones de transistores y por lo tanto consume más energía. Una red de malla es más como las calles entrecruzadas de una ciudad. "En una malla, tú siempre atraviesas la cantidad mínima de cables - tú nunca irás por un camino erróneo", dice. En el chip Godson de 8 núcleos, cuatro núcleos forman una unidad estrechamente conectada - cada núcleo se asienta en una esquina de un cuadrado de interconexiones, como en una malla usual. Los investigadores del Godson también han conectado cada esquina a su opuesto, usando un par de interconexiones diagonales en forma de X a través del centro del cuadrado. Una interconexión de travesaño luego sirve como un paso a desnivel, conectando esta vecindad de cuatro núcleos a una configuración de cuatro núcleos cercana. Los desarrolladores del Godson creen que la escalabilidad de su malla modificada proveerá una ventaja clave, como los diseñadores de chips aumenten el número de núcleos en futuros chips. Yunji Chen, un arquitecto del Godson, dice que las interconexiones tipo anillo de sus competidores podrían tener problemas trabajando con más de 32 núcleos. En realidad, uno de los beneficios del anillo podría proveer su futuro riesgo. Conectando nuevos núcleos para un anillo es bastante fácil, dice K. C. Smith, un profesor emérito de Ingeniería Eléctrica y de Computación en la Universidad de Toronto. Después de todo, hay solo un camino para enviar información - o dos en un anillo bidireccional. Pero compartiendo un camino de comunicación común además significa que cada núcleo adicional aumentado a la extensión del cable que envíe un mensaje debe viajar e incrementar la demanda para ese camino. Con un gran número de núcleos, "la sincronización alrededor de este anillo se sale de control", dice Smith. "Tú no puedes obtener el servicio cuando lo necesitas".
Anillo de 8 núcleos: En muchos microprocesadores, la información circula alrededor de una interconexión con forma de anillo para llegar a los núcleos del procesador.
Malla de 9 núcleos: Algunos nuevos procesadores de gama alta usa una red de malla. Éstos pueden ser más complejos pero también más eficientes en energía.
Godson de 8 núcleos: El procesador chino se basa en una red de malla modificada que contiene conexiones directas extras para mover datos eficientemente.
Por supuesto, aumentando más núcleos en una malla también fuerza al sistema. Incluso si tú tienes una rejilla de caminos proveyendo múltiples canales de comunicación, más núcleos aumentan la demanda para la red, y más demandas hacen los viajes de larga distancia más difíciles: Trata de manejar a través de Nueva York en hora punta. Aún así, la escala del ancho de banda de una interconexión tipo rejilla es superior a la de una tipo anillo, dice Mattina de Tilera. Él nota que el ancho de banda total disponible con una interconexión tipo malla aumenta tanto como los núcleos, pero con una interconexión tipo anillo, el ancho de banda total permanece constante incluso cuando la cantidad de núcleos se incrementa. El estado latente - el tiempo que toma para llevar un mensaje de un núcleo a otro - es además más favorable en un diseño de malla, dice Chen. En una interconexión tipo anillo, el estado latente se incrementa linealmente con el número de núcleos, dice, mientras en un diseño tipo malla se incrementa con la raíz cuadrada del número de núcleos. Reid Riedlinger, un ingeniero principal en Intel, indica que una interconexión tipo anillo tiene sus propios beneficios de escalabilidad. Recientemente Intel dio a conocer el diseño Poulson de 8 núcleos que emplea un anillo no solo para aumentar más núcleos sino también para aumentar la memoria en chip de fácil acceso, o caché. Siempre que el chip tenga la potencia y el espacio, dice Riedlinger, un anillo hace más fácil aumentar cada núcleo y caché como un módulo – un movimiento que exigiría estudios de validez y modificación lógica más complicados en una malla. “Aumentando una interrupción de anillo adicional tiene un muy pequeño impacto en estado latente, y la capacidad de caché adicional proveerá beneficios de rendimiento para muchas aplicaciones”, dice. Para aquellos quienes no estén construyendo una supercomputadora nacional, Riedlinger también apunta que una configuración tipo anillo es más fácilmente escalable en una dirección diferente. “Podrías comenzar con un diseño de 8 núcleos”, dice, “y luego, para adaptarlo a diferentes segmentos del mercado, podrías conseguir 4 núcleos de la mitad y venderlo como un producto diferente”.
Elaborado por: JOSEPH CALAMIA
Traducido por: LIZETH CASTILLO
Julio Salvador JácomeJsalvador37@yahoo.es
1. Introducción
El concepto del acceso universal en los servicios públicos tiene sus primeras citas en la
industria de las telecomunicaciones con la Ley de Telecomunicaciones de Estados
Unidos de 1934, en la que se describía el concepto de accesibilidad de los servicios
telefónicos, así como el de su disponibilidad universal en favor de los hogares que
deseaban utilizar tales servicios. Este concepto luego ha sido trasladado a otros
ámbitos y en especial a la energía, así las Naciones Unidas en su publicación Energy for
a Sustainable Future (UN, 2010) considera el acceso universal a la energía como uno
de los pilares para la lucha contra la pobreza. En el mismo sentido hay quienes
consideran que el Acceso Universal a la Energía es un derecho (Lumbreras, Et.Al,
2007). En este marco es relevante destacar que el concepto del Acceso Universal a la
Energía, ha sido incorporado en la reciente declaración de la Política Energética del
Perú1, como uno de sus objetivos de política. El concepto como tal es muy ambicioso,
como debe ser todo objetivo, y siendo así obliga a tomar decisiones y rumbos de
acción diferentes a los que se han venido tomando en el sector, pues el énfasis
sectorial se amplía y sus consecuencias también; lo cual debiera significar un cambio
en las estrategias del sector y del Estado en general, pues trasciende el marco
sectorial.
El acceso a la energía se define objetivamente en la posibilidad económica que tienen
los ciudadanos para adquirir la energía, por lo que el análisis se realiza desde la
perspectiva micro, antes que al nivel agregado y de las grandes magnitudes,
analizándose los condicionantes que enfrentan los usuarios finales en el momento de
optar por las diferentes opciones energéticas que el mercado ofrece.
Con el nivel de desarrollo económico existente y las tecnologías disponibles resulta
contradictorio saber que 1.400 millones de personas en el mundo no tienen acceso a
la electricidad (según la IEA, 2010), de los cuales el 85% está en las zonas rurales.
Asimismo, se señala que si no se desarrollan políticas especialmente dedicadas a este
fin, en el año 2030, la cifra será de 1.200 millones. En el mismo sentido, el número de
personas que viene utilizando la biomasa tradicional (leña, bosta, etc.) es de 2.700
millones y de no hacer nada drástico, en el 2030 el número se incrementará a 2.800
millones de personas.
En el país se ha logrado hasta el año 2010 un coeficiente de electrificación del 82%, lo
cual significa que hay cerca de 6 millones de peruanos para quienes todavía la energía
eléctrica no está disponible. En el mismo sentido, en el balance nacional de energía del
1 Decreto Supremo N° 064‐2010‐EM “Aprueban la Política Energética Nacional del Perú 2010 – 2040”.
Acceso Universal a la Energía en el PerúReto y Realidad
año 2009, el 50% de la energía que consume el bloque residencial–comercial tiene
como fuente la biomasa.
Se ha evidenciado que existe una estrecha relación entre el consumo energético y el
nivel de desarrollo de los países, por ello es que conjuntamente con las políticas de
erradicación de la pobreza se tiene que adoptar medidas para facilitar el acceso tanto
a la electricidad como a las energías limpias para la cocción de sus alimentos a los
ciudadanos de las zonas económicamente deprimidas (IEA, 2010). En ese sentido, lo
que se reclama es la participación de los Estados (WEC, 2006) para lograrlo; sin
embargo, y a pesar de los grandes esfuerzos que éstos realizan para dotarles de redes
eléctricas, resulta irónico comprobar que los pobladores de muchas de estas zonas no
puedan acceder a ellas por su falta de capacidad de pago para conectarse, con lo cual
la efectividad de estos esfuerzos se minimiza, deviniendo en insostenibles en el
mediano y largo plazo.
2. Acceso a la energía
¿Cuándo puede afirmarse que se tiene acceso universal a la energía?
Responder a esta interrogante pasa en primer lugar por entender los conceptos de
Disponibilidad y Accesibilidad (Oestmann & Dymond, 2009):
a. Disponibilidad. Se relaciona con la oferta de los diferentes tipos de energía
que el usuario tiene a su alcance.
b. Accesibilidad. Es la capacidad del ciudadano para adquirir y hacer uso de la
energía que tiene al alcance.
Para poner el contexto económico de los conceptos antes indicados, en el año 2010,
“el sector más pobre, compuesto por casi 3 millones de peruanos en pobreza extrema,
tiene ingresos de apenas 72 soles mensuales” (Francke, 2010; INEI, 2010); por tanto la
capacidad de los ciudadanos en pobreza para acceder a cualquier tipo de energía es
muy limitada y como tal esfuerzos muy loables como el de la electrificación rural, lo
que garantizan es la disponibilidad de la red eléctrica: “que pase por la puerta de la
casa” mas no su acceso o uso efectivo.
En consecuencia, se puede afirmar que se tiene acceso universal a la energía cuando
se tiene la capacidad de adquisición y la disponibilidad del servicio, y ambos tienen que
ser simultáneos, pues de otro modo no se logra concretar el objetivo.
3.
La matriz energética desde la perspectiva del usuario
En el Gráfico N° 01 se muestra la matriz energética elaborada por el MINEM en el año
2009, donde se puede observar que en el Perú los usuarios finales han accedido a las
siguientes formas de energía.
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
Grafico N° 01
Fuente: (MINEM, 2010)
Un hecho relevante es la importancia que tiene la biomasa a nivel del sector
residencial y comercial, pues como se aprecia en términos oficiales se expresa que el
50% de los consumos energéticos proviene de la biomasa, 27% de la electricidad, el
22% de los hidrocarburos líquidos y el 1% del gas natural.
El usuario final utiliza aquel servicio o bien que tenga disponible y la que sus
posibilidades económicas le permitan adquirirlo. Considerando la capacidad
adquisitiva de los ciudadanos de las zonas rurales, su alternativa económicamente
viable es recurrir a la naturaleza (medio ambiente) derribar un árbol, cortarlo, secarlo
y usarlo. ¿Energía sin costo? Esta conducta asociada a la capacidad de acceso, colisiona
fuertemente con el tema de la conservación y protección ambiental. Se reconoce por
esta vía que la pobreza es uno de los principales factores que contribuye en la
degradación ambiental (Tolmos, R. 2004).
4.
El Costo de la Accesibilidad y Disponibilidad a la Energía
Se conoce que a nivel nacional una casa consume en promedio 1 balón de GLP (10 kg)
al mes, a partir de ello si se realiza la evaluación económica de adquirir la misma
cantidad de energía a partir de distintos combustibles alternativos, se obtiene el
Gráfico N° 02, en el cual se enfatiza que el título biomasa, alude a la capacidad de
recolección de fuentes naturales de energía disponibles, incluida la leña.
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
El ejercicio que se realiza con relación al gráfico indicado, considera la pregunta ¿Qué
haría el usuario final si deseara adquirir uno de los tipos de energía disponibles? Para
este caso considérese solamente lo valores finales de los energéticos disponibles. Para
un ciudadano rural (sin capacidad adquisitiva), las únicas opciones viables son la
biomasa, la naturaleza aún no cobra y el uso es local. Asimismo, dispone del GLP, pues
este energético no requiere de redes físicas y puede ser transportado a lugares muy
alejados, es portátil. Como puede notarse dispone de dos energéticos pero el acceso
mayoritariamente es al de menor costo (biomasa).
Para un ciudadano no rural, descartada la biomasa, su primera elección desde la
perspectiva económica sería el gas natural; sin embargo, el acceso a dicho energético
(costo de conexión y ductos internos) está alrededor de US$ 400. Su segunda mejor
opción es la electricidad con tarifa que diferencia las horas de punta, su costo de
acceso en este caso está alrededor de US$ 150 (costo de conexión y medidor especial).
La tercera mejor opción es la electricidad vía la conexión normal que cualquier casa
tiene y cuyo costo de acceso es US$ 90 (costo de conexión y medidor normal).
Finalmente, tiene como opción el GLP que siendo el energético más caro tiene el
menor costo de acceso US$ 20 (costo del cilindro vacío no requiere nada más).
Grafico N° 02
El costo del Acceso
A partir de estas verificaciones se puede apreciar los dos anillos conceptuales de
acceso a la energía anteriormente definidos. El primer anillo corresponde a los costos
de la disponibilidad energética, cuyos costos en el sentido de las agujas del reloj se va
Electricidad1
GLP
Gas natural
400$
20$
90$BT5A
S/.10
S/.35
150$BT5B
S/. 26
S/. 13
Biomasa
0$
S/.0
Electricidad
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
incrementando, y otro el de los costos accesibilidad que van descendiendo en el
sentido de las agujas del reloj. Ver el Gráfico N° 03: mientras uno crece el otro decrece.
Gráfico N° 03
Los Costos de Disponibilidad y Accesibilidad
Ciclos contrapuestos que determinan cómo se consume la energía en el país y en los
países en general, pues la economía no hace diferencias, dependiendo de los costos
relativos de disponibilidad y accesibilidad. En este sentido es necesario los mecanismos
Electricidad
GLP
Gas natural
400$
20$
90$BT5A
S/.10
S/.35
150$BT5B
S/. 26
S/. 13
Biomasa
0$
S/.0
Electricidad
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
de actuación del Estado como el colombiano para acceder al energético que se desea
promover, pues de otro modo se dispone del energético mas no se puede acceder a él.
5.
El Acceso Universal a la Energía
Cuando se habla en el nivel micro y cuando la economía ajusta, se busca la solución
accesible, que no necesariamente es la más económica.
De allí que si se revisa el gráfico N° 04, se puede afirmar que a pesar que la electricidad
tiene en el país cerca de 150 años, su grado de penetración calculada es sólo del 82%,
cuando en los últimos 15 años el GLP ha ascendido en los mismos términos
comparativos del 37% al 64%. Nótese que no hay un programa de ampliación de
frontera de GLP, como si lo hay en el caso de la electricidad, su consumo creció por la
accesibilidad y de la mano de la disponibilidad de dicho energético.
Gráfico N° 04
En la parte inferior del gráfico N° 04 se muestra la penetración del gas natural, es
tan baja que no se distingue en el gráfico, tiene el costo de acceso más alto. Las
velocidades de crecimiento indican que el GLP va a ritmo alto y sostenido
soportado por su alta accesibilidad, mientras que en el caso eléctrico los costos de
ampliar la frontera sólo pueden aumentar, pues cada vez será más caro hacer
accesible la red de electricidad a los ciudadanos rurales, por lo menos con la
tecnología actual de redes que se viene impulsando.
61.6% 63.1%64.8%
67.2% 68.5% 69.8% 70.2% 70.8% 71.1%72.8% 73.4% 74.1%
76.8%78.5%
82.0%
34.4%36.1%
41.2%
45.3% 46.1%43.4% 44.0%
45.9% 47.0%
51.9%54.7%
60.8%
64.9% 65.7%67.9%
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
COEFICIENTES DE ELECTRIFICACION, GLPIZACION Y GNIZACION
ELECTRIFICACION GLPIZACION GNIZACION
5.1.
Eficiencia técnico económica
¿Cómo la electricidad que tiene como principal insumo el gas natural termina
siendo competitiva con el gas natural visto desde la perspectiva del usuario final?
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
Energéticamente no es lo mismo quemar el gas natural para convertirlo en
electricidad o quemarlo directamente en la hornilla de la cocina; en el primer caso
en el proceso de conversión de energía térmica en eléctrica se pierde por lo menos
el 65% de la energía primaria; a ello hay que añadir las pérdidas de
transformación, transporte y distribución eléctricos, lo cual lleva en términos
prácticos a que sólo aproximadamente el 30% de la energía primaria llegue hasta
la cocina eléctrica. En el segundo caso, quemar directamente el gas natural en las
cocinas significa que energéticamente se pierda sólo el 30% de la energía primaria
que llega a las hornillas. Diferencias sustanciales en términos energéticos, sin
embargo muy parecidos en términos económicos, ¿la razón? El precio del gas
natural. Los precios del gas natural tienen valores definidos, que no los definió el
mercado sino el contrato, y están definidos de tal manera que el gas natural para
las cocinas es más caro que para generar electricidad.
En resumen, si bien del punto de vista del usuario, los costos finales de la
electricidad y el gas natural son semejantes, la eficiencia en el uso del recurso
primario es muy baja.
Gráfico N° 05
Evolución de la Matriz Energética en el país, 2000‐2010
4% 4% 5% 5% 5% 5% 4% 5% 4% 4% 3%
15% 15% 15% 15% 15% 15% 15% 15%12% 12% 12%
4% 4% 4% 5% 4% 3% 3% 3%3% 3% 4%
62% 60% 59% 57% 58%53%
51% 48%49% 51% 50%
3%3% 3% 4% 6%
11%12% 17% 20% 19% 21%
13% 14% 14% 15% 13% 13% 14% 13% 12% 11% 10%
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
Hidroenergía Gas Natural Petróleo Bosta/Bagazo/Otros Leña Carbón/Coque
Las políticas energéticas pueden ser implícitas, como fue hasta hace poco en el
país, lo cual no significa que no existan; las acciones gubernamentales terminan
apoyando políticas que determinan el tipo de energético que el usuario final
decidirá utilizar, es cuestión de determinar y diseñar el acceso a los mismos. Así,
se aprecia el gráfico N° 5, se puede notar cómo a nivel agregado se ha impulsado
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
fuertemente el uso del gas natural a partir de fijar los precios del gas natural, y
todo parece indicar que cada vez el país se hará más dependiente de este
energético.
Todos los demás energéticos retroceden a la incursión del gas natural, inclusive el
hídrico.
5.2. Viabilidad del acceso a la energía
Retomando el concepto del ciudadano usuario, y en especial del servicio eléctrico,
se ha publicado recientemente los avances que se ha tenido sobre los proyectos
electrificación rural, cuyos datos se muestran en el Cuadro N° 01, en el cual se da
cuenta de los proyectos desarrollados, la inversión realizada y la población
beneficiada.
Dado que éste es un proceso de “ampliación de frontera eléctrica”, los poblados
con mayor cantidad de habitantes se van atendiendo prioritariamente, siendo que
van quedando los de menor cantidad de población y en consecuencia el esfuerzo
por llegar en términos económicos favorables será cada vez mayor.
Así, si se realiza la evaluación del valor global que el Estado realiza (Gobierno
central y gobiernos regionales) para que los ciudadanos rurales tengan
disponibilidad a la electricidad, se puede determinar que el costo en que ha
incurrido el Estado por cada posible conexión tiene un valor mínimo de 782 US$ y
un valor máximo de 4,628 US$, a juzgar por los datos publicados y calculados en el
Cuadro N° 01.
En este punto la reflexión es que, existe una política del Estado para promover el
acceso a la electricidad; sin embargo, para ser coherente con el tercer objetivo del
la Política Energética Nacional recientemente aprobada: “acceso universal al
suministro energético”, el esfuerzo debiera encaminarse por la mejor forma de
otorgar acceso a la energía como un todo y no sólo a un tipo de energético.
Objetivamente la política hasta ahora ha sido de acceso universal a la electricidad,
tal es así que se ha definido el indicador “coeficiente de electrificación” mediante
el cual el Estado evalúa en forma permanente ese objetivo.
En cumplimiento con este objetivo, se tiene el caso del departamento de Cerro de
Pasco, donde el año 2010 se tuvo una mayor inversión por conexión emprendida
por el Estado. Pasco es uno de los departamentos que está ubicado
geográficamente en uno de los lugares más altos del país, convendría preguntarse
¿no sería mejor “abrigarlos” con energía, antes que realizar campañas, igualmente
loables, de recolección de ropa y campañas periódicas?
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
Cuadro N° 01
Proyectos de Electrificación Rural ‐ 2010
Departamento InversiónPoblaciónbeneficiada N° hogares US$/conex
Amazonas 13375130 11941 2388 2000
Ancash 44717495 21242 4248 3759
Apurímac 7823795 11387 2277 1227
Arequipa 141133 316 63 798
Ayacucho 67199600 58170 11634 2063
Cajamarca 64501909 69969 13994 1646
Cusco 38159214 43848 8770 1554
Huancavelica 8007558 6872 1374 2081
Huánuco 75020200 80899 16180 1656
Junín 10439424 10649 2130 1751
La Libertad 47366225 56915 11383 1486
Lambayeque 24839072 20475 4095 2166
Lima 4533748 4910 982 1649
Loreto 49778827 82272 16454 1080
Madre de Dios 8182165 12835 2567 1138
Moquegua 1172139 1855 371 1128
Pasco 3402669 1313 263 4628
Piura 73459628 83930 16786 1563
Puno 32473209 33747 6749 1718
San Martín 19855836 32777 6555 1082
Tacna 10776675 24609 4922 782
Tumbes 2089227 1218 244 3063
Ucayali 17506340 26200 5240 1193
Total 624821218 698349 139670
Sólo para efectos de hacer números: si esos US$ 4.628 de poner a disposición de la
familia beneficiada una red de electricidad, a la que en adición debe abonar un
monto por la conexión y un monto mensual por el consumo, el monto indicado en
términos del energía proveniente de GLP, cuyo costo es de US$ 12 por balón,
alcanzaría para disponer de un balón mensual durante 32 años, sin mayor costo.
Pero si la idea es darles electricidad, es necesario evaluar el límite de la tecnología
de las redes eléctricas y ver las otras alternativas de provisión de electricidad.
El sector dispone por los menos de dos fondos y mecanismos impositivos que
viene administrando con relación al acceso a la energía, no necesariamente
universal, el fondo de compensación de combustibles, el fondo de electrificación
rural y tasas impositivas diferenciadas para los combustibles, si el énfasis es del
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
acceso universal, el fondo debería considerarse como un único fondo, para una
estrategia común.
6.
La matriz Energética Alternativa
a. Visión Continuista
¿Lograr que el coeficiente de electrificación sea el 100%? ¿Es ésa la meta? Si se
trata de ello pues quedan cerca de dos millones de viviendas por darles la
disponibilidad del servicio eléctrico, tomando el valor promedio de lo invertido
por el Estado en el año 2010, que asciende a 2000 US$/vivienda, el monto
necesario estaría por los 4,000 Millones de US$, para lograr ese propósito. No
debe olvidarse que cuando más se avanza, los costos se van incrementando y
como tal este valor sería como un valor mínimo. Quedaría sin embargo lograr
que esas viviendas puedan acceder al servicio de electricidad, haciendo que
cada una de ellas pague US$ 80 para la conexión y luego los pagos mensuales
por el consumo. Nótese que no es la más económica de todas las opciones
disponibles.
b. Visión alternativa
Un modelo de visión sostenible sectorial y alineada con el objetivo nacional de
erradicar la extrema pobreza, tiene que ver con dos líneas de acción
claramente definidas y propuestas por (IEA, 2010) acceso universal a la
electricidad y acceso universal a formas limpias de cocción.
En tal sentido y adecuando los términos de la propuesta referida, se muestra
el Cuadro N° 02, en el cual se traza la visión del 2030 y el reto que se cumpliría
antes de esa fecha.
La visión tradicional de querer llegar a todos los lugares sólo con un
energético, debe ser superada para dar lugar a enfoques integrales, así de una
adaptación de la terminología y del objetivo formulado en (IEA, 2010) el
acceso universal podría formularse en los términos indicados en el Cuadro N°
2.
Cuadro N° 02
Objetivo 2030
Rural Urbano
Acceso a la electricidad 100% de acceso‐ 30% conectado a la redinterconectada nacional.‐ 70% conectado a
‐ 75% PSE‐ 25% Aislados
100% acceso a la redinterconectada
Acceso a la fuentes decocción limpias
100% acceso‐ 30% cocinas con GLP‐ 15% cocinas a biogas‐ 55% cocinas mejoradas
100% acceso a la redde gas
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
Fuente: IEA (2010)
Atención especial merecen las cocinas con biogas, dado que éstas pueden
incluirse en un programa mucho más ambicioso en el cual se integre la energía
como un subproducto de proyectos con biodigestores, en los cuales el insumo
por lo general son las excretas de los animales y residuos vegetales, cuyos
productos son gas natural y fertilizantes. En este segundo caso son insumos
muy ricos para abonar las plantas que consumirán los animales y el ciclo se
podría cerrar. Éste se presenta como un caso donde el esfuerzo por dar
energía transciende el sector, pues el proyecto cuya factibilidad técnica en
piloto se dispone en el país, puede dar lugar a la generación de proteínas,
energía y fertilizantes, el reto es hacerlos sostenibles.
5. Conclusiones
‐ El objetivo de política energética del Perú de dar acceso universal a la energía,
cambia radicalmente la forma de conceptualizar e implementar los planes del
Estado para atender las necesidades de energía de los ciudadanos de las zonas
aisladas, rurales y urbano‐marginales.
‐ No es suficiente garantizar la disponibilidad de energía, es necesario garantizar la
accesibilidad para usar dicha energía, buscando en adición que esta sea sostenible
mediante mecanismos sostenibles. Actualmente los costos de accesibilidad están
determinando e impulsando el consumo de los energéticos más caros.
‐ Los indicadores sectoriales, tales como “coeficiente de electrificación”, tienen que
incluir bajo la nueva política las demás opciones energéticas.
‐ A la fecha, los tres grandes protagonistas energéticos con alto valor de mercado
(electricidad, gas natural y GLP) tienen diferentes costos de acceso para el usuario
y ello determina que las energías más caras que son las que tienen menores costos
de acceso, sean las más frecuentemente utilizadas. Así, en orden ascendente de
costos está el gas natural, la electricidad y el GLP.
‐ El objetivo de lograr el acceso universal a la energía conlleva un objetivo mayor
que es el de erradicación de pobreza y generar el desarrollo de los pueblos, la
forma cómo el sector contribuye puede considerar, tal como ha sido señalado (IEA,
2010), en dos vías el acceso universal a la electricidad y el acceso a formas limpias
de cocción.
‐ Finalmente los costos de accesibilidad y disponibilidad de los energéticos
determinan el balance nacional, por tanto, si el objetivo es el acceso universal a la
energía los Fondos y Recursos deben tener una orientación distinta a impulsar un
energético en particular y promover el mix de ofertas energéticas para hacer del
reto del acceso universal de la energía una realidad. En esta línea de pensamiento
el esfuerzo por dar acceso universal a la energía debe considerar una mayor
coordinación intersectorial.
‐ La energía, no ha sido declarado como un derecho, sin embargo sin ella no se
pueden asegurar se brinden los servicios que si han sido considerados como tales.
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
6.
Bibliografía
Francke, P. (2010) Disponible en: http://www.larepublica.pe/actualidad‐economica‐
pedro‐francke/13/06/2010/distribucion‐la‐verdad‐incomoda
IEA, (2010). Energy Poverty. How to make modern energy Access universal?.
UNDP/UNIDO. OECD. September 2010.
INEI (2010). Perú. Incidencia de la pobreza extrema 2001‐2010. Encuesta Nacional de
Hogares 2001‐2010.
Lumbreras, J. Et. Al. (2007). Derechos humanos y acceso universal a la energía.
Ecosostenible. N° 25‐Marzo 2007. Cámara Valencia. España.
MINEM, (2010). Balance Nacional de Energía 2009. Ministerio de Energía y Minas.
Perú. 2010.
Oestmann, S. & Dymond, A. (2009) Acceso y Servicio Universal (ASU). Modulo 4.
Conjunto de herramientas para la reglamentación de las TIC. Information for
Development (Info DEV) & International Telecommunication Union (ITU).
Tolmos, R. (2004). Desafíos y propuestas para la implementación más efectiva de
instrumentos económicos en la gestión ambiental de América Latina y el Caribe: El
Caso de Perú. CEPAL. Santiago de Chile.
UN (2010) Energy for a sustainable future. The secretary – general´s advisory group on
energy and climate change (AGECC) – Summary report and recommendations. April.
2010. New York.
WEC (2006). América Latina. Pobreza energética – Alternativas de alivio. Informe.
Abril. 2006.
Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome
EFICIENCIA ENERGÉTICALa creciente preocupación mundial acerca del futuro energético de nuestro planeta ha establecido un cuestionamiento de
los patrones de producción, transmisión, distribución y consumo de la energía. Existe hoy día la certeza de la urgente
necesidad de garantizar la seguridad energética, controlar la contaminación actual que se está dando por algunas fuentes
de energía, presentar alternativas de solución al cambio climático.
Cada día dañamos nuestro clima utilizando combustibles fósiles (petróleo, carbón y gas) para electricidad, transporte e
industria. La generación de energía a partir de estos combustibles genera mundialmente efectos como el invernadero.
El cambio climático ya está afectando nuestras vidas y se
prevé que destruirá el medio ambiente de diversos países
así como numerosos ecosistemas y especies en los
próximos años. Por esta razón nosotros como ingenieros
que somos debemos desarrollar proyectos que cambien
los patrones en producción y consumo de energía y esto
debe comenzar cuanto antes.
Necesitamos una transformación completa de la forma
de generar, distribuir y consumir la energía. Este gran
cambio debe efectuarse contemplando el uso de las
energías renovables existentes y la adopción de nuevas
medidas de eficiencia energética.
Por este motivo la Universidad Nacional de Ingeniería,
a través del Capítulo de Energía y Potencia (PES) de la
Rama Estudiantil IEEE, propone como primer paso “I
Concurso de Aplicación en Eficiencia Energética”, en
el marco del III Simposium de Ingeniería Eléctrica.
Gracias al patrocinio de la empresa ABB, líder global de
tecnologías de energía y automatización.
Objetivo: Impulsar y difundir los avances tecnológicos
que presentan los proyectos sobre el uso eficiente de
energía, para la aplicación y resolución de problemas
industriales, ecológicos, sociales entre otros de nuestra
realidad nacional.
Podrán participar estudiantes y egresados de las escuelas
profesionales de Ingeniería Eléctrica, Electrónica,
Mecánica, y ramas afines.
Proyectos son recibidos desde el día lunes 4 de julio
hasta el viernes 30 de septiembre del 2011.
Premios: visita guiada a una planta de fabricación
de ABB en Brasil, prácticas pre-profesionales en
ABB en el Perú, equipamiento para el laboratorio
eléctrico de la universidad o institución educativa a
la cual los ganadores representen y entrenamiento
gratuito en el “ABB Training Center”
Se han establecido dos categorías para la participación:
Categoría Pre-grado, conformada por estudiantes de las
universidades del Perú de las escuelas profesionales de
Ingeniería Mecánica, Ingeniería Eléctrica e Ingeniería
Electrónica y ramas afines. Y la Categoría Egresados, en
la que podrán participar los profesionales de empresas
del sector eléctrico (generación y distribución) e
industrial (industria minera, de hidrocarburos,
cementera, etc.)
Cabe destacar que la participación de La Rama
Estudiantil IEEE en conjunto ABB se extiende también
al ciclo de conferencias en universidades, con el tema
“Eficiencia Energética: Una alternativa frente al cambio
climático”, que estuvo a cargo de Lourdes Cárdenas,
Coordinadora de Sistemas de Gestión Ambiental - ABB.
Se realizaron conferencias en las principales
universidades del Perú: Universidad Nacional de
Ingeniería, Pontificia Universidad Católica del Perú,
Universidad Nacional del Callao, Universidad Nacional
Mayor de San Marcos, capacitando a más de 150
alumnos, en general.
El I Concurso de Aplicación en Eficiencia
Energética, ha sido incluido desde el año 2011 en el
III Simposium de Ingeniería Eléctrica, evento
organizado por la Rama Estudiantil IEEE de la
Universidad Nacional de Ingeniería a través del
Capítulo Estudiantil de Energía y Potencia (PES)
Cabe señalar que el Simposium de Ingeniería
Eléctrica reúne anualmente a más de 200
participantes de distintas universidades y consiste de
seis conferencias magistrales y visitas técnicas a las
instalaciones de compañías del sector eléctrico.
Los perfiles de proyectos son recibidos desde el
lunes 4 de julio hasta el viernes 30 de septiembre, en
la siguiente dirección: pes.ieee.uni@gmail.com
Día 1: 8 de Agosto
Rama Estudiantil de la UNI
UNIVERSIDADNACIONAL DE
INGENIERIAreieee.uni.edu.pe
Día 2: 9 de Agosto
Rama Estudiantil de la UNI
UNIVERSIDADNACIONAL DE
INGENIERIAreieee.uni.edu.pe
Feria Tecnológica
Rama Estudiantil de la UNI
UNIVERSIDADNACIONAL DE
INGENIERIAreieee.uni.edu.pe
Día 3: 10 de Agosto
Rama Estudiantil de la UNI
UNIVERSIDADNACIONAL DE
INGENIERIAreieee.uni.edu.pe
Día 4: 11 de Agosto
Rama Estudiantil de la UNI
UNIVERSIDADNACIONAL DE
INGENIERIAreieee.uni.edu.pe
Día 5: 12 de Agosto
Rama Estudiantil de la UNI
UNIVERSIDADNACIONAL DE
INGENIERIAreieee.uni.edu.pe
REALIDAD VIRTUAL
El tonto sentido del olfato y el sentido del gusto Lo que miras y hueles, es lo que pruebas. Video, sonido y las recientes experiencias haciendo uso del tacto son comúnmente empleadas para crear y mejorar las experiencias de realidad virtual. Sin embargo, el sentido del olfato es raramente un factor. Un pequeño grupo de investigadores de la Universidad de Tokio están trabajando para cambiar eso mediante la integración del sentido del olfato y de la vista de manera que alteren el sentido del gusto de una persona. Sus sistemas de Realidad Virtual fueron capaces de confundir a las personas que estaban comiendo una simple galleta haciéndolas sentir que estaban degustando el sabor que ellos habían elegido. El grupo está haciendo uso del hecho que el gusto es afectado por lo que vemos, escuchamos, olemos, entre otros. “Nosotros estamos usando las influencias de estas modalidades sensoriales para crear un seudodegustador pantalla”, dijo TakujiNarumi, un profesor asistente en la Universidad de Tokio. “El objetivo es tener experienciasdiferentes en tema de gustos a través de la realidad aumentada con solo cambiar el estímulo visual y olfativo que reciben”.
Click para
ver el video
Para hacer esto, el equipo de Tokio creó un sistema denominado el Meta Cookie, en el cual una simple galleta fue estampada con un marcador editable que permitía a la máquina de visión de software rastrearla fácilmente. El experimento también usó una computadora controladora olfativa con pantalla sobre la cabeza, o HMD, el cual incorpora un sistema de imágenes superpuestas en la galleta y un marcador de la unidad de detección. La unidad olfativa emplea siete botellas plásticas llenas de aroma equipadas con bombas de aire y tubos que entregan aromas individuales a la nariz de las personas. Una bomba de aire adicional es usada para diluir la cantidad de aromas que el sujeto recibe. Las personas que participaron en el experimento fueron consultadas para elegir el sabor de la galleta
pero solo se les dio una simple galleta y se les indicó que la observaran antes de comerla. Una cámara web en el marcador de la unidad de detección tomó el modelo de la galleta y calculó su posición y orientación, es así como se obtuvo la distancia entre la galleta y la nariz de la persona. Esta información fue usada para ajustar la imagen de la galleta, que ya había sido cubierta con una imagen del sabor elegido. Una segunda cámara web se posicionó cerca de la nariz de la persona, apuntando hacia abajo, detectó el punto en el que la galleta se acercó a la boca de la persona y señaló la unidad olfativa para liberar el olor. Mediante la mezcla de aire con el aroma, el sistema pudo ajustar la fuerza del olor a 127 diferentes niveles y hacer que el olor se incremente conforme la galleta se acercaba a la boca. En los últimos ensayos, 43 participantes fueron consultados para comer una o dos galletas y luego escribir acerca de sus experiencias gustativas. “En 72.6 por ciento de los ensayos, los participantes sintieron que ellos degustaron el tipo de galleta que ellos habían elegido”, dijo Narumi. Ahora, los investigadores están trabajando en hacer el HMD olfativo más pequeño mediante el reemplazo de las botellas de plástico con aroma por tecnología inkjet. Ellos también están promoviendo la calidad de superposición de imágenes y buscando adherir una sensación de textura a través del uso de sonido. En cuanto a aplicaciones prácticas, Narumi ve la tecnología siendo usada para reforzar programas dietéticos, por ejemplo el consumo de alimentos blandos que parecen comida más sabrosa, especialmente para pacientes hospitalizados. Él dijo que esto podría pasar en aproximadamente 5 años. Mucho más allá en el futuro, él nos menciona que esta tecnología podría ser usada para el entretenimiento en casa “para aumentar el placer de mirar televisión o cuando se jueguen videojuegos”.
Elaborado por: JOHN VOID Traducido por: PAMELA CRISÓSTOMO
CÓMETELO: Trucos gráficos y una computadora-controlador
olfativa hace que una simple galleta sepa como almendra,
fresa o limón.
978-1-4244-7173-7/10/$26.00 ©2010 IEEE
Preliminary Internetworking Simulation of the QB50 Cubesat Constellation
Hector Bedon, Carlos Negron, Jorge Llantoy, Center for Information and Communications Technologies (CTIC-UNI)
National University of Engineering (UNI), Lima, Peru
Carlos Miguel Nieto Telematics Engineering Department
Technical University of Madrid (UPM), Madrid, Spain
Cem Ozan Asma von Karman Institute, Rhode-St-Genèse, Belgium
Abstract—Constellations of small satellites now become a great alternative for scientific missions to study Earth. As a result, they should be considered appropriate communication mechanisms to retrieve the data collected. This article studies the possibility to implement TCP and UDP over IP through the use of intersatellite links and distributed ground stations, such as Genso project. We evaluate parameters like delay end-to-end and throughput for different configurations of the QB50 constellation proposed by von Karman Institute for Fluids Dynamics (VKI).
Cubesats; satellite network; cubesat constellation; space technology; wireless sensor networks.
I. INTRODUCTION Since the idea of CubeSat developments made mainly by
the universities of Stanford and California Technical University in 2000 [1], in recent years, the number of projects involving the development of low-cost small satellites that make use of commercial products (COTS) has increased [2]. Particularly, in the Latin American region we have the experience of Libertad I [3] and Chasqui I [4,5]; the first one was launched and operated successfully and the latter is currently at the production phase. Hence, the chances of raising projects involving constellations of satellites are becoming more affordable, as is the case of the QB50 [6], an initiative of the von Karman Institute for Fluids Dynamics (VKI). On the other hand the use of communication mechanisms similar to those used by the Internet has been experimenting in space through some successful projects such as the CLEO project [7]. Within the efficient transport mechanisms are being evaluated include those based on Delay Tolerant Networks (DTN) [8] one of which is Saratoga [9] which is a lightweight transport protocol based on User Datagram Protocol (UDP / IP ) and those seeking improvements to the transport protocol TCP [10], but all of these transmission mechanisms are oriented to commercial satellites (commercial broadband satellites) but are not designed for satellite communication with few limitations such as CubeSats. Hence our objective is to evaluate the communication mechanisms that exist on the Internet for a constellation of satellites that have reduced communication
capabilities such as the constellation of satellites QB50. Our contribution is focused on generating and simulating two scenarios of this constellation to assess throughput and delay parameters as a function of link bandwidth intersatelital and thus provide a better understanding of the communication aspects of the constellation referred.
The paper is organized as follows. Section 2 describes the advantages of CubeSat networks and major initiatives; in Section 3 defines the project QB50 objectives and Section 4 performs an analysis of the transport mechanisms TCP / UDP over satellite links. Section 5 describes the simulation environment used in the simulation. In section 6 we discuss the results and finally in section 7 we show the conclusions of this paper.
II. CUBESAT NETWORKS A single CubeSat is simply too small to also carry payloads
or sensors for significant scientific research. Hence, for the universities the main objective of developing, launching and operating a CubeSat is educational. However, when combining a large number of CubeSats with identical sensors into a network, in addition to the educational value, fundamental scientific questions can be addressed which are inaccessible otherwise. A double (10x10x20 cm3) or triple (10x10x30 cm3) unit CubeSat can include more sophisticated payloads and higher power budget that can be considered as a powerful probe to perform in-situ measurements. Networks of CubeSats have been under discussion in the CubeSat community for several years, but so far no university, institution or space agency has taken the initiative to set up and coordinate such a powerful network.
Space agencies are not pursuing a multi-spacecraft network for in-situ measurements in the thermosphere at 100 - 400 km altitude because the cost of a network of 30 - 50 satellites built to the usual industrial standards would be extremely high (over a billion Euros) and not justifiable in view of the limited orbital lifetime. A network of satellites for in-situ measurements in the thermosphere can only be realised by using very low-cost
satellites, and for this purpose, CubeSats are by far the best (if not the only) candidates. The following networks have been suggested as the most interesting (in the order of increasing distance from Earth):
• Upper atmosphere and re-entry research at the lowest possible orbital altitude with the aim to assure a CubeSat nominal lifetime of three months minimum.
• Continuous Earth observation at lower altitudes for homeland security and early warning purposes
• Alternative communication networks or technology demonstration.
• Continuous environmental monitoring (e.g. wildfires, oil spills) by a network of about 30 CubeSats in low-Earth orbits.
• Plasma physics in the magnetosphere (next generation Cluster), a network of about 30 CubeSats with a mother spacecraft for communication purposes.
III. THE QB50 PROJECT QB50 is the first project that considers a network of
CubeSats to be launched to the upper atmosphere. QB50 has the scientific objective to study in-situ the temporal and spatial variations of a number of key parameters in the lower thermosphere (between 330 and 90 km of altitude) with a network of 50 CubeSats, separated by a few hundred kilometers and carrying identical sensors. It will also study the re-entry process by measuring a number of key parameters during re-entry and by comparing predicted and actual CubeSat trajectories and orbital lifetimes. Space agencies are not pursuing a multi-spacecraft network for in-situ measurements in the lower thermosphere because the cost of a network of 50 satellites built to industrial standards would be extremely high and not justifiable in view of the limited orbital lifetime. No atmospheric network mission for in-situ measurements has been carried out in the past or is planned for the future. A network of satellites for in-situ measurements in the lower thermosphere can only be realized by using very low cost satellites, and CubeSats are the only realistic option.
For the QB50 network, double CubeSats (10x10x20 cm3) are foreseen, with one half providing the usual satellite functions and the other half accommodating a set of identical sensors for lower thermosphere and re-entry research. Compared with other CubeSat networks that are under discussion (continuous environmental monitoring, space weather and plasma physics in the magnetosphere) QB50 has the following advantages:
• The lifetime of a CubeSat in the envisaged low-Earth orbit will only be three months, i.e. much less than the 25 years stipulated by international requirements related to space debris.
• A low-Earth orbit allows high data rates because of the small communication distances involved.
• In their low-Earth orbits the CubeSats will be below the Earth’s radiation belts, which is very important
because CubeSats use low-cost commercial off the shelf (COTS) components.
IV. TCP/UDP OVER CONSTELLATIONS Small satellites communications for the QB50 constellation
face several problems due to the intrinsic characteristics of satellite links, like the low ISL and GSL transmission bitrate, the high and variable value of the RTT (Round-Trip Time) and the significant error introduced in the link. The error rate will depend on the communication system features (e.g. the link distance, coding and modulation) and the operational conditions (like rain or humidity). These aspects greatly limit the performance of the data transport (transport layer).
In the standard versions of the TCP protocols the RTT allows to measure the satellite channel, evaluating the congestion and influencing in the variation of the congestion window. Packet loss due to congestion or channel errors would imply packet retransmission. The increment of the congestion window size is rather slow, because ACK's should arrive first for this to be possible. First, that increment performs in an exponential way depending of the number of received ACK's (this behavior is called "Slow Start") until reaching a certain threshold level, when it begins a linear and more quiet increment (called "Fast Recovery"), thus avoiding congestion.
TCP Westwood [11] was introduced with the purpose of limiting the consequences of the losses introduced by a wireless channel. It establishes the threshold level (sstresh) as a measurement of the available bandwidth, using the arrival rate of the ACK's, this way optimizing the variation of the Slow Start and Fast Recovery (called "Faster Recovery" for Westwood version), resulting in a better efficiency. There is a performance modification for all TCP standards, called "NewReno" Modification, which optimizes even more the Faster Recovery. TCP Westwood with NewReno features exists and is analyzed in this document.
In contrast to TCP (which is always requesting receipt acknowledgements), UDP is a connectionless protocol and doesn't guarantee any reliability for the packets delivery. Also, the lack of use of ACK's doesn't allow the protocol to sense the efficiency, so the data transmission rate is never modified.
UDP and TCP Westwood with NewReno features are compared in this document.
V. SIMULATION ENVIRONMENT AND TOPOLOGY Two different network topologies for the QB50
constellation are evaluated in this document. The first scenary is a ring of 50 equally spaced CubeSats. In the second scenary, we analyze a 10000 km long CubeSat string. The criteria for the selection of these scenarios are based on the preliminary studies being held recently by the QB50 project researchers [12,13].
For the preparation of this paper the Tcl-based ns-2 network simulator [14] (with an add-on called NS-Sat-Plot and created by Lloyd Wood) and SaVi (Satellite Visualization software, based on Linux OS) were used.The first allowed for the simulation of the proposed environments. The latter helped for the visualization and animation of the proposed satellite
constellations. For the simulation of the aforementioned environments the design of Tcl scripts for ns-2 was needed. These scripts were based on the following facts:
1. The constellation is composed of only one polar plane. The orbit height will be of 300 km and the inclinationof 79 degrees.
2. Nine ground stations distributed over the Earth. Most of them are from GENSO Project [15] and one is being currently implemented at UNI and it is part of the Peruvian Satellite Network (PSN) [16].
3. Both uplink and downlink bitrates are of 9600 bps. 4. The ISL (inter-satellite links) bitrate will take the
following differ ent values in the simulations: 0.5 kbps, 1 kbps, 3 kbps, 6 kbps, 8 kbps and 10 kbps.
5. Two transport protocols will be evaluated: First, UDP; then, TCP Westwood with New Reno features (Westwood-NR).
6. The traffic will be "CBR" (Constant Bit Rate), composed of packets of 210 bytes sent at one-second intervals. When inserted in a transport protocol, these packets are still of 210 bytes at UDP. When TCP, the length is 1040 bytes.
7. Link Layer Protocol used is a basic one for NS, with no special features and neither FEC nor ARQ models implemented. An random error model is introduced too. The error probability for each interface is 10 -3; i.e. 0.1%. This means that in each interface, there is a probability of 0.1% in receiving a corrupted packet (this, in our analysis, would become a loss packet because there are no error recovery mechanisms after the packet is received).
8. The queue has a limit of 50 packets and the queuing policy is TailDrop (if the queue is full, packets arriving are discarded).
9. The traffic consists in five CBR flows originating in satellites numbered 1, 10, 20, 30 and 40, and destined to Lima. For TCP, Lima sends standard acknowledgements (ACK's). A TCP Westwood-NR ns-2 package of algorithms created and edited by University of California, L.A. (UCLA) is used in the simulation [17]. The instants of beginning of the flows are shown in Table I, and are different for both scenarios.
TABLE I. BEGINNING MOMENTS FOR TRAFFIC FLOWS
Source Satellite Constellation
First scenario time Second scenario time
Satellite 1 1s 1s
Satellite 2 200s 100s
Satellite 3 400s 200s
Satellite 4 800s 400s
Satellite 5 1000s 500s
Satellite 1 is placed in the middle of the topology always, and it's near Lima at the beginning of the simulation. In those seconds, satellites 10 and 20 are northwards; and 30 a 40 are southwards. It will happen that packets will travel across the ISL until they find a satellite as close to Lima as possible and this will strongly influence in the results.
The different topologies can be observed in Fig. 1 and Fig. 2, generated with SaVi.
Figure 1. First satellite topology to be analyzed.
Figure 2. Second satellite topology to be analyzed, a 10000 km long satellite
string
In this document, three parameters are measured: a) Throughput arriving to Lima ground station (total number of bytes received by Lima for a time). b) Delay of the packets for the flow from Satellite 1 until they are received in Lima. c) Packet Loss rate (due to channel errors or congestion only), showing also the total analyzed packets, received packets and lost packets. For UDP protocol case, throughput is measured with an algorithm that measures the total bytes received with a time basis of every 40 seconds for UDP and 200 (for Topology 1) and 140 (for Topology 2) seconds for TCP. The total simulation time will be of 1500 seconds for the first topology and 700 seconds for the latter (this is because after 700 seconds the satellites lose line of sight with any ground station for several seconds). Losses due to lack of line of sight for Topology 2 are not considered in the packet loss rate.
VI. SIMULATION RESULTS 1) First scenario (50 Cubesats equally spaced around the
Earth): First of all, let's analyze the results for UDP in this first network topology. When varying the ISL bitrate, it results in different throughput curves, being shown in Fig. 3. Some remarks should be done here.
It can be observed that new traffic flows (first at 200, then 400, 800, and finally 1000 seconds) give staggered rises to each throughput curve in the graph. It must also be commented that, when observing the ns-2 trace files, as soon as packets are produced by the CBR sources, they are sent. In addition, the throughput doesn't make any significant change when incrementing the ISL bitrate capacity from 6 kbps to 10 kbps; because the 6 kbps capacity is large enough to carry the traffic. The average traffic flow bitrate per source will be of 1680 bps, or 1.68 kbps. Given that there are five flows, the total downlink rate should be 8.4 kbps. A capacity of 6 kbps in the ISL bitrate, as commented, is large enough to achieve this, because it should carry as much as thrice the value of 1.68 kbps, i.e. 5.04 kbps (just thrice because flows are distributed through the shortest paths and the downlink satellite receives three flows at one side and two at the opposite). Finally, let’s focus just on the first ISL bitrate values (0.5, 1 and 3 kbps). For these values there are peaks observed between 1000 and 1200 seconds in the simulation. This is because the current downlink satellite is a traffic source satellite. Thus, the ISL maximum rate can’t limit the additional 1.68 kbps originated by the downlink satellite. Thus, the throughput is added 1.68 kbps for this period of time.
When analyzing the Delay from Satellite 1 to Lima vs. Packet ID, the result is shown in Fig. 4. When observing the graphs it can be commented. For the latter three values, the graph shows a subtle variation in the delay. Also, The increase in the delay becomes more subtle as time goes by, and it relies on the fact that first, the satellite 1 (which is evaluated in this graph and according to the ns-2 trace files), sends its packets to its neighbor, satellite 50, which is the first downlink satellite (one hop). After some seconds, the downlink satellite is 49 (two hops), then satellite 48 and so on. For the total simulation time considered, it should finally be remarked that 10 kbps is the best ISL rate for addressing delay issues.
Figure 3: Throughput vs. Time for UDP in Topology 1.
Figure 4: Delay from Satellite 1 to Lima vs. Time for UDP in Topology 1.
Finally, the results for the packet loss are stated below. Due to the lack of retransmissions and congestion mechanisms when using UDP, error channels and congestion can seriously affect the communications. Also, for a satellite being a source of traffic, it may discard some packets from its queue depending on the amount of bits incoming from the ISL links. It can be seen that the packet loss is greatly reduced since ISL bitrate limit is 6 kbps, because it doesn’t limit the traffic between satellites anymore. Thus, 6, 8 or 10 kbps are enough for an adequate performance of UDP in this first scenario.
TABLE II. PACKET STATISTICS FOR UDP ON TOPOLOGY 1
ISL bitrate limit (kbps)
Packet Statistics Total
Packets Received Lost Packet Loss (%)
0.5 4770 754 4016 84.1929 1 4771 1444 3327 69.7338 3 4875 3868 1007 20.6564 6 5077 5069 8 0.1576 8 5081 5073 8 0.1574
10 5084 5076 8 0.1574
When performing the TCP analysis, the throughput graph, shown in Fig. 5, looks a bit odder than the one for UDP.
In TCP there are some peaks in the graph because of the congestion window mechanism, which varies the time and amount of sent packets depending on the traffic it perceives from measuring the acknowledgements return rate. It can be seen that the throughput increases to 8 kbps since the beginning, this is because the packets sent are much bigger and the TCP mechanisms try to optimize the use of the available bandwidth. In the beginning, according to the ns-2 trace files, TCP send packets of 40 bytes, in order to set up a connection with Lima. This way, first CBR data is buffered by TCP mechanisms and, as soon as the connection is established, it begins sending the data in the 1040 bytes long information packets.
The TCP delay results are shown in Fig. 6. Here, the delay for ISL values of 500 bps and 1 kbps isn’t entirely shown in order to emphasize the results for 3 kbps, 6 kbps and so on. The delay is remarkably different to the one in UDP. It’s much bigger for many of the sent packets, because the congestion mechanisms buffer the delayed 1040 bytes long packets. The TCP thus demonstrates to yield long packet delays due to the
packet length and bits overhead. Nevertheless, the packet loss is always greatly reduced, this being a TCP intrinsic feature.
Figure 5: Throughput vs. Time for TCP in Topology 1.
Figure 6: Delay from Satellite 1 to Lima vs. Time for TCP in Topology 1.
2) Second scenario (A Cubesat string 10000 km long): As a first glance for this topology, the variation in UDP throughput as a result of changing the ISL bitrate limit is shown in Fig. 7. As for the first scenario, the throughput increases in a staggered way, due to new traffic flows in other satellites. Each step in the graph relies in an increment of the traffic amount increase of 1.68 kbps. Also, the augment in the ISL value greatly raises the throughput, till 6 kbps. From this value on, the throughput doesn't show any significant variation anymore, for the same reasons than the first topology. Nevertheless, the performance begins to fall at approximately 540 seconds, given that the topology is a string and the information is sent towards one of the ends, being this end the only part of the constellation to be in the ground station's line of sight. This reduction causes saturation in the ISL links if these don't have enough capacity. Only the 10 kbps ISL link is able to cope with this fact.
The delay results are displayed in Fig. 8. The gradual increment in the ISL bitrate value provokes a significant reduction in the delay for 500 bps to 3 kbps, which is not shown in the graph for the same reasons as topology 1. For the greater ISL values, the delay is even more reduced, reaching 5 seconds as the maximum delay. It can be observed too that the delay for lower ISL values is considerably great, which coincide with the throughput graph, where these ISL values don't exceed the total traffic produced when all this traffic is sent, in one direction, towards the downlink satellite.
Figure 7: Throughput vs. Time for UDP in Topology 2.
Figure 8: Delay from Satellite 1 to Lima vs. Time for UDP in Topology 2.
By the way, as stated in Table III, it's worth remarking again that a large ISL rate causes less packet losses, just as in the first topology. For low ISL values, a lot of packets are lost, especially for 500 bps and 1 kbps. Also, when a satellite is a traffic source, it may drop packets due to its saturated queue, because it receives packets from ISL links apart from producing them, as for the first scenario. Finally, channel loss influences in the packet loss rate too.
TABLE III. PACKET STATISTICS FOR TOPOLOGY 2
ISL bitrate limit (kbps)
Packet Statistics Total
Packets Received Lost Packet Loss (%)
0.5 1943 207 1736 89.3464 1 1928 412 1516 78.6307 3 1966 1101 865 43.998 6 1976 1770 206 10.4251 8 1965 1916 49 2.49364
10 1984 1982 2 0.100806 In order to prove reliability for data transmission, now a
TCP analysis for this topology is done. Results for throughput are shown in Figure 9. Here, each curve tries to keep a constant and great bitrate. The same way, when observing the ns-2 trace files, the same for the other topology, many packets aren't sent automatically, but they are buffered instead in order to send them later. Also, the network performance is affected, reducing the throughput, provided that of the topology is a string, for both UDP and TCP protocols.
Finally, the delay results are shown in Fig. 10. The delay rises with the packet ID (thus, throughout time). This is a result of new traffic flows, as for the aforementioned cases, which increase the amount of sent data (this brings more acknowledgements for each traffic flow to be delayed). In contrast, the increment in the ISL again reduces the delay, greatly at first, and slightly for the greater ISL values. As for topology 1, delay for TCP is greater than for UDP, thus making this aspect a disadvantage. Nevertheless, the insignificant packet loss makes up for this issue.
Figure 9: Throughput vs. Time for TCP in Topology 2.
Figure 10: Delay from Satellite 1 to Lima vs. Time for TCP in Topology 2.
VII. CONCLUSIONS In this paper, we have been able to explore the impact of
ISL links within both proposed topologies for the QB50 constellation, observing an enhancement in throughput and a reduction in the delay, as the ISL maximum rate is increased. It can also be appreciated that, when analyzing the TCP protocol in both topologies, the throughput saturation level is limited by the downlink bandwidth. It has been demostrated that TCP performs a more optimum throughput management throughout the simulation time (unlike UDP). Nevertheless, the delay is greater than for UDP; although the low packet loss, characteristic of TCP, compensates that issue. It was observed too that the topology proposed for the first scenario offers a better traffic distribution due to the great simetry level of that 50 Cubesat ring, in contrast to the second scenario. As to which protocol performs better, we can state that TCP
should be the choice when looking for reliability in data error free communication and throughput optimization; and UDP would be the ideal election for quick data transmission, together with a proper error correction mechanism. Finally, it must be concluded that ISL values should be selected depending on the traffic to be generated, otherwise long delays and low throughput values will be observed.
ACKNOWLEDGMENTS The results of this investigation were achieved with support
from the Spanish Agency for International Development Cooperation (AECID) and the National Institute for Research and Training in Telecommunications from the National University of Engineering (INICTEL-UNI).
REFERENCES [1] H. Heidt, J. Puig-Suari, A. S. Moore, S. Nakasuka, R. J. Twiggs
“CubeSat: A new Generation of Picosatellite for Education and Industry Low-Cost Space Experimentation” 14th Annual/ USU conference on small satellites, 2000.
[2] http://www.amsat.org.uk/iaru/finished.asp [3] http://www.usergioarboleda.edu.co/proyecto_espacial/ [4] Canales R, J.M.; Bedon, H.; Estela, J.; , "First steps to establish a small
satellite program in Peru," Aerospace Conference, 2010 IEEE , vol., no., pp.1-14, 6-13 March 2010.
[5] http://www.chasqui.uni.edu.pe [6] Muylaert, J., et al.,. (2009). QB50: An International Network of 50
Cubesats for Multi-Point, In-Situ Measurements in the Lower Thermosphere and for Re-Entry Research. ESA Atmospheric Science Conference, Barcelona, Spain.
[7] Lloyd Wood, Will Ivancic, Wes Eddy, Dave Stewart, James Northam, Chris Jackson, "Investigating operation of the Internet in orbit: Five years of collaboration around CLEO", IEEE Communications Society Satellite and Space Communications Technical Committee newsletter, vol. 18 no. 2, pp. 10-11, November 2008.
[8] V. Cerf, S. Burleigh et al., "Delay Tolerant Network Architecture", IETF RFC 4838, April,2007.
[9] Wood, L.; Eddy, W.M.; Ivancic, W.; McKim, J.; Jackson, C.; , "Saratoga: a Delay-Tolerant Networking convergence layer with efficient link utilization," Satellite and Space Communications, 2007. IWSSC '07. International Workshop on , vol., no., pp.168-172, 13-14 Sept. 2007.
[10] Caini, C.; Cornice, P.; Firrincieli, R.; Livini, M.; Lacamera, D.; , "TCP, PEP and DTN performance on disruptive satellite channels," Satellite and Space Communications, 2009. IWSSC 2009. International Workshop on , vol., no., pp.371-375, 9-11 Sept. 2009.
[11] Casetti C, Gerla M, Mascolo S, Sanadidi MY, Wang R. TCP Westwood: end-to-end congestion control for wired/wireless networks. Wireless Networks Journal 2002; 8(4):467-479.
[12] Muylaert, J., et al.,. (2010) QB50: An International Network of 50 Cubesats for Multi-Point in Situ Measurements in the Lower Thermosphere and Re-Entry Research. Pestana Conference Centre – Funchal, Madeira - Portugal, 31 May – 4 June 2010
[13] Sundaramoorthy P.P. et al., “Preliminary Orbit Analysis of the QB50 Satellite Cluster”. 4th International Conference on Astrodynamics Tools and Techniques-4th ICATT 2010 Eurpean Space Astronomy Centre (ESA/ESAC), Madrid, Spain, 3-6 May 2010.
[14] Fall, Kevin; Varadhan, Kannan. (2009). "The ns Manual". The VINT Project, UC Berkeley.
[15] http://www.genso.org/ [16] Canales, J.M.; Rodriguez, G.; Estela, J.; Krishnamurthy, N.; , "Design of
a Peruvian small satellite network," Aerospace Conference, 2010 IEEE , vol., no., pp.1-8, 6-13 March 2010.
[17] http://www.cs.ucla.edu/NRL/hpi/tcpw/tcpw_ns2/tcp-westwood-ns2.html#TCPW-NR
top related