Una publicación de la Universidad Autonóma de Nuevo León
Ing. Rogelio Guillermo Garza Rivera Victor Alberto Calderon Valdez
Rector Diseño
M.A. Carmen del Rosario De la Fuente Dr. Arturo Alberto Castillo Guzmán
García Dr. Ángel E. Sánchez Colin
Secretaria General Victor Alberto Calderon Valdez
Dr. Juan Manuel Alcocer González Ana Gabriela Parra Antúnez
Jorge Oziel Rivas Puente
Secretario Académico
Dr. Celso José Garza Acuña Jonathan Daniel Bárcenas Arreola
Secretario de Extensión y Cultura Francisco Hernández Cabrera
Lic. Antonio Ramos Revillas Jorge David Lara Muñoz
Director de Publicaciones María de Jesús Antonia Ochoa Oliva
M.T. Rogelio Juvenal Sepúlveda Guerrero José Daniel Borrego
Director de la Facultad de Ciencias Físico
Arturo de Jesús Rodríguez Arteaga
Matemáticas Jorge David Lara Muñoz
M.A. Alma Patricia Calderón Martínez Omar Reyes Silva
Nayeli Islas Juárez
Editora Responsable Colaboradores
M.A. Alma Patricia Calderón Martínez
M.A. Patricia Martínez Moreno
Redacción M.T. José Apolinar Loyola Rodríguez
Dr. Romeo de Jesús Selvas Aguilar
M.C. Azucena Yoloxóchitl Ríos Mercado
M.A. Alma Patricia Calderón Martínez
M.C. Álvaro Reyes Martínez
Dra. María de Jesús Antonia Ochoa Oliva
Consejo Editorial
Celerinet, Año 5, Vol. 9, enero-junio. Fecha de publicación: 9 de junio de 2017
Es una publicación semestral, editada por la Universidad Autónoma de Nuevo León, a través de la Facultad de
Ciencias Físico Matemáticas. Domicilio de la publicación: Ave. Universidad S/N. Cd. Universitaria. San Nicolás de
los Garza, Nuevo León, México, C.P. 66451.
Teléfono + 52 81 83294030. Fax: + 52 81 83522954. www.fcfm.uanl.mx
Editora Responsable: Alma Patricia Calderón Martínez. Reserva de derechos al uso exclusivo No. 04-2014-
102111595700-203 otorgado por el Instituto Nacional de Derechos de Autor. ISSN 2395-8359. Registro de marca en
trámite. Responsable de la última actualización de este número, Unidad Informática, M.A. Reyna Guadalupe Castro
Medellín, Ave. Universidad S/N. Cd. Universitaria. San Nicolás de los Garza, Nuevo León, México, C.P. 66451.
Fecha de última modificación 08 de junio de 2017.
Las opiniones expresadas por los autores no necesariamente reflejan la postura de la editora o de la publicación.
Prohibida su reproducción parcial o total de los contenidos e imágenes de la
publicación sin previa autorización de la Editora.
Todos los derechos reservados © Copyright 2017 [email protected]
Índice
04 EDITORIAL
06 INVESTIGACIÓN / LCC
Cazando mitos en las
telecomunicaciones
14 INVESTIGACIÓN / LCC
Evolución de los Data Centers hacia el
Cloud Computing
19 INVESTIGACIÓN / LSTI
Ingeniería social en el sistema político
mexicano: Elecciones 2006 y 2012
23 INVESTIGACIÓN / ASTROFÍSICA
Desviación sistemática de Regiones HII
en los brazos espirales de la galaxia
NGC 3631
Editorial
Estimado(a) lector(a),
Las diversas labores de investigación que se generan en nuestra máxima casa de
estudios, la Universidad Autónoma de Nuevo León (UANL), ha incrementado en
los últimos años. Como muestra de ello, los más de 100 programas de posgrados
pertenecientes al Programa Nacional de Posgrados de Calidad (PNPC) del
CONACyT; aunado a los más de 700 investigadores con distinciones, por parte,
del Sistema Nacional de Investigadores (SNI) del CONACyT, lo confirma. Ante este
crecimiento, la UANL con su firme compromiso social con educación de calidad,
manifiesta su quehacer científico en plataformas como la Revista CELERINET, la
cual, edición tras edición, se confirma como la revista idónea para semejante labor.
En esta ocasión, la Revista CELERINET en su volumen número nueve, contiene
cuatro interesantes trabajos de tres áreas principales: Ciencias Computacionales,
Seguridad en Tecnologías de la Información y Astrofísica. El área de Ciencias
Computacionales se nutre con 2 trabajos, el primero de ellos lleva por
título “Cazando mitos en las telecomunicaciones”, cuyos autores son: Ana
Gabriela Parra Antúnez, Jorge Oziel Rivas Puente, Jonathan Daniel
Bárcenas Arreola y Francisco Hernández Cabrera. Este artículo nos
explica, con razones científicas, diversos mitos que rodean las
telecomunicaciones, los cuales se generan en el amplio mundo de
Internet, contestando a preguntas como: ¿las grandes antenas de telefonía
móvil representan un riesgo para la salud?
El segundo artículo del área de Ciencias Computacionales lleva por título
“Evolución de los Data Centers hacia el Cloud Computing”. Este trabajo
aborda el tema de la adaptación que están realizando los Data Centers a
los nuevos ámbitos como lo son el Cloud Computing y el Big Data.
Esta adaptación incluye medidas de seguridad, nivel de servicio, etc. Los
autores de este trabajo son: María de Jesús Antonia Ochoa Oliva y Jorge
David Lara Muñoz.
Por otra parte, dentro del área de Seguridad en Tecnologías de la
Información, se encuentra el trabajo titulado “Ingeniería social en el sistema
político mexicano: Elecciones 2006 y 2012”. Los autores de esta publicación
son: María de Jesús Antonia Ochoa Oliva, José Daniel Borrego, Arturo de
Jesús Rodríguez Arteaga, Jorge David Lara Muñoz, Omar Reyes Silva y
Nayeli Islas Juárez. Dicho trabajo realiza un análisis de las operaciones de
ingeniería social utilizando las vulnerabilidades informáticas y legales del
sistema político, persuadiendo así, a un comportamiento definido, al electorado en
las elecciones pasadas de 2006 y 2012.
Como cuarto trabajo, se presenta la publicación que lleva por título:
“Desviación sistemática de Regiones HII en los brazos espirales de la
galaxia NGC 3631”. Este artículo, del área de Astrofísica, describe un
análisis para conocer la desviación sistemática radial de las regiones HII
con respecto a las curvas medias de los componentes que integran la
estructura morfológica de esta galaxia. La publicación mencionada fue
realizada por Dr. Ángel E. Sánchez Colin.
Como podrán apreciar, el noveno volumen de la Revista CELERINET, en
su formato digital, presenta 4 interesantes trabajos realizados por
especialistas en cada uno de los temas tratados. De este modo, los exhorto
a que destinen una parte de su valioso tiempo a vivir una experiencia sin
igual con la lectura de este noveno volumen, y así, enriquecer sus
conocimiento generales potencializando su gusto por la ciencia en conjunto
con los avances tecnológicos.
No me queda más que agradecer a todos aquellos que hacen posible esta
publicación: a los autores de los artículos, a los miembros del consejo editorial,
a los académicos que colaboraron con el arbitraje de los artículos, a los
colaboradores, a M.A Alma Patricia Calderón Martínez como editora responsable
y a nuestras autoridades por fomentar la divulgación del conocimiento el cual se
genera en la UANL. De igual manera, agradezco la oportunidad brindada para la
redacción de esta editorial.
¡Enhorabuena y muchas gracias!
Dr. Arturo Alberto Castillo Guzmán
Profesor-Investigador UANL-FCFM-CICFIM
Coordinador del Posgrado en Ingeniería Física Industrial
06 INVESTIGACIÓN /CIENCIAS COMPUTACIONALES CELERINET ENERO - JUNIO 2017
CAZANDO MITOS EN LAS
TELECOMUNICACIONES
Ana Gabriela Parra Antúnez
Jorge Oziel Rivas Puente
Jonathan Daniel Bárcenas Arreola
Francisco Hernández Cabrera
UANL – FCFM
Universidad Autónoma de Nuevo León
Facultad de Ciencias Físico Matemáticas
San Nicolás de los Garza, Nuevo León, México
Resumen: En la actualidad existe gran cantidad de información en Internet que en ocasiones la
ciencia no se da abasto para aseverar alguna declaración y se puede establecer un mito. Estos mitos
implican quehaceres diarios y abarcan una enorme diversidad de áreas científicas y tecnológicas.
En este articulo nos enfocamos a establecer algunas bases científicas que permitan esclarecer las
respuestas a preguntas comunes en el ámbito de las telecomunicaciones. Por ejemplo; ¿los hornos de
microondas influyen en la transmisión de una red inalámbrica cercana?, ¿las tormentas solares pueden
acabar con las telecomunicaciones y de paso con la humanidad?, ¿las grandes antenas de telefonía
móvil representan un riesgo para la salud?, ¿Los trenzados que se hacen en algunos cables utilizados
en redes reducen el ruido de interferencia?. Las respuestas a estas preguntas comunes se abordan con
evidencias que dan sustento científico para que haya una población cada vez más y mejor informada.
Palabras claves: Radiación de microondas, tormentas solares, telefonía móvil, cables cruzados
CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES 07
Introducción Algunas personas aseguran que cuando se enciende un
horno de microondas la señal inalámbrica se pierde,
El estudio de las señales electromagnéticas se remonta entonces por deducción se establece que los hornos
a finales del siglo XVIII, sin embargo las aplicaciones de microondas influyen en la transmisión de una red
en telecomunicaciones han tenido un auge excesivo inalámbrica. Para la mayoría de las personas esta
en los últimos 50 años. Actualmente vivimos afirmación es una hipótesis sin comprobar, por no tener
literalmente inmersos en señales electromagnéticas evidencia científica. Resulta muy importante comprobar o
producidas por el hombre. Según el INEGI-2015, descartar esta hipótesis, ya que puede ser motivo de interés
solo en México existen 80 millones de usuarios de tecnológico para las telecomunicaciones y también un área
telefonía móvil [1], casi un 70% de la población. En las de oportunidad para el diseño de hornos de microondas.
ciudades se tiene una cobertura del 80% para internet
inalámbrico, con redundancia espacial de emisoras. Marco teórico
Es decir, dos o más dispositivos que emiten/reciben Un horno de microondas utiliza un generador de ondas
señales de red inalámbrica cubren el mismo espacio. electromagnéticas (microondas) de gran potencia
Otro tipo de señales electromagnéticas artificiales que (hasta 1600 Watts) a una frecuencia de 2450MHz. A
nos invaden son las ondas de AM y FM de cientos de esta frecuencia, las moléculas con momento dipolar
emisoras, también ondas satelitales, señales de antenas óptimo rotan rápidamente (2.45 mil millones de
de telefonía, hornos de microondas, radares, emisiones veces por segundo); como el agua, carbohidratos y
de los cables de alta tensión, hornos de inducción ciertas grasas. Durante este movimiento las moléculas
industriales, radiofrecuencias emitidas por equipos producen colisiones con las que hay a su alrededor y
médicos de resonancia y los rayos X. Por otro lado transfieren energía, así es como se produce un aumento
recibimos ondas electromagnéticas naturales, como de temperatura [2-4]. La longitud de onda de las
las emisiones de la ionosfera, rayos gamma, emisiones microondas producidas por los hornos es de 12.5cm,
solares (ultravioleta, visible, infrarrojo) y rayos X por esto los agujeros de la malla metálica en sus puertas
naturales. Entonces resulta obvio cuestionarnos si las tienen un tamaño mucho menor. Se diseñaron para que
radiaciones electromagnéticas influyen en nosotros y el las ondas sean reflejadas y así evitar fugas de radiación,
entorno. El problema surge cuando aparecen respuestas sin embargo este sistema no es una jaula de Faraday
sin fundamento científico y entonces el mito se puede perfecta. Las ondas electromagnéticas radiadas cumplen
hacer viral. En este artículo investigamos 4 mitos en el principio de Huygens, es decir, al interaccionar con
las telecomunicaciones; primero daremos antecedentes, la malla metálica encuentran aberturas y forman fuentes
luego las bases teóricas y después abordaremos puntuales o regeneración de las ondas, produciéndose
científicamente el misterio para dar una conclusión. fugas como se muestra en la Fig. 1.
Mito 1: ¿Los hornos de microondas influyen en
la transmisión de redes inalámbricas?
Antecedentes
Sabemos que en una casa pueden existir
ondas electromagnéticas “necesarias”
provenientes de dispositivos como; celulares,
computadoras, modems o routers y Smart TVs.
Pero en ocasiones se puede notar que la conexión a
Internet en estos dispositivos se pierde o disminuye Fig. 1. Se muestra la forma en que la radiación de
microondas se fuga generando pequeñas fuentes
significativamente. El fenómeno también puede darse en puntuales en la malla de la puerta del horno.
lugares públicos o áreas de comida, donde las personas
suelen conectarse a internet inalámbrico y al mismo
tiempo puede estar encendido un horno de microondas.
08 CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES
Las ondas no salen con la misma energía, pues ya Fig. 3. Intensidad de Señal de una red inalámbrica
han perdido intensidad al chocar con la malla y la con un horno de microondas encendido
frecuencia emitida al medio libre puede tener un ancho
de banda amplio centrado en 2.45GHz. Según estudios Conclusión 1
de la OMS estas señales residuales no son nocivas
para la salud si la potencia de fuga es menor a 5mW/ Con estas mediciones y lo reportado en el marco teórico
cm2 [5]. Por otra parte, en 1985 la FCC (Federal se comprobó que las redes inalámbricas que trabajan a
Communications Comission) estandarizó los anchos frecuencia de 2.4Ghz, se ven afectadas a causa del uso
de banda para las redes inalámbricas. Las bandas IMS simultáneo de los hornos de microondas. Es verdad
(Industrial, Scientific and Medical) para uso comercial que la intensidad de la señal baja en unas zonas y en
sin licencia entre 902 - 928 MHz, 2400 – 2483 GHz otras se pierde como consecuencia de la interferencia
y 5725 – 5850 respectivamente [6]. Esto quiere decir producida por el microondas, también la potencia de
que la redes inalámbricas que se utilizan y los hornos operación del horno de microondas y su ubicación es
de microondas emiten en el mismo ancho de banda. crucial. Además, se comprobó con un detector de fugas
Además, si trabajan simultáneamente estos dispositivos de microondas que escapa radiación por la ventana de
puede darse una interferencia debido a una suposición, la puerta. La fuga puede variar dependiendo del modelo
pudiendo afectarse la comunicación inalámbrica. y marca del horno, dado que el diseño de la rejilla
o malla es otro factor para la emisión. La potencia
Demostración de fuga de microondas puede ser hasta de 5mW/cm2
a una distancia de 35cm de la puerta, sin considerar
Para comprobar la hipótesis planteada (mito), armónicos u otras frecuencias fuera de 2.4GHz.
se midió la ganancia en (dBm) de una señal
inalámbrica de internet utilizando el software Ekahau
HeatMapper® bajo dos condiciones. Primero se realizó
el mapeo en un área (5m x 3.5m) con señal inalámbrica
sin que el horno de microondas estuviera funcionando
y después se hizo lo mismo con el horno encendido.
El resultado del primer mapeo con el horno de
microondas apagado muestra un área con intensidad
de señal entre -48.0dBm y -40.0dBm (Fig. 2.).
Mito 2: ¿Las tormentas solares pueden acabar
con las telecomunicaciones?
Antecedentes
Fig. 2. Intensidad de Señal de una red inalámbrica En los últimos años se ha especulado sobre un
con un horno de microondas apagado posible escenario caótico para las telecomunicaciones
ocasionado por el efecto de una tormenta Solar de
Al tener el horno de microondas de 700W encendido dimensiones colosales sobre la Tierra. Algunos agoreros
en el centro de mapeo, se muestra una distorsión hablan del fin de la humanidad como la conocemos;
y baja intensidad de la señal en algunas zonas, daríamos un paso atrás en el avance tecnológico y se
en la dirección de la puerta (Fig. 3.), se puede perderían muchos años de organización social, cultural,
observar ver que también disminuye la cobertura. científica, económica y productiva. Pero, ¿es cierto
que una tormenta Solar puede acabar con todo esto?
CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES 09
Marco teórico Recientemente, el 1 de octubre de 2016 el entonces
presidente de los Estados Unidos Barack Obama
Es un hecho que el Sol presenta “ciclos” de emitió una orden urgente para solicitar a dependencias
actividad máxima cada 11 años, esto incluye las gubernamentales y militares propuestas de
grandes llamaradas con eyección de masa coronal contingencia para eventos anómalos de actividad Solar.
donde hay emisión de partículas cargadas que
impactan en la magnetósfera e ionosfera terrestre, Demostración
provocando perturbaciones electromagnéticas [7].
Por ejemplo, se tienen registros de Richard Carrington La inquietud de una explosión Solar sobresaliente se
que el 1 de septiembre de 1859 ocurrió algo sorprendente justifica porque los últimos ciclos de actividad han sido
en el Sol. Carrington se percató de unas enormes anómalos, es decir, no se ha registrado la intensidad
manchas en la superficie del Sol que desaparecieron predicha en los tiempos esperados. Pareciera que el
al minuto de haberlas observado. Al día siguiente Sol ha entrado en una etapa impredecible y los picos
se pudieron observar auroras a latitudes incluso del pueden aparecer aún sin que nos encontremos en etapas
Salvador y Cuba por todo el mundo, se trataba de de actividad máxima. Por lo que el riesgo al sistema
una perturbación gigantesca en la magnetósfera. de telecomunicaciones y de distribución eléctrica es
Pero no fue solo el espectáculo, se presentaron daños inminente, entonces, resulta obvio establecer un plan
graves en el servicio del telégrafo por todo el planeta, de contingencia urgente. Es posible superar un evento
hubo zonas donde se formaron arcos eléctricos que así con alertas tempranas, se puedan sacar los satélites
quemaron papeles de telegrafía. La corriente inducida de zonas de peligro, moviéndolos al lado opuesto de
fue tal que aún sin energía eléctrica en las líneas de la tormenta Solar y los sistemas eléctricos pueden
telégrafos, se podían enviar y recibir los mensajes. [8] blindarse ante inducción electromagnética. El Centro de
Predicción del Clima Espacial de la de Administración
Fig. 4. Manchas típicas de la actividad Solar, en la Oceánica y Atmosférica Nacional (NOAA) comenzó
imagen se representa el tamaño relativo a la Tierra a utilizar el 1 de octubre de 2016 un nuevo modelo
(circulo oscuro). https://soho.nascom.nasa.gov/gallery/ de pronóstico geoespacial que puede dar alertas a 45
images/sunspot00.html. minutos antes del arribo de una tormenta Solar [10].
Aunquenosepuedeestablecerconexactitudellímitedeun
En agosto de 1972 se dio otra gran explosión Solar que máximo Solar ni los alcances de los daños, se ha estimado
afectó la comunicación de telefonía en USA. Una más que el peor escenario sería un evento como el de 1859.
en marzo de 1989 provocó la interrupción del suministro Los estragos en la red eléctrica y de telecomunicaciones
de la planta hidroeléctrica en Quebec, Canadá. La podrían durar meses en repararse. Estar prevenido para
inducción electromagnética dañó los transformadores un evento de tales magnitudes es importante, así, varios
y se calcularon pérdidas de millones de dólares [8,9]. gobiernos del mundo han puesto en alerta a la población
El último pico de actividad Solar fue en diciembre para considerar provisiones para dos o tres meses
de 2005, provocó la interrupción del servicio del ya sea por ataques terroristas o catástrofes naturales,
Sistema de Posicionamiento Global (GPS) y se perdió pasados los cuales se podría restablecer la normalidad.
la comunicación con los satélites por 10 minutos.
Conclusión 2
Es cierto que existe el peligro de una enorme tormenta
Solar que implicaría daños principalmente en los sistemas
de comunicación. También hay mucha incertidumbre
porque el Sol no se ha comportado de acuerdo con los
modelos de actividad en los últimos 20 años. Por otro
lado nuestros sistemas de prevención y alertas tampoco
han sido sistemáticos. Una solución de alerta muy
temprana y oportuna quizás esté en los neutrinos, estas
partículas se producen en reacciones nucleares de las
capas internas del Sol y dado que casi no interaccionan
con la materia, rápidamente salen del Sol y viajan hacia
10 CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES
nosotros a velocidad próxima a la Luz. Los neutrinos Fig. 5. Espectro electromagnético (Crates,
nos pueden traer información de actividad Solar muchos Inductiveload, & NASA, 2008).
meses incluso años antes que aparezca. Otra opción
sería reforzar la ionosfera y la alta atmosfera para evitar La radiación electromagnética también se clasifica
daños por inducción en la superficie. Actualmente hay de acuerdo con su efecto en los seres vivos, como
estrategias a nivel global con diversas instituciones radiación ionizante y no ionizante. La radiación
gubernamentales y privadas dedicadas exclusivamente a ionizante (luz ultravioleta, rayos X, rayos gamma)
minimizar los daños que pudieran causar estos eventos es la más dañina cuanto más energética es, ya que
[7]. Finalmente ponemos en la balanza de la ciencia un rompe enlaces de las biomoléculas (carbohidratos,
evento Carrington y equilibramos el mito con datos que proteínas, ADN, ARN, lípidos) causando mutaciones
nos den certeza, quizá parte de la población sufriría unos y cambios en las funciones de las células. Por su
meses pero nada para poner en riesgo a la humanidad. parte, la energía de la radiación no ionizante no rompe
enlaces, pero su energía puede provocar inducción de
Mito 3: ¿Vivir cerca de antenas de telefonía corriente en los iones presentes en los sistemas vivos,
móvil es nocivo para la salud? así como la rotación y vibración de biomoléculas que
también pueden causar desordenes metabólicos [12].
Antecedentes Las ondas de radio (radiofrecuencia) emitidas por las
antenas de telefonía móvil GSM (Global System of
La telefonía celular se ha convertido en una herramienta Mobile Communications) tienen un rango de frecuencias
necesaria en nuestra sociedad. Su versatilidad nos entre 850 MHz y 1800 MHz para 3G, mientras que para
ha hecho dependientes y clientes cautivos en todo 4G las frecuencias son hasta de 2100 MHz. Por lo cual
momento; para comunicación personal o grupal, servicio podemos decir que emiten radiación no ionizante, pero,
de localización, movilidad en ciudades, acceso a redes si bien los teléfonos celulares emiten con poca potencia
o medios de comunicación. En México más del 95% de (menor a 0.25 W), sus antenas poseen entre 10 y 50 Watts.
las personas económicamente activas tienen un teléfono Para lograr una amplia cobertura en la comunicación las
móvil, esto requiere de una conexión confiable e implica compañías compiten por un mercado cautivo y colocan
una amplia cobertura de señal de radiofrecuencia y crea estratégicamente sus antenas en lugares donde la celda
la necesidad de miles de antenas. De hecho, la creencia (célula) complete un área de comunicación (Fig.6).
popular asociada a la colocación de las antenas de
telefonía móvil, es que su radiación electromagnética
es nociva para la salud y causa gran cantidad de
malestares, tales como dolores de cabeza, cansancio,
estrés, irritabilidad, inestabilidad emocional, debilidad
e incluso cáncer. También hay otro tema controversial
en la regulación de instalación de estas antenas, las
compañías de telecomunicaciones pagan grandes sumas
por la instalación y renta en particulares. Sin previo aviso,
literalmente de la noche a la mañana aparecen antenas en
zonas habitacionales y de este modo se refuerza la idea
de que algo anda mal con la regulación de las antenas.
Marco teórico
La energía de la radiación electromagnética se propaga
en forma de ondas y es proporcional a su frecuencia. Así,
con altas frecuencias como en los rayos X o rayos gamma
la energía es considerable y a baja frecuencia como las
ondas de radio, entonces la energía será baja (Fig. 5).
Fig. 6. La cobertura de comunicación para telefonía
móvil se basa en antenas que abarcan una área llamada
celda o célula (de ahí el nombre de telefonía celular).
CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES 11
Estas zonas cubren extensas áreas urbanas (físicos, médicos clínicos, genetistas, ingenieros en
y por lo tanto a veces es necesario ubicar telecomunicaciones, etc.) para dar un veredicto.
antenas en azoteas de casas particulares.
Se han hecho múltiples estudios para determinar si A corto plazo la mayor parte de la población expuesta
la telefonía celular tiene algún efecto a largo plazo en a radiofrecuencias parece tolerar los efectos biológicos.
los seres vivos. Ninguno de estos estudios ha podido Pero no olvidemos que nos encontramos en un sistema
comprobar que la radiación sea dañina para el humano de adaptación, a largo plazo la genética y epigenética del
más allá de calentar el tejido [13]. En estos estudios humano nos pasará la factura de los cambios que fueron
se mide la tasa de absorción específica SAR (specific acumulándose como resultado de la exposición frecuente
absortion rate) que es la potencia absorbida por la masa a la radiación en un rango de frecuencias. El estimado
de los tejidos y se mide en Watts por kilogramo. La FCC es que en menos de 50 generaciones a partir del año
considera que un teléfono es seguro si el SAR no rebasa 2000 veamos efectos, en el mejor de los casos quizá una
los 1.6 W/kg [14]. El límite de potencia se basa en el alerta de llamada entrante sea detectada por el estimulo
efecto térmico sobre líquidos y no por efecto biológico. nervioso, auditivo o visual de neuronas que aprendieron
Actualmente se llevan investigaciones serias en Estados a distinguir un aumento en la corriente inducida producto
Unidos, Europa, Asia, Australia y Japón. Según la de la conexión con la antena de comunicación. En el peor
OMS, los países de América que cuentan con agencias de los casos la disminución de melatonina, incremento de
para la investigación y regulación de los efectos que proteínas de choque térmico e iones fuera de equilibrio
tienen los campos electromagnéticos (EMF) a la salud por exposición de radiofrecuencias produzca más estrés,
son Estados Unidos, Canadá, Brasil, Ecuador, Cuba desórdenes mentales y enfermedades autoinmunes.
y Perú [15]. México debería contar con un organismo El tiempo que hemos estado expuestos ha sido
acreditado por la OMS para el estudio de efectos de EMF relativamente corto, por lo que tendremos que poner
en la salud. Este tema es muy amplio para ser tratado atención a las generaciones venideras pues la posibilidad
en pocos párrafos y podría cobrar mayor importancia a de que la radiación nos afecte es prácticamente un hecho.
nivel de medicina personalizada y su impacto a futuro.
Mito 4: ¿El trenzado de cables sirve para
Conclusión 3 eliminar la interferencia externa?
Aunque no existe respuesta concluyente al daño de las Antecedentes
emisiones electromagnéticas de teléfonos celulares y
sus antenas emisoras, es necesario remarcar que nuestro Si tomamos un cable de conexión a internet observaremos
metabolismo está regido por corrientes eléctricas del que tiene 8 cables de diferentes colores y se encuentran
orden de 10-5 amperes, flujo de iones en membranas entrelazados formando 4 pares trenzados (Fig. 7).
y una dinámica molecular con energías de interacción
miles de veces más pequeñas que las emitidas. Por otro Fig.7. Cuatro pares trenzado sin blindaje (UTP),
lado la radiación de radiofrecuencias puede producir los colores identifican el tipo de par y el orden de
efectos térmicos, que son el resultado de rotaciones y conectividad.
vibraciones moleculares, esto puede afectar células,
liberando proteínas de choque térmico que desencadenan ¿Cuál es la función del trenzado en cada par de
respuestas inmunes e inducción de corriente en iones cables?, muchas personas sin dar detalles establecen
como el calcio (muy importante para el metabolismo) como cierto que el trenzado es necesario para
entre otros efectos. Sin embargo la homeostasis permite eliminar la interferencia externa. Pero, ¿a qué
que los mecanismos celulares están constantemente interferencia refieren?, ¿cómo se fundamenta esta
equilibrando las funciones ante un ambiente agresivo de información?, ¿en verdad es necesario el trenzado?
energía electromagnética externa. La sensibilidad puede
manifestarse en un desequilibrio en etapas de la vida muy
tempranas (desarrollo embrionario) o muy tardías. Más
aún, se han detectado personas con un fenotipo asociado a
hipersensibilidad electromagnética emitida por
antenas y dispositivos de comunicación. Es necesario
hacer estudios más sistemáticos, con preguntas
bien planteadas y perspectiva multidisciplinar
12 CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES
Marco teórico Fig. 8. En la grafica se muestran las señales
de los cables de un par trenzado con el
En los inicios de la comunicación telefónica los cables mismo ruido (línea roja) y su diferencia de
tenían trayectorias paralelas y muy cercanas al cableado potencial muestra la cancelación de ruido.
de corriente alterna. Pero esto producía atenuación en la
señal y se perdía rápidamente la comunicación a cortas Si los cables no se trenzan la distancia de separación
distancias. Entonces se decidió girar sobre sí mismos entre ellos puede ocasionar que el ruido eléctrico externo
los dos cables, formado el par trenzado por primera vez tenga amplitudes diferentes, el cable más cercano a la
(cable UTP = par trenzado sin blindaje). Fue a parir de fuente de ruido tendrá mayor contribución que el otro
1900 en Estados Unidos que se utilizaron los cables cable y al restar sus voltajes seguirá apareciendo ruido.
trenzados para minimizar el ruido y aún son útiles para Entonces la condición necesaria es que los cables vayan
transmitir datos a baja frecuencia. Posteriormente se paralelos y lo más próximos posible, para que el ruido
recubrió con metal al conjunto de pares trenzados de una pueda cancelarse. De hecho no es necesario que sea un
línea FTP (par trenzado blindado globalmente), para dar trenzado, los cables del par pueden ir paralelos sin dar
un aislamiento de ruido (jaula de Faraday) y sostenían la vueltas entre sí. También es importante remarcar que al
señal a mayor distancia sin atenuarse. Existe otro cableado hacer giros los cables provocan que haya una inductancia
llamado STP (Par trenzado doblemente blindado) con distribuida. De acuerdo con las formulas de capacitancia
blindaje para cada par trenzado y otro blindaje general e inductancia, la separación mínima entre el par trenzado
tipo FTP, proporcionando mayor atenuación de ruido. implica que la capacitancia distribuida se maximiza,
Estos tres tipos de cables que se trenzan (UTP, FTP, entonces las frecuencias altas serán difíciles de transmitir,
STP) se conocen como cable estructurado y obedecen de igual forma ocurre con la inductancia distribuida.
la Ley de Shannon, en donde la transmisión en bits Entonces se debe considerar el tipo de par trenzado que
por segundo (bps) es proporcional al ancho de banda se requiere en cada aplicación de transmisión de señal,
y a la relación señal/ruido. Así, podemos incrementar en ocasiones se utilizan cables recubiertos con plásticos
la velocidad de transmisión aumentando el ancho de más gruesos para minimizar a los elementos distribuidos.
banda y/o disminuyendo el ruido en la señal. Entre las
principales causas del ruido son las fuentes externas Conclusión 4
de corriente alterna o bien los inductores (motores
de todo tipo, transformadores, cables con AC, rayos El ruido de interferencia producido por los inductores
de tormentas eléctricas y torres de alta tensión). De es inherente a la comunicación por cables, sin embargo
acuerdo con la ley de inducción de Faraday, estos se puede reducir significativamente si los cables
dispositivos provocan una corriente parasita en reciben la misma inducción de ruido por las fuentes
los cables que se suma con señal y la distorsionan externas. Para esto es necesario que el par de cables
(ver Fig.8),laintensidaddeestascorrientesesproporcional que transporta la información tenga trayectorias
a la variación del flujo magnético en las proximidades del paralelas y siempre muy cerca el uno del otro.
cable. Otro efecto de distorsión es la diafonía aunque este
fenómeno es menos frecuente en las señales de Internet. Así, la resta de voltaje entre ellos puede disminuir
mucho la contribución de ruido a la señal. El
Demostración trenzado de cables es una opción para cumplir el
En realidad el ruido de interferencia generado por la
inducción electromagnética no se puede evitar en cables
UTP, pero si puede cancelarse casi completamente.
Cuando los pares de cables se trenzan, su cercanía
permite que el ruido en ambos sea prácticamente el
mismo (ver señales con ruido en un par trenzado;
figura 8). Entonces, si se toma la diferencia de voltaje,
el ruido se restará y la señal permanece sin alteración.
CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES 13
requisito anterior pero por otra parte esto acarrea el
problema de aumento en capacitancia e inductancia
distribuida, como consecuencia solo las bajas
frecuencias pueden transmitirse y las frecuencias
altas son filtradas. Al final siempre es útil saber las
condiciones de comunicación para considerar el mejor
medio para lograr un buena transmisión-recepción.
Referencias
[1] http://www.inegi.org.mx/saladeprensa/aproposito/2016/
internet2016_0.pdf
[2] http://www.emu.dk/sites/default/files/physics_of_microwave_
oven.pdf
[3] http://www.ijesit.com/Volume%202/Issue%205/
IJESIT201305_57.pdf
[4] http://pubs.rsc.org/en/content/chapterhtml/2015/
bk9781782623175-00001?isbn=978-1-78262-317-5
[5] Organización Mundial de la Salud. Campos electromagnéticos &
salud pública: Hornos de Microondas: http://www.who.int/peh-emf/
publications/facts/info_microwaves/es/
[6] Federal Communications Commission (2015). RF Safety FAQ,
https://www.fcc.gov/engineering-technology/electromagnetic-
compatibility-division/radio-frequency-safety/faq/rf-safety
Solar storm risk to the north american electric grid.
[7] https://www.lloyds.com/~/media/lloyds/reports/emerging%20
risk%20reports/solar%20storm%20risk%20to%20the%20north%20
american%20electric%20grid.pdf
[8] National Aeronautics and Space Administration (NASA) (2008)
Una súper erupción solar, Recuperado de https://ciencia.nasa.gov/
science-at-nasa/2008/06may_carringtonflare
[9] Herraiz Sarachaga, M., Rodríguez Caderot, G., Rodriguez Bilbao,
I., et.al. (2014) Estudio de las tormentas solares geomagnéticas
y evaluación de su impacto en el ámbito de las tecnologías e
infraestructura en España y Portugal. Seguridad y medio ambient.
(133), 18-22. Recuperado de http://www.divulgameteo.es/fotos/
meteoroteca/Tormentas-geomagn%C3%A9ticas.pdf
[10] http://www.nature.com/news/us-sharpens-surveillance-of-
crippling-solar-storms-1.20630
[11] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4440565/
pdf/40779_2015_Article_33.pdf
[12] World Health Organization (2005). Base station and wireless
networks: exposures and health consequences, Recuperado de http://
apps.who.int/iris/bitstream/10665/43698/1/9789241595612_eng.pdf
[13] Federal Communications Commission (2015). Specific
Absorption Rate (SAR) for Cellular Telephones, Recuperado de
https://www.fcc.gov/general/specific-absorption-rate-sar-cellular-
telephones
[14] http://www.who.int/peh-emf/project/mapnatreps/amro/en/
14 CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES
EVOLUCIÓN DE LOS DATA CENTERS
HACIA EL CLOUD COMPUTING
María de Jesús Antonia Ochoa Oliva
Jorge David Lara Muñoz
UANL – FCFM
Universidad Autónoma de Nuevo León
Facultad de Ciencias Físico Matemáticas
San Nicolás de los Garza, Nuevo León, México
Resumen: El mundo del procesamiento de datos ha estado en constante cambio y
con ello los lugares físicos donde se almacenan los datos y su infraestructura física.
Con áreas nuevas como lo es el Big Data y el Cloud Computing, los Data Center deben de adaptarse
enlosrequerimientosqueestosnuevosámbitosrequieren,tantoencapacidadesenmedidasdeseguridad
lógica como en física, a fin de mantener el nivel de servicio con el que se han mantenido hasta ahora.
En el presente trabajo se verá la actualidad de los Data Centers con el que se
ha venido trabajando hasta ahora, así como los nuevos cambios, desafíos a los
que se enfrentan ante el nuevo paradigma conocido como Cloud Computing.
Palabras claves: Data Center, Big Data, Cloud Computing, cómputo en la nube, seguridad
física
INVESTIGACIÓN / CIENCIAS COMPUTACIONALES CELERINET ENERO - JUNIO 2017 15
Introducción ya sea mediante fuentes de respaldo de energía,
almacenamientodeinformación,cableadodered,hosts,etc
Al momento de diseñar un Centro de Datos es importante
considerar aspectos de acuerdo a las normativas, El uso de la energía en un Data Center
certificaciones y legislaciones en las cuales son importantes
cumplir, ya que es importante contar con la confiabilidad Actualmente muchas organizaciones optan por
en la función de los mismos, pues estas infraestructuras almacenar sus páginas web, bases de datos y demás
deben de tener la ingeniería de realizar su función en forma información sensible en Centros de Datos debido a
correcta y así proporcionar una buena disponibilidad. que se busca lugares en donde se pueda omitir el pago
de alimentación eléctrica, y se acceder a una buena
Se define como un Centro de Datos (Data Centers) conexión de ancho de banda. Sin embargo, “el uso de
es “un sistema informático que se usa para alojar energía en un Data Center, el calor emanado por el
sistemas de computadoras y componentes asociados, hardware de un equipo se regresa hacia los dispositivos
tales como sistemas de telecomunicaciones y de de aire acondicionado y este es enviado hacia el
almacenamiento; generalmente, incluye grandes unidades exterior del Data Center. Esto se hace evitando que
de almacenamiento, conexiones, comunicaciones, controles ambas corrientes de aire se lleguen a encontrar a fin de
medioambientales y dispositivos de seguridad” [1]. evitar fallas en el desempeño del equipo. La disipación
de calor de un rack de servidores que se encuentra
De acuerdo a lo anterior, los Data Center se clasifican en cuatro completamente cargado es de alrededor 10KW.” [3].
categorías en función a la redundancia de los componentes
que lo conforman y esto obedece al estándar ANSI/TIA-942. Algunas de las alternativas que se utilizan
para reducir costos de energía son:
Tier I. Centro de Datos Básico. Típicamente puede tener dos
caídas de sistema de 12 horas al año debido a actividades La virtualización, esto reduce el número de servidores
programadas de mantenimiento. El tiempo de inactividad es de físicos optimizando el uso de espacio ocupado en el
28.8 horas anuales con disponibilidad de 99.671%. Se usa para Data Center, se debe contar con una redundancia en los
pequeñas empresas en la cual contenga una infraestructura básica. equipos para evitar posibles afectaciones en caso de falla.
Tier II. Centro de Datos Redundante. Aquellos que cumplen Por otro lado, el enfriamiento más eficiente que se
con los requerimientos de Tier I. Aplicable en call centers y debe analizar de acuerdo a métricas específicas en
compañías que basan su negocio en Internet. Posee redundancia donde el análisis oportuno de impacto ayuda a la
N+1 en los componentes de respaldo de energía (United Parcel toma de decisiones para el buen manejo de la energía.
Service, UPS). Cuenta con una disponibilidad de 99.741%,
pueden permitir algunas operaciones de mantenimiento “on line” La promoción de “edificios verdes” impulsa el uso de
productos que ahorren energía, sin embargo aún que
Tier III. Centro de Datos Concurrentemente Mantenibles. fabricantes de este tipo de elementos, se reduce el rango
Posee la capacidad de realizar cualquier actividad planeada de productos que se pueden adquirir; pero este tipo de
sin interrupciones de energía, y continuar operando en estrategias de diseño hace que las arquitecturas físicas
caso de un evento crítico no planeado. Las fallas tolerables ahorren energía y aún más obtienen prestigio, el reto
1.6 horas anuales. Su disponibilidad es de 99.982%. principal es que los edificios construidos emigren a este
tipo de soluciones, donde se considera un cambio radical
Tier IV. Centro de Datos tolerante a fallas. Cuenta con una y éstos a su vez se generen costos económicos altos.
disponibilidadde99.995%dondelasactividadesdemantenimiento
se realizan sin afectar el servicio de cómputo en forma crítica, Otra de las estrategias que se usa es el Clustering,
poseen componentes de redundancia de 2(N+1) lo que significa donde se busca reducir la carga distribuyendo
disponer de 2 unidades de respaldo de energía con redundancia. la información que contenga un servidor hacia
otros servidores que posean menos carga.
Este tipo de centro de datos se encuentra en “empresas
internacionales, corporaciones que trabajan con
transacciones online, entidades financieras” [2].
Los aspectos importantes que se deben considerar para un
buen diseño de un Centro de Datos son: la redundancia
16 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES CELERINET ENERO - JUNIO 2017
En la actualidad, la movilidad de los usuarios ha causado se encuentra la información almacenada. De modo que
que la información no se encuentren en las computadoras no se pueden hacer cambios en configuración y estos
de escritorio como se daba con anterioridad, por lo que quedan fijos, a fin de no afectar a los demás clientes.
el cómputo en la nube ha provocado la dependencia
de los servicios, una centralización de los datos en Nubes privadas: En este caso la administración
los servidores a fin de tener una disponibilidad de corre completamente a cargo del cliente y se puede
datos en todo momento y más aún en tiempo real. realizar tantos cambios en configuraciones como
se necesite, ya que él será el único cliente en dicha
El uso del Cloud Computing, hace que los costos nube. La desventaja es que este tipo de servicio tiene
disminuyan en infraestructura; sin embargo, la un mayor costo por la serie de ventajas que ofrece.
privacidad de los datos confidenciales es un tema de
seguridad, ya que es importante entender que estos Nubes comunitarias: Cuando dos o más
son manejados por una entidad o proveedor externo. Si organizaciones se unen para implementar una nube
por alguna razón se desea cambiar algún parámetro en compartida con objetivos similares entre ambas.
alguna configuración de cierto servicio, este difícilmente
podrá ser modificado ya que la administración se Nubes híbridas: En las nubes híbridas el cliente podrá
encuentra desarrollada por el proveedor que presta elegir las aplicaciones de las que quiere tener un
este servicio y así mismo no procede ya que afecta control completo de administración, y delegar las que
los demás clientes que usan esta infraestructura. a su consideración crea que son secundarias”. [5].
Cómputo en la nube Las principales características de la definición del
cómputo en la nube, es por medio del autoservicio, ya
El servicio del cómputo en la nube o bien usando el que el usuario puede hacer uso de más capacidades de
término de Cloud Computing, se genera a través de procesamiento, almacenamiento de información sin
una gran demanda de número de equipos, donde los solicitarlo expresamente a su proveedor de servicio.
usuarios pueden acceder; dotando a sus sitios de la gran
capacidad de recursos tanto de procesamiento como de Para mayor facilidad, el acceso a la red debe ser
almacenamiento sin tener que tener instalados equipos confiable y disponible ya que los datos y las aplicaciones
de manera local. La diferencia que existe entre los se hace a través de diferentes dispositivos o redes de
Data Center convencionales y el cómputo en la nube telecomunicaciones,locualsebuscaestablecerunanchode
es que en lugar de repartir los datos y aplicaciones banda estable y con una sincronización de comunicación,
en unos cuantos servidores que pudiera tener un siendo un punto de gran importancia al momento
Data Center, en el cómputo en la nube es repartido de establecer este tipo de soluciones tecnológicas.
entre miles de ellos. Lo cual ayuda en el consumo de
energía y se optimiza el tiempo en las operaciones. Se puede determinar un conjunto de recursos compartidos
por los usuarios, mismos que son elegidos por él mismo,
Otra forma en que se puede definir el “Cloud Computing ya que en ellos se busca una rapidez y elasticidad, esto
es un modelo para hacer posible el acceso a red adecuado y quiere decir que el acceder a los recursos de manera
bajo demanda a un conjunto de recursos de computación inmediata e ilimitada. Para poder controlar el uso y
que se pueden configurar y de igual forma compartidos manipulación del nivel de recursos utilizado por el
como lo pueden ser redes, servidores, almacenamiento, sistema, daño así un servicio medible y supervisado.
aplicaciones y servicios. Donde el aprovisionamiento
y liberación se puede realizar con rapidez y con La tendencia del tráfico en Internet ha hecho que las
mínimo esfuerzo de gestión e interacción por parte del infraestructuras que conforman los servicios del cómputo
proveedor y para mayor comodidad del usuario” [4]. en la nube y estos a su vez están alojados en Data Centers
que oscilan entre 4 y 6 años de antigüedad se van a ir
Los tipos de nubes que se pueden encontrar son los quedando obsoletas, por ello, los Data Centers que en la
siguientes: actualidad ofrecen este tipo de servicios se encuentran en
constante actualizaciónyenlabúsquedadecertificaciones
“Nubes públicas: La administración corre a cargo del que los avalen como proveedores de calidad, con el fin
proveedor del servicio. No requieren mantenimiento, de que esta tipo de tecnología obedezca a los niveles de
ni inversión inicial para utilizarlas; sin embargo, el servicios que son manejados por el Cloud Computing.
ambiente es compartido con otros clientes, que ahí mismo
CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES 17
De acuerdo al servicio ofrecido por el Cloud Actualmente los medios de acceso no son únicamente
Computing se establece de la siguiente manera: mediante computadoras de casa o personales, los
dispositivos de tecnologías de la información se
“Infrastructure as a service o infraestructura como han hecho cada vez más pequeños y con movilidad,
servicio (IaaS). Se entrega tanto hardware como de tal manera que se han tenido que incorporar
software como servicio. El ejemplo más común de este tecnologías de comunicación como lo son las tarjetas
caso es el hosting, donde a nivel hardware se entrega un de red, WIFI, bluetooth, sensores, más especializadas
servidor, y a nivel software se entrega un servicio web. y ofrecer servicios de comunicación estable.
Platform as a Service o plataforma como servicio (PaaS). Uno de los inconvenientes que se enfrentan los servicios
Se entrega plataforma de desarrollo de aplicaciones como del Cloud Computing es el mantener la disponibilidad
un servicio para desarrolladores en la web. Se provee de de los datos y el servicio, ya que en algunos casos se
un ambiente de ejecución como servidor de aplicaciones. ha dado que la empresa de servicios transfiera los datos
hacia otros servidores localizados en Data Centers
Software as a Service o software como servicio (SaaS). de otros países, siendo este un tema importante de
Provee administración y hosting de aplicaciones. En este seguridad física, puesto que muchas veces los usuarios
caso, aunque el aplicativo es rápido y seguro, el usuario no se encuentran enterados de los movimientos que
ingresa a una aplicación a través del navegador sin establece el proveedor de este servicio, por lo que los
saber dónde está siendo alojada dicho aplicativo”. [6]. usuarios les queda la incertidumbre del almacenamiento
de su información, de tal manera que al momento de que
Retos y oportunidades en el Cloud Computing se requiera de una modificación o eliminación de datos,
es necesario rastrear la información en los diferentes
El gran auge que ha surgido en el uso del Cómputo en la servidores que alojaron dichos datos. De tal manera que
nube se está enfrentando a grandes retos de investigación el análisis de la migración de la información se debe
y análisis, uno de ellos es la privacidad de los datos, que hacer en relación a todos los factores que imperan en los
estos se encuentren almacenados en la nube, mismos que movimientos, mantenimientos, comunicación y
se encuentran en cualquier parte del mundo, y con ello legislaciones que se establecen los servidores de los Data
el posible enfrentamiento a diferentes legislaciones ya Centers del Cloud Computing, generando una correlación
que éstas van de acuerdo al país donde se encuentren. entre los elementos que conforman esta tecnología.
El tema de la seguridad de la información es otro La seguridad es uno de los principales puntos claves
de los retos que se enfrentan las organizaciones, en el ámbito del cómputo en la nube. Los riesgos se
por ello es importante realizar constantes incrementan considerablemente al tener la posibilidad
auditorías a los sistemas de información. Con que los datos se encuentren en más de un lugar, y
ello, se podrá proveer servicios que garanticen la con ello la posible fuga de información con mayor o
transparencia y confiabilidad hacia los usuarios. menor facilidad si las políticas de seguridad de acceso
y protección de datos no están debidamente revisadas
Es necesario que las empresas dedicadas al ramo en cada uno de los lugares físicos donde se encuentren.
deban cumplir con los niveles de servicio garantizado
acompañada de la disponibilidad e integridad de En el caso que se vaya a realizar transferencia de datos
los datos, por dicha razón se recomienda revisar de un Data Center a otro, se deberán tener en cuenta
cada punto ya antes mencionado, ya que los las siguientes recomendaciones o medidas de seguridad,
datos serán confiados a este tipo de tecnología. como lo son realizar un documento de seguridad
actualizado, funciones y obligaciones del personal,
Aunque actualmente las regulaciones y principios contar con un registro de incidencias, medidas de
continúan siendo aplicables en muchos casos, control de accesos, gestión de soportes y documentación,
muchas de ellas deberán de ser reformuladas, debido sistemas de identificación y autenticación, copias de
a que estas fueron creadas en los años setenta, respaldo y recuperación, cautelas en la transmisión
donde se tomó como base que el procesamiento de de datos a través de redes de telecomunicación.
información era caracterizado por ambientes donde los Dependiendo del nivel de seguridad que vaya a ser
ordenadores eran centrales. No obstante, el tráfico de elegido (bajo, medio o alto), las medidas deberán de
información ha crecido en forma ubicua y globalizada. ser más o menos exigentes según sea el caso. [4].
18 INVESTIGACIÓN / CIENCIAS COMPUTACIONALES CELERINET ENERO - JUNIO 2017
Conclusiones Referencias
La transición de los Data Centers hacia el cómputo en la [1]. Aguilar, L. J. (2012). La Computación en Nube (Cloud
nube ha comenzado, de tal manera que la optimización Computing): El nuevo paradigma tecnológico para empresas y
de las grandes empresas ha sido en el establecimiento organizaciones en la Sociedad del Conocimiento. Revista Icade.
de los servicios se adapten a los cambios tecnológicos Revista de las Facultades de Derecho y Ciencias Económicas y
que se requieren para funcionalidad de los mismos, Empresariales, (76), 95-111.
pero sobre todo la continuidad en la operación del
negocio, siendo éste los grandes retos que tienen [2]. Cilleros Serrano, D. (2012). Seguridad en data centers:
las empresas que ofrecen este tipo de servicios. infraestructura y prevención.
Existen muchas ventajas en esta innovación de la [3]. García, A. B. (2012). Optimización Energética en Data Centers:
virtualización de la información, sin embargo es Método y Aplicación-Edición Única. ISO 690.
importante considerar la velocidad de acceso a Internet
pues la demanda del tráfico de información depende [4]. Miralles, R. (2010). Cloud Computing y protección de datos. IDP.
de este gran factor, puesto el recurso multiusuario Revista de Internet, Derecho y Política, (11), 14-23.
hace que entidades gubernamentales, organizaciones
utilicen estos servicios para necesidades de manejo [5]. Aller, C. F. (2012). Algunos retos de la protección de datos en la
de datos, cómputo, almacenamiento de datos. Lo sociedad del conocimiento. Especial detenimiento en la computación
anterior, satisface las necesidades de implementación, en nube (Cloud Computing). Revista de derecho UNED, (10), 125.
logrando una agilidad y administración de gastos con
mayor eficacia, puesto la simplificación del manejo [6]. Barrios, L. F. E. (2009). Cloud Computing como una red de
de las aplicaciones hace que el cómputo en la nube servicios. Instituto Tecnológico de Costa Rica, 23.
proporcione recursos de tecnología vanguardista en
tiempo real sin uso de tanta infraestructura local. Datos de los autores
El establecimiento del servicio del cómputo en la María de Jesús Antonia Ochoa Oliva
nube es de gran beneficio para las organizaciones, ya Es Ingeniera en Electrónica y Comunicaciones,
que otorga mayor rapidez en la implementación, el cuenta con la Maestría en Teleinformática por la
acceso a las aplicaciones en cualquier lugar, escalables UANL. Catedrático de la Licenciatura en Seguridad
sobre la satisfacción de la demanda y con ello se en Tecnologías de Información y de la Maestría en
lleva a tener mayor productividad en las mismas. Ingeniería en Seguridad de la Información que se
Por ello se considera una solución vanguardista que imparte en la Facultad de Ciencias Físico Matemáticas.
puede ser implementada en cualquier momento.
Dirección del autor: Ciudad Universitaria, S/N, C.P.
Es importante considerar los niveles de seguridad de la 66455, San Nicolás de los Garza, Nuevo León, México.
información, pero sobre todo contar con la información Email: [email protected]
y documentación necesaria para la toma de decisiones
al momento de establecer la vinculación entre los datos Lic. Jorge David Lara Muñoz
de la organización con el proveedor de este tipo de Egresado de la Facultad de Ciencias Físico-
soluciones, ya que es necesario tener la confianza de Matemáticas. Actualmente desempeñando labores de
conocer donde estarán alojados los datos personales administración de sistemas operativos en servidores
y de la organización sobre esquemas de Cloud con sistemas operativos Windows, Linux y Unix.
Computing, siendo de primera instancia, soluciones
con grandes beneficios, pero llena de desafíos que aún Dirección del autor: Olivo 208, Col. La Enramada
se encuentran en el aire; retos que se están estudiando 3er Sector, Apodaca, Nuevo León, México.
para generar respuestas a este tipo de tecnologías. Email: [email protected]
CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / SEGURIDAD EN TECNOLOGÍAS DE LA INFOMACIÓN 19
INGENIERÍA SOCIAL EN EL SISTEMA
POLÍTICO MEXICANO: ELECCIONES
2006 Y 2012
María de Jesús Antonia Ochoa Oliva
José Daniel Borrego
Arturo de Jesús Rodríguez Arteaga
Jorge David Lara Muñoz
Omar Reyes Silva
Nayeli Islas Juárez
UANL-FCFM
Universidad Autónoma de Nuevo León
Facultad de Ciencias Físico Matemáticas
San Nicolás de los Garza, Nuevo León, México
Resumen: Análisis de las operaciones de ingeniería social llevadas a cabo en México en las elecciones de 2006 y
2012, donde grupos políticos y económico utilizaron las vulnerabilidades informáticas y legales del sistema político
para persuadir al electorado a tener un comportamiento específico: el voto en favor de Felipe Calderón en 2006 y por
Enrique Peña Nieto en 2012.
Palabras claves: Ingeniería social, elecciones, sistema informático
19 INVESTIGACIÓN / SEGURIDAD EN TECNOLOGÍAS DE LA INFOMACIÓN CELERINET ENERO - JUNIO 2017
Introducción Se sugiere que esta es la primera operación a gran escala
de ingeniería social en el sistema político mexicano con
Uno de las definiciones que se podrían hacer de la fin de sabotaje. Los recursos tecnológicos e informáticos
Ingeniería Social es la de: conjunto de prácticas, han avanzado considerablemente desde entonces y son
esfuerzos y aplicación de medidas para persuadir dichas tecnologías las que han sofisticado tales procesos.
a un determinado individuo o grupo de que realice Se hace clara por primera vez la relación entre el
una actividad sea o no sea consciente de ello. factor humano y los recursos tecnológicos para influir
en los procesos sociales. Se hace clara por primera
Este concepto de prácticas puede ser utilizada en diversos vez la relación entre el factor humano y los recursos
aspectos de las relaciones humanas, desde las económicas, tecnológicos para influir en los procesos sociales.
interpersonales o políticas. En este caso de estudio se
analizarán los esfuerzos y las prácticas de Ingeniería En este caso los ingenieros sociales son los actores
Social aplicadas a través de la sociedad para generar un políticos en el poder y grupos económicos afines,
impacto significativo en el sistema político mexicano. con la finalidad de detener el acceso al poder
de un candidato opositor haciendo uso de las
Antecedentes instituciones públicas para alcanzar tal objetivo.
Las labores de ingeniería social en la política mexicana La elección de 2006 en México
no son un tema de reciente nacimiento, en la historia de
nuestro país hay un suceso que ya apuntaba hacia donde se Los actores involucrados fueron el entonces
podrían dirigir estas prácticas utilizando cada vez más los presidente Vicente Fox Quezada, el CCE (Consejo
medios tecnológicos: La “caída del sistema” de 1988 [1]. Coordinador Empresarial, las Televisoras, el
candidato del PAN Felipe Calderón Hinojosa y
Dentro de los derechos como ciudadanos mexicanos se Andrés Manuel López Obrador candidato del PRD.
encuentran derecho de votar y ser votados. La postulación
y eventual triunfo o derrota de un candidato se da después Previo a la sucesión presidencial, Andrés Manuel
de una jornada electoral celebrada cada 3 ó 6 años a López Obrador era el candidato puntero en la mayoría
través de un sistema de votación simple pero efectivo: los de las encuestas publicadas a nivel nacional. Al ser un
votos (hojas de papel) se depositan en urnas que después candidato opositor y además tener confrontaciones
son contabilizadas por distritos, proceso el cual culmina políticas e ideológicas personales con el entonces
con el anuncio de un candidato ganador determinado [2]. presidente Vicente Fox, fue convirtiéndose gradualmente
en un adversario político y personal del presidente.
El proceso a través del cual se contabiliza la votación
emitida se realiza a través de un muestreo estadístico Además de la aversión que reflejaba el entonces
a nivel local o nacional, donde se muestran las mandatario, grupos económicos representados
tendencias que la votación emitida va reflejando. El por el CCE (Consejo Coordinador Empresarial)
conteo informático, el cual, durante la noche del día especulaban que la llegada de un personaje del
de la elección, se reportó que tuvo “fallas técnicas” y espectro político de izquierda representaría una
se presentó una suspensión temporal del sistema afectación directa a sus intereses económicos, ya que
informático utilizado para el conteo de votos, que dejó el candidato reiteradamente lanzaba acusaciones en
dentro de la incertidumbre el resultado de la votación. contra de las cúpulas económicas y de poder del país.
Cuando los problemas técnicos fueron resueltos se
mostró que la tendencia presentada previamente a Esaquídondeesposibledetectar losprimeroselementosde
favor del candidato Cuauhtémoc Cárdenas se había unlargoprocesodeingenieríasocialenlaeleccióndel2006:
revertido; la nueva tendencia posicionaba adelante
a Carlos Salinas de Gortari. En aquel entonces se Al entonces jefe de gobierno – posicionado como
habían reportado, aparte de este incidente, relleno el puntero- se buscaba inhabilitarle políticamente
de urnas desde que comenzaba la votación y al hacerlo legalmente no elegible para lanzarse a
diversos sucesos de procedimientos fraudulentos. la contienda presidencial, generándole un proceso
judicial que pudiera inhabilitar sus derechos políticos.
Comenzó el conocido proceso de “desafuero” del
entonces Jefe de Gobierno del Distrito Federal.
CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / SEGURIDAD EN TECNOLOGÍAS DE LA INFOMACIÓN 20
Aunado a lo anterior, influyó la cuestión del fuero, A diferencia del caso presentado en 2006, estos nuevos
el cual es un conjunto de privilegios o exenciones actores fueron complementando el poder que se buscaba
judiciales de las que gozan las figuras políticas, a través adquirir a través de la televisión y su uso. Ahora de
de un proceso de desafuero, autorizado por la cámara de nuevo el candidato de izquierda buscaría el poder
diputados, se buscaba eliminar este privilegio a AMLO mientras que el PRI se perfilaba para regresar al poder
para impedir que pudiera participar en la elección [3]. en medio de un mar de cuestionamientos acerca de la
honorabilidad y funcionamiento de este instituto político.
Se generó una gran atención mediática y la
percepción presidencial se deterioró a tal grado de Todo parecía marchar de manera esperada, las televisoras
que a pesar de ser procesado judicialmente, no se ya no atacaban a un candidato sino que concedían sus
inhabilitó su oportunidad de participar en la elección. horarios más exclusivos para proyectar al candidato del
PRI como la mejor opción y posicionarlo en la mente de los
De este modo, culmina y se esclarece la primera ciudadanos generando una percepción favorable, ya que se
estrategia de ingeniería social del proceso del 2006: le cubría con notas y tiempo aire con un contexto positivo,
crear la imagen pública de que el candidato mejor afianzando su ventaja en las preferencias electorales.
posicionado poseía una honorabilidad cuestionable, que
responde al mecanismo de persuasión y a la utilización El papel de Internet y de las redes sociales generó un
de las vulnerabilidades legales para inhabilitarlo. contrapeso a los mecanismos de ingeniería social, pues
a raíz de un acontecimiento desafortunado para Enrique
La segunda fase de este proceso se dio a través de los Peña Nieto en la Feria del Libro en Guadalajara, donde
medios de comunicación masivos, donde las televisoras, no supo mencionar 3 libros que hubieran marcado su
en especial Televisa, jugaron un papel importante en vida y las redes sociales cobraron relevancia levantando
buscar que el posible electorado generara una percepción ataques y consignas contra el candidato presidencial.
negativa del candidato de izquierda a a través del
despliegue de spots de televisión en horario “prime Los mecanismos utilizados para persuadir al electorado
time”. Dichos spots contenían mensajes como: “López de emitir un voto en favor del ahora presidente
Obrador es un peligro para México”. Estos videos eran comenzaron a establecerse en el mundo de la informática
financiados por el PAN y su candidato Felipe Calderón [4]. como sugiere un suceso crucial para entender el caso
presentado: Hace unas semanas un hacker colombiano
La ley electoral establece que es ilegal difamar o actualmente preso por delitos de espionaje de nombre
calumniar a un contrincante político y naturalmente se Andrés Sepúlveda concedió una extensa entrevista la
realizaron quejas para retirar estos videos del aire. Es medio norteamericano Bloomberg acerca de cómo se
aquí donde se hizo evidente una vulnerabilidad del “hackeaba “una elección presidencial. Confesó haber
sistema electoral mexicano: la burocratización de los trabajado durante campañas presidenciales durante
procesos de las quejas arrojan un tiempo indeseable 8 años en Latinoamérica, México 2012 incluido [7].
de resolución y mientras no se genera una resolución
final, los spots televisivos continuaban al aire, Detalló, entre otros aspectos, que se intervenían todas
exponiendo estos mensajes a millones de televidentes. las comunicaciones de los candidatos opositores al
que lo contratara y posiblemente a través de phishing,
Otro elemento entro en la labor de persuadir al electorado troyanos, código malicioso o algún mecanismo similar
de no elegir al candidato del PRD y se utilizaron las se lograba obtener un acceso remoto a los dispositivos
emociones del miedo y la incertidumbre para buscar electrónicos de dichos candidatos con la finalidad
lograr tal objetivo: el Consejo Coordinador Empresarial de espiarlos y obtener una ventaja estratégica de
replicó las acciones de contratar espacios en las información para saber que iban a decir, cuándo y cómo.
televisoras para lanzar mensajes ambiguos que sugerían
tomar una decisión que afectara a López Obrador El trabajo de este profesional de la informática no se
limitó a vulnerar la seguridad de la información de las
Los videos apoyados por esta organización no campañas contrarias, sino a crear tendencias nacionales
eran directos pero apuntaban a un mismo tema. en medios como Twitter para vulnerar candidatos
Estos contenían mensajes como: “El país va por contrarios y empujar percepciones masivas. Entre
buen camino, cambiar de rumbo es retroceder”, otras cuestiones, por ejemplo, mencionó que mientras
sugiriendo que un cambio en el sistema político AMLO repuntaba en las encuestas se lanzaba una
afectaría a la economía familiar de forma directa y operación donde a través del uso masivo de “bots”
se perdería el patrimonio obtenido durante años [5]. se buscaba empujar la idea de que el fortalecimiento
21 CELERINET ENERO - JUNIO 2017
INVESTIGACIÓN / SEGURIDAD EN TECNOLOGÍAS DE LA INFOMACIÓN
electoral del candidato tuvo una repercusión La filtración del patrón electoral o lista nominal
directa en el debilitamiento del peso frente al dólar. del INE, el cual fue ubicado en el servicio de
“nube” de la empresa Amazon y descubierta por
El arsenal informático para influir en esta elección fue un experto en temas de protección de información
significativamente mayor al presentado en todas las que trabaja para la empresa llamado Chris Vickery.
elecciones pasadas y posiblemente concluyó con éxito, ya Inmediatamente después de trascender este suceso, el
que se percibe el contrapeso de Internet como una fuente INE declaró que habían detectado al partido político
fidedigna de información, aunque esta puede manipularse responsable de la filtración de la base de datos.
de igual manera que en cualquier otro medio tradicional.
Después de que el presidente del INE, Lorenzo Córdoba,
Conclusión hiciera estas declaraciones, el partido político MC
(Movimiento Ciudadano) aceptó la responsabilidad
A medida que las tecnologías de la información han parcial por tal filtración, ya que el presidente de la
avanzado, estas gradualmente se han añadido a los institución política Dante Delgado, declaró que el padrón
procesos políticos de cambio no solo en México sino electoral fue subida al servicio Amazon Web Service el
en todo el mundo. Barack Obama por ejemplo, es cual afirma fue “hackeado” o vulnerado y que a través
considerado el primer candidato de Internet, ya que el de este mecanismo se obtuvo esta información. Seguido
éxito de su campaña en 2008 consistió en fortalecer de esto, Delgado puntualizó en la importancia de que
su presencia en redes sociales para lograr seducir el gobierno mexicano enfoque más energías y recursos
el voto juvenil y posiblemente le valió su triunfo. al fortalecimiento de la protección de datos personales.
Las tecnologías de información y medios cibernéticos Este suceso ha iniciado un debate controversial, ya
pueden ser utilizados como mecanismos que pueden que la empresa Amazon y su especialista en seguridad
influir en el comportamiento colectivo, generar Chris Vickery ha declarado que la obtención de estos
emociones positivas y negativas con un fin específico datos no se dio porque haya sido vulnerado el sistema
aunque el usuario o el grupo no sean conscientes de de almacenamiento de datos de la compañía, sino que
ello. Uno de los grandes retos para la seguridad de la fue subida sin mecanismos de protección básicas
información es formalizar y concientizar a la sociedad como el uso de contraseñas y otro tipo de protección
de que existen huecos y vulnerabilidades que lograrían de datos, responsabilizando al partido político de
generar cambios sociales trascendentes y que actualmente mentir y posiblemente haber contratado a una empresa
no están siendo atendidos por diversos factores. que cometió un error al almacenar los datos [8].
El panorama apunta a que la próxima elección será Aunque no queda claro el panorama completo respecto
más compleja en el tema informático, los candidatos a este problema, sí nos indica que actualmente
usarán dispositivos más seguros y con un cifrado estamos rezagados en la creación de marcos legales y
criptográfico robusto y una cautela que los proteja administrativos que puedan proteger eficientemente los
de intervenciones, espionaje o infección de virus datos personales de los ciudadanos, ya que a pesar de que el
que permita a contrarios acceder a su información. partido político acepto su responsabilidad, no queda claro
quién y cómo pagara las consecuencias de tal filtración.
La ingeniería social aplicada a los procesos sociales es
todavía un tema del que oficialmente no se habla y no Referencias
hay elementos que apunten a ingenieros específicos,
ya que la naturaleza de una práctica desleal es el [1] Expansión, P. (2012). Périodico Expansión.
de eliminar toda la evidencia posible, aunque si se Obtenido de: http://expansion.mx/nacional/2012/06/30/1988-la-caida-
pueden encontrar elementos que sugieren tal narrativa. del-sistema
El avance social y los recursos tecnológicos que va [2] Constitutucion Política de los Estados Unidos Mexicanos. Artículo
obteniendo una sociedad gradualmente van aumentando 35. Recuperado de: http://info4.juridicas.unam.mx/ijure/fed/9/36.
su relación simbiótica, como sugieren sucesos htm?s=
recientes que han causado controversia en nuestro país.
[3] ADN Politico (2013).Los usos (y abusos) que funcionarios
dieron al fuero. Recuperado de : http://www.adnpolitico.com/
congreso/2013/02/20/andres-manuel-lopez-obrador-el-uso-politico-
del-desafuero
CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / SEGURIDAD EN TECNOLOGÍAS DE LA INFOMACIÓN 22
[4] Proceso (2007).La Guerra sucia de 2006: los medios y los jueces.
Recuperado de: http://www.proceso.com.mx/87718/la-guerra-sucia-
de-2006-los-medios-y-los-jueces
[5] Armenta, E(s/f).El proceso de comunicación de la campaña
de 2006: comunicación inequitativa. Recuperado de: http://
www.alice-comunicacionpolitica.com/abrir-ponencia.
php?f=446-F5236c1564461379320150-ponencia-1.pdf
[6] INE (2006). Elecciones Presidenciales 2006: Análisis estadístico
de los resultados publicados por el PREP. Recuperado de: http://
www.ine.mx/docs/Internet/Docs_estaticos/Proceso2005_2006/
informes_prep/Elecciones_Presidenciales2006_final.pdf
[7] Bloomberg (2016).How to hack an election. Recuperado de:
http://www.bloomberg.com/features/2016-how-to-hack-an-election/
[8] Expansión (2016). Especialista y Amazon desmienten a
movimiento ciudadano sobre filtración. Recuperado de: http://
expansion.mx/politica/2016/04/28/especialista-y-amazon-
desmienten-a-movimiento-ciudadano-sobre-padron-electoral
23 CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN / ASTROFÍSICA
DESVIACIÓN SISTEMÁTICA DE
REGIONES HII EN LOS BRAZOS
ESPIRALES DE LA GALAXIA NGC 3631
Dr. Ángel E. Sánchez Colín
UANL – FCFM
Universidad Autónoma de Nuevo León
Facultad de Ciencias Físico Matemáticas
San Nicolás de los Garza, Nuevo León, México
Resumen: En este artículo, se describe una metodología didáctica para analizar la
distribución de regiones HII en los brazos espirales de la galaxia NGC 3631. Se realizó un
análisis para conocer la desviación sistemática radial de estas regiones con respecto a las
curvas medias de los componentes que integran la estructura morfológica de esta galaxia.
Palabras claves: Galaxia espiral, espiral logarítmica, desviación radial, ángulo tangencial
v
INVESTIGACIÓN / ASTROFÍSICA CELERINET ENERO - JUNIO 2017 24
Introducción Fig.1. Imagen de la galaxia espiral NGC 3631,
obtenida con el telescopio espacial Hubble. Fuente:
En una galaxia espiral, generalmente las zonas que http://commons.wikimedia.org/wiki/File:NGC3631-
contienen hidrógeno no-ionizado (Regiones HI), se hst-R814G606B450.jpg
encuentran distribuidas en todo el disco galáctico y en el
espacio entre los brazos. Mientras que, el 70% de las zonas Pero la asimetría e irregularidades que se observan en
con hidrógeno ionizado (Regiones HII), se encuentran la Fig. 2, hacia el exterior del disco de esta galaxia, nos
a lo largo de los brazos formando grandes complejos. permite hacer un estudio independiente al considerar
Las regiones HII, son las que indican la formación los segmentos rectos y las pequeñas ramas que tiene
reciente de estrellas masivas; estrellas jóvenes muy formadas en los brazos. Estas irregularidades pueden ser
calientes que emiten fotones de alta energía. Muchos causadas por varios factores; por ejemplo, los efectos
de estos fotones son absorbidos por la nebulosa del dinámicos del gas que producen la inestabilidad del
gas que rodea estas estrellas y por consiguiente, movimiento o por la interacción gravitacional con las
son los causantes de la ionización del hidrógeno galaxias cercanas.
que genera una emisión en la banda Hα (~656 nm)
del espectro electromagnético, la cual puede ser Para los propósitos del estudio, se parte de un catálogo
detectada con los instrumentos de un telescopio. con 1322 regiones HII (ver Ref. [2]) y se procedió
Cuando se estudia una galaxia espiral, es muy a seleccionar las regiones más grandes ( con los
importante definir los brazos que la constituyen, así diámetros entre 1.6” ≤ Ø ≤ 4.8” segundos de arco) y
mismo, es necesario conocer la distribución de regiones las más luminosas (con luminosidad entre 37.4 ≤ Log
HII de mayor tamaño y de más alta luminosidad, puesto Lu ≤ 40 Erg./s). Esto nos redujo a una muestra de tan
que se utilizan como trazadores de toda la estructura. sólo 258 elementos, pero suficientes para identificar los
En este artículo, se presenta una metodología con componentes que integran la estructura de esta galaxia,
fines didácticos, que nos ilustra cómo analizar la como se muestra en el plano xy de la Fig. 3.
distribución espacial de regiones HII en galaxias
espirales, particularmente en la galaxia NGC 3631.
Para un análisis más profundo y extenso, se recomienda
consultar las características físicas de esta galaxia,
que fueron publicadas con anterioridad en diferentes
estudios astronómicos [1-6].
Análisis de la distribución de Regiones HII
Una imagen en el espectro visible, como la que se
muestra en la Fig. 1, nos permite apreciar que la
estructura galáctica está compuesta por dos brazos
espirales bien definidos.
Fig. 2. Imagen de NGC 3631 en la banda-R del
espectro electromagnético. Obtenida del archivo
ING (Isaac Newton Group). http://casu.ast.cam.ac.uk/
casuadc/ingarch/
vv
25 INVESTIGACIÓN / ASTROFÍSICA
CELERINET ENERO - JUNIO 2017 Cada región tendrá una distancia a lo largo de la curva,
dada por:
(3)
donde L es cero cuando θ0=0.
Fig. 3. Plano galáctico de NGC 3631 con 258 regiones Fig. 4. Metodología para estimar la desviación radial
en los brazos y en los segmentos rectos.
HII, que identifican los Brazos A y B, las Ramas A1 y
A2 y los Segmentos S1 - S4. Cada posición de las regiones HII, produce una desviación
sistemática ΔR en la dirección radial, con respecto
Por conveniencia en este trabajo, la escala de todas a la línea media ajustada, siendo esta definida por:
las gráficas, están dadas en kiloparsec (kpc), obtenida
conforme a la siguiente conversión de unidades:
La galaxia en cuestión, se encuentra a una
distancia D = 15.4 Mpc, cuyo radio medio es
Rm = 150”. Tomando en cuenta que a una distancia
de 1 pc, una unidad astronómica sustenta un ángulo
ω = 1” y que 2π rad = 1,296,000”, entonces:
(1) donde R, es la componente radial correspondiente
a cada punto de la línea media ajustada.
de donde Rm = 11.2 kpc y por tanto el factor de El segmento recto medio, mostrado en la
conversión de unidades para este trabajo nos queda: Fig. 4 b), está definido por ajuste lineal de mínimos
cuadrados en coordenadas cartesianas
1” = 74.66 pc. como y = a + bx. Aquí, b es la pendiente del segmento.
Si reemplazamos x = Rcos θ e y = Rsen θ en esta
Para nuestros propósitos, el siguiente análisis es sólo ecuación, obtenemos:
una aproximación basada en la teoría descrita en la Ref.
[7]. Refiriéndonos a la Fig. 4 a), el análisis comienza al (5)
realizar un ajuste de la distribución de regiones HII a una
espiral logarítmica de la forma Por lo que en un segmento recto, para cada región
(2) HII ubicada en , también corresponde una
donde b, es la cotangente del ángulo tangencial φ, para posición radial en cuya distancia a lo largo de
cada región HII, ubicada en la posición radial (r, θ).
la línea media está dada por :
(6)
INVESTIGACIÓN / ASTROFÍSICA CELERINET ENERO - JUNIO 2017 26
donde L valdrá cero si . Por conveniencia,
hemos considerado que tome un valor mínimo,
diferente de cero; es decir, .
Resultados
Refiriéndonos a la Fig. 3, se observa que la mayor Fig. 6. Desviación sistemática radial a lo largo del
densidad de regiones HII se encuentra distribuida a Segmento S1, en función del ángulo θ (arriba) y en
lo largo del Brazo A y del Segmento S1. Por lo que al función de la distancia L (abajo).
estimar las desviaciones radiales en estos componentes,
se pudo apreciar un comportamiento ondulatorio a lo Tabla 1: Características para los componentes de la
largo de su línea media, como se indica en las Figs. 5
y 6, donde las estimaciones de longitud de onda fueron estructura galáctica en NGC 3631.
λ ~ 15 kpc para el Brazo A y λ ~ 4 kpc para el Segmento
S1, cuyas amplitudes estimadas fueron Λ ~ 0.5 kpc y
Λ ~ 0.3 kpc, respectivamente. Es importante resaltar
que este comportamiento no siempre es necesariamente
sinusoidal, dependerá sobre todo de la asimetría
e irregularidades que presente cada morfología;
sin embargo, siempre será posible utilizar ajustes
polinomiales para cada caso. El ángulo tangencial
calculado para el Brazo A fue de φ ~ 80º y la pendiente
para el Segmento S1 fue b ~ 11º.
La Tabla 1, resume todos los resultados obtenidos para
cada componente, donde L, es su longitud, φ, es el
ángulo tangencial de las espirales, b, es la pendiente de
cada segmento recto, λ y Λ, son la longitud de onda y la
amplitud de la desviación radial, respectivamente.
Fig. 5. Desviación sistemática radial a lo largo del
Brazo A, en función del ángulo θ (arriba) y en función
de la distancia L (abajo).
27 CELERINET ENERO - JUNIO 2017 INVESTIGACIÓN /ASTROFÍSICA
Conclusiones Datos del Autor
La desviación sistemática radial, es útil para realizar Ángel Colin, es licenciado en Física, graduado en 1999
estudios de galaxias espirales, sobre todo para comprender por la Universidad Autónoma de Baja California. Realizó
la existencia de fenómenos de corrugación que pueden sus estudios de Maestría en 2002 en la Universidad de
presentarse en la dirección radial a lo largo de los brazos. Granada, España y en 2006 realizó su tesis doctoral
Las galaxias espirales vistas de cara, son excelentes en el Instituto de Radio Astronomía Max Planck, en
candidatos para este tipo de estudios. Esto ha conducido Bonn, Alemania. Actualmente, es Profesor-investigador
a varios investigadores a realizar una estimación de en la Facultad de Ciencias Físico Matemáticas de
este comportamiento en nuestra propia Vía Láctea [8]. la UANL. Sus principales líneas de investigación
se enfocan principalmente en instrumentación
Agradecimientos astronómica y tecnología de satélites miniaturizados.
El autor agradece al Dr. Emilio Alfaro Navarro por su Dirección del autor: Universidad Autónoma de
apoyo y orientación para realizar este trabajo. Nuevo León, Facultad de Ciencias Físico Matemáticas,
Departamento de Posgrado. Av. Universidad s/n,
Referencias Ciudad Universitaria. 66455 San Nicolás de los Garza,
NuevoLeón-México. Phone:+52(81)83294030Ext.7162
[1] Boeshaar, G.O. and Hodge P.W. (1977). HII Regions and the
spiral structure of NGC 3631. The astrophysical journal, 213, 361- E-mail: [email protected]
367.
[2] Rozas, M., Beckman J.E., and Knapen J.H. (1996). Statistics
and properties of HII regions in a sample of grand design galaxies. I
Luminosity functions. Astronomy and astrophysics, 307, 735-744.
[3] Knapen, J.H. (1997). Atomic hydrogen in the spiral galaxy NGC
3631. Mon. Not. R. Astron. Soc., 286, 403-414.
[4] Chernin, A.D., Zasov, A.V., Arkhipova V.P., and Kravvtsova, A.S.
(2000). Vorontsov-Velyaminov Rows: Straight Segments in the spiral
arms of galaxies. Astronomy Letters, 26, (5), 285-296.
[5] Fridman, A.M, Khoruzhii, O.V., Polyachenkp E.V., et al. (2001).
Gas motions in the plane of the spiral galaxy NGC 3631. Mon. Not.
R. Astron. Soc., 323, 651-662.
[6] García-Gómez, C., Athanassoula E., and Barberà C. (2002).
Analysis of the distribution of HII regions in external galaxies. IV
The new galaxy sample. Position and inclination angles. Astronomy
& Astrophysics, 389, 68-83.
[7] Anderson, S., Hodge, P. and Kennicutt R. (1983). The spatial
distribution of HII regions in NGC4321. The astrophysical Journal,
265, 132-139.
[8] Spicker J. and Feitzinger J.V. (1986). Are there typical
corrugations scales in our galaxy? Astronomý & Astrophysics, 163,
43-55.