1
HACIA DÓNDE VA LA CIENCIA EN MÉXICO
Telecomunicaciones y Computación
(Versión preliminar, sujeta a cambios)
Un análisis para la acción
2
Portada: “Cloud Word”, estudio de frecuencias de palabras
que aparecen en los títulos de las ponencias del programa
HACIA DÓNDE VA LA CIENCIA EN MÉXICO.
Realizado por Centro Geo.
3
HACIA DÓNDE VA LA CIENCIA EN MÉXICO
Telecomunicaciones y Computación
(Versión preliminar, sujeta a cambios.)
Un análisis para la acción
Adolfo Guzmán Arenas
Jesús Favela Vara
Coordinadores
CONACYT AMC CCC
4
México, 2014
Primera edición, 2014
D.R. Consejo Nacional de Ciencia y Tecnología
Av. Insurgentes Sur 1582
Colonia Crédito Constructor
México, D. F.
ISBN Colección: XXXX
ISBN Volumen: XXX
D.R. Academia Mexicana de Ciencias, A. C
Los Cipreses s/n
Pueblo San Andrés Totoltepec
México, D. F.
ISBN Colección: XXXX
ISBN Volumen: XXX
D.R. Secretaría Ejecutiva del Consejo Consultivo de Ciencias
San Francisco 1626-305
Colonia del Valle
México, D. F.
ISBN Colección: 978-607-9138-08-0
ISBN Volumen: XXX
haciadondevalaciencia.org
Impreso en México
Printed in Mexico
5
Se prohíbe la reproducción total o parcial de esta obra —incluido el diseño tipográfico y de
portada— sea cual fuere el medio, electrónico o mecánico, sin el consentimiento por
escrito de los editores.
ÍNDICE
Presentación
HACIA DÓNDE VA LA CIENCIA EN MÉXICO
1. Introducción. La importancia de las telecomunicaciones
y la computación Adolfo Guzmán Arenas y Jesús Favela Vara 2. Áreas y oportunidades para el desarrollo de las
comunicaciones: comunicación digital David Muñoz Rodríguez 3. Perspectivas, retos y oportunidades de las
telecomunicaciones en México
Eduardo Castañón Cruz
4. Infraestructura cibernética de alto desempeño para la
era de los grandes datos Larry Smarr
5. Retos y oportunidades de las comunicaciones ópticas y
el procesamiento digital fotónico
Horacio Soto
6. Computación. Algunas oportunidades y riesgos
tecnológicos Adolfo Guzmán Arenas
7. Sistemas inteligentes. Presente y futuro
Enrique Sucar Succar
8. Una nueva era de la computación en México.
6
Oportunidades y áreas estratégicas de acción
Fabián García Nocetti
9. Investigación, educación y emprendimiento en ciencias
de la computación en México Édgar Chávez
10. Las TIC como ciencia emergente y herramientas para
el desarrollo de la ciencia en México
Sergio Carrera Riva Palacio y Juan Carlos Téllez Mosqueda
11. Hacia dónde va la investigación en computación en
México Carlos A. Coello Coello
12. Semblanza de los autores
13. Propuesta sobre telecomunicaciones y computación
Adolfo Guzmán Arenas y Jesús Favela Lara
14. Líneas de acción para el futuro de las
telecomunicaciones y la computación
15. Créditos del programa HACIA DÓNDE VA LA CIENCIA EN
MÉXICO
16. Instituciones de adscripción de los participantes
9
PRESENTACIÓN
HACIA DÓNDE VA LA CIENCIA EN MÉXICO
9
HACIA DÓNDE VA LA CIENCIA EN MÉXICO
Telecomunicaciones y Computación
9
INTRODUCCIÓN
LA IMPORTANCIA DE LAS TELECOMUNICACIONES Y LA COMPUTACIÓN
Adolfo Guzmán Arenas1
Jesús Favela Vara**
Computar es calcular, hacer cálculos. La computación, también llamada informática, es la
disciplina que estudia la información, su procesamiento, su transformación en
conocimiento. Las telecomunicaciones también trabajan con información, la transmiten, la
reciben, la decodifican, la comprimen, detectan y corrigen errores. A menudo, estas dos
disciplinas funcionan ligadas muy estrechamente, de modo que es relevante hablar de
“telecomunicaciones y computación” o, como se le conoce ahora, tecnologías de la
información y computación (TICs). Algunas disciplinas estudian los objetos existentes en la
naturaleza: la astronomía estudia planetas, galaxias...; la biología, a los seres vivos; la
medicina a los seres humanos; otras, como las matemáticas, estudian abstracciones
creadas por los humanos (conjuntos, espacios, estructuras...). En cambio, la computación
estudia el procesamiento de la información que ocurre tanto en máquinas creadas por el
ser humano (computadoras) como en seres vivos (¿algunos? programas o algoritmos
están codificados en secuencias de ADN que son ejecutadas, por ejemplo, por una
lagartija para producir otra lagartija).
La computación es una ciencia muy joven, nació a finales de la década de los
cuarenta o principios de los cincuenta del siglo pasado. Sin embargo, es una ciencia
1Centro de Investigación en Computación, Instituto Politécnico Nacional.
**Centro de Investigación Científica y de Educación Superior de Ensenada.
10
transversal, que incide en muchas otras disciplinas, en los negocios, en la vida cotidiana y
en un sinfín de actividades que ocurren todos los días: para hallar resultados concretos,
obtener beneficios, descubrir tendencias. Sus aplicaciones son numerosas y la vida
moderna difícilmente podría entenderse sin su presencia.
LA COMPUTACIÓN DOMINA NUESTRA VIDA COTIDIANA
Cuando ordenas una pizza desde tu computadora escribiendo “pizza” en la ventana de
búsqueda de tu navegador, éste, a través de Internet (red mundial formada por muchas
computadoras. La comunicación de tu navegador con ella es posible gracias a varias
máquinas de la empresa telefónica y la de tu proveedor de Internet), te conecta con
máquinas especiales que hacen la búsqueda por ti. Para esto usan un resumen (un índice
invertido) de las páginas de Internet, para darte en pocos segundos una lista de los
establecimientos en tu zona que venden pizza. Con el ratón pulsas en uno de ellos, y
varias otras computadoras te conectan con la máquina del establecimiento, que se
comunica con tu máquina para saber qué ordenaste, calcular y decirte cuánto debes
pagar. El pago va por un canal seguro a la máquina de la empresa que maneja tu tarjeta
de débito o de crédito, la que se comunica con las computadoras de tu banco y la del
banco del vendedor de pizza para hacer la transferencia electrónica. La máquina del
establecimiento imprime (o muestra en una pantalla) la pizza que ordenaste, para que el
cocinero la prepare. Probablemente use un horno que, controlado por otra pequeña
computadora, produce la secuencia de calentamiento y temperatura adecuados para que
a) tu pizza salga excelente y b) ahorre energía eléctrica. Pedro, el muchacho repartidor,
prende su vehículo (que tiene varias computadoras en su interior para controlar la
ignición, el frenado, evitar derrapes, etcétera) y se dirige a tu casa. Pedro consulta en su
pantalla la mejor ruta que debe tomar, y utiliza el posicionador satelital (GPS) de su
vehículo para situarlo en el mapa desplegado. El cálculo de dónde se encuentra en la
superficie terrestre lo llevan a cabo otras máquinas que usan para ello los rastreos de las
señales de varios satélites, y lo posicionan en el mapa con pocos metros de error. Pero en
la orden de despacho de tu pizza no viene el número interior del condominio donde vives,
de modo que Pedro usa su teléfono celular para preguntarte ese dato. Ésa es otra
maravilla. En cada teléfono celular hay más capacidad de cómputo que toda la que usó la
11
NASA para enviar al primer hombre a la Luna, en 1969. Varios procesadores en el celular
de Pedro miden la señal recibida de las diferentes torres telefónicas en tu vecindario, y
esperan a que las computadoras de esas torres se pongan de acuerdo: la torre 2 atenderá
la llamada de Pedro. Esa torre escoge un canal de transmisión y le avisa a su celular que
escuche y transmita por ese canal. Lo comunica, vía transmisión telefónica normal, con el
teléfono de tu casa, donde tú contestas (tu teléfono es digital, lo cual hace que más
computadoras entren en acción para darte tono de llamada y contabilizar el tiempo de
conversación transcurrido, con vistas a la cobranza). En la ruta del vehículo de Pedro
hacia tu casa, la comunicación de su teléfono celular con la torre 2 se debilita, pero la
torre 16 lo empieza a captar. En una “plática” entre las computadoras de las torres 2 y 16,
deciden que la conversación que sostienes con Pedro ahora sea manejada por la torre 16,
de manera que ésta se comunica con su celular y le pide que transmita por un canal (una
frecuencia de transmisión) distinto y, “zaz”, ahora Pedro ya está hablando contigo vía el
nuevo canal, la torre 16, que recibe la conversación con mayor claridad (una mejor
relación de señal a ruido). Ni tú ni Pedro se dan cuenta. Este pequeño ejemplo da idea de
lo inmersas que están las computadoras y las telecomunicaciones en nuestra vida
cotidiana. Si éstas se declararan en “huelga de hambre” o en una “manifestación de ciclos
caídos” (no de brazos caídos), habría un caos mundial, chocarían los aviones, los trenes,
dejarían de funcionar los teléfonos, la televisión, el suministro de energía eléctrica, el
bombeo de agua, el drenaje...
LA NUEVA GENERACIÓN DE MEXICANOS NACE RODEADA DE
COMPUTACIÓN Y COMUNICACIONES DIGITALES
Los actuales estudiantes de educación básica (primaria, secundaria) y media
(preparatoria, vocacional, estudios subprofesionales) nacieron en un rico ambiente
tecnológico de cómputo y comunicaciones digitales, y en dicho ambiente adquieren
conocimientos. Usan un teléfono celular, una tableta, computadoras, internet, Wikipedia,
chats, Twitter, Google. Aun cuando no tengan internet o computadora en casa, con 12
pesos consiguen una hora en el café internet de la esquina. La inmersión en lo digital
continuará y será más profunda, cuando tengamos buscadores semánticos, cuando
podamos usar enjambres de computadoras de manera transparente (por ejemplo, con
12
Hadoop, MapReduce y Pig), cuando se perfeccione la identificación de rostros,
personalidades, tendencias y gustos individuales por la computadora, y cada uno de
nosotros tenga su “patrón de comportamiento” almacenado en alguna base de datos.
Esto es inevitable. Ningún decreto, ningún arreglo en lo oscurito lo podrá evitar.
Debemos estar preparados para explotar, para saber aprovechar, para innovar en
este futuro próximo que “ya toca la puerta”. Afortunadamente, en México se gradúan cada
año 25 000 egresados de las diversas licenciaturas e ingenierías en computación,
informática, telemática, mecatrónica y otros nombres similares (es la ingeniería con más
demanda entre los aspirantes a la universidad). Pero, si estos jóvenes mexicanos no
dominan los nuevos avances, o si un porcentaje de ellos no innova, no investiga, no hace
avanzar la computación y la informática, sólo seremos un país que “veremos pasar el
tren”. Y lo podremos usar, pero el tren no será nuestro. Seremos un país de 130 millones
de consumidores, que compran software y hardware hechos en otros países, que
contratan empresas extranjeras para que nivelen las vías del tren detenido porque se
descarriló, que nos llaman con grandes luces a “usar sus nubes de computadoras”, o a
rentar su software, a exportar dinero y también la información vital de nuestras empresas
y gobiernos. Si no formamos a los especialistas ni hacemos avanzar la ciencia y la
tecnología en esta dirección, solamente estamos formando un mercado rico para que lo
satisfagan proveedores extranjeros. México será un país de consumidores de productos
importados, con empresas extranjeras que además manejan y conocen nuestra
información vital, dónde están nuestros depósitos de uranio, de cobre, de petróleo, dónde
están nuestros mejores clientes, con quién nos comunicamos, por dónde nos movemos,
qué compramos, etcétera. Información vital nuestra yacerá en otros lares. En resumen, el
riesgo de no apoyar el desarrollo de las tecnologías de la información y la computación es
que la brecha digital se ahondará para nosotros, bien por falta de acceso a la
computadora personal, la telefonía móvil o la banda ancha, bien porque no sabremos
darles valor agregado mediante la investigación y la transferencia de tecnología,
reduciéndonos al mero papel de consumidores, espectadores y admiradores de “lo que
sabe hacer el hombre blanco y barbado”.
Ésta es una razón poderosa para invertir en la investigación y desarrollo de la
computación y las telecomunicaciones y para formar a nuestros estudiantes, no sólo en el
uso adecuado de estas tecnologías, sino en su apropiación, innovación y desarrollo.
13
EL APOYO A LA COMPUTACIÓN RINDE MÚLTIPLES FRUTOS
El avance de la computación y las telecomunicaciones permite que otras ciencias,
disciplinas y actividades productivas, de gobierno y de la sociedad se beneficien del
mismo. Por esto, un apoyo a la computación tiene un efecto multiplicador: cada peso
invertido “vale por tres”. Un sencillo ejemplo con siete de las muchas áreas de la computa-
ción mostrará sus efectos multiplicadores.
1. Mejorar las técnicas para paralelizar algoritmos (a fin de poder usar fácilmente
enjambres de máquinas PC pequeñas, como ya empieza a ocurrir con Hadoop y
Casandra)1 permitirá el análisis más rápido y certero de grandes volúmenes de datos:
a) El análisis de delitos, epidemias, precursores de terremotos, precursores de
sequías, entre otros, será más eficaz.
b) El análisis de genomas, de secuencias de genes, será más ágil y más barato, y
nos permitirá detectar mejor qué personas son propensas a ciertas enfermedades,
o a mejorar las razas o variedades de trigo, maíz, plátano, caña de azúcar... o de
variedades transgénicas, o de bacterias que conviertan la celulosa en petróleo...
c) Diez mil cámaras producen una gran cantidad de videos de lo que ocurre en las
calles de una gran ciudad. Con mejores algoritmos paralelizables, ahora será
posible detectar dónde está Juan Pérez, o darle seguimiento a convoyes de
vehículos sospechosos, o detectar carros robados u objetos abandonados.
d) El análisis de imágenes astronómicas para detectar la aparición de supernovas,
dónde, con qué frecuencia.
e) El seguimiento longitudinal a alumnos, para conocer patrones de comportamiento,
tendencias, anomalías…
f) Análisis de gran cantidad de documentos (o de bases de datos) para extraer
nuevos conocimientos, tendencias, desviaciones, anomalías (minería de datos).
g) El análisis de imágenes satelitales y de información recabada por sensores
oceanográficos para predecir el clima y prever riesgos climatológicos.
h) Predecir variaciones en el comportamiento de poblaciones por medio del análisis
de información recabada por sensores en teléfonos celulares y computadoras de
1 Hadoop es un sistema de software libre incluido en Apache, para el manejo de almacenamiento y
procesamientomasivo;yCasandraesotrosistema,tambiéndeApache,paramanejarbasesdedatos.
14
vestir, que den indicios de brotes epidémicos o potenciales, o riesgos de seguridad
o salud.
También se beneficiarán i, j, k enlistados a continuación.
2. Mejorar el procesamiento semántico del español, para entender qué significa “comer”,
o quiénes pueden “ser dueños de”, permitirá que:
i) Se vuelvan obsoletos los buscadores por palabras, como los de Google y Yahoo
(que tienen como entrada varias palabras y producen como salida millares de
documentos), reemplazándolos por “contestadores” como Alpha, de Wolfram, que
tienen como entrada una pregunta como: “¿Cuáles son las sales del ácido nítrico,
y para qué sirven?”, que tienen como salida la respuesta a tal pregunta.
j) Entender mejor las opiniones, tendencias e inclinaciones de grupos de personas
que escriben sus mensajes en Twitter y otras redes sociales.
También se beneficiarán f, p.
3. Mejorar los algoritmos de detección de rasgos, clasificación, reconocimiento de
patrones, hará más fácil y exacto:
k) Identificar mucho mejor un rostro, haciendo innecesaria la portación o expedición
de credenciales, gafetes de acceso, pasaportes...
l) Detectar la presencia visual de objetos y con ello entender el contexto del usuario
para actuar proactivamente.
También se beneficiarán a, b, c, m y quizá f.
4. Un mejor entendimiento de cómo ajustar muchos datos a ciertos modelos de
comportamiento y operación, o a ciertas ecuaciones o restricciones de
funcionamiento, nos permitirá:
m) Conocer mejor cómo reaccionan construcciones complejas (plantas de reciclado,
de cocción; edificios y estructuras sujetas a esfuerzos, a cargas, vientos...) a fin de
entender mejor su estado, prevenir condiciones, alertar posibles fallas, corregir a
tiempo.
n) Simular el comportamiento de construcciones complejas (como las de j) y otras,
como leyes y reglamentos que regulan y limitan el comportamiento de actores,
sean personas o entes jurídicos, para poder predecir —con márgenes de error—
15
posibles efectos y detectar comportamientos indeseables, situaciones inestables, o
equilibrios de Nash no óptimos.
o) Un mejor control de equipo, maquinaria, instalaciones, plantas y sistemas
mecánicos, eléctricos, electrónicos, químicos, etcétera, para su funcionamiento
eficiente, cercano al óptimo, seguro y ambientalmente amigable.
También se beneficiarán a, e, f, i, j, p, q.
5. Un avance significativo en técnicas de criptografía y detección de intrusos informáticos
(virus, gusanos, bots2...) brindará grandes beneficios:
p) Limitará el espionaje y robo de información privada y gubernamental valiosa.
q) Eliminará o abatirá la gran cantidad de correos no deseables (spam).
6. La gran mayoría de los servicios de TI modernos involucra transferencia de
información. La demanda de estos servicios duplica el ancho de banda requerida cada
seis meses. Ante esto es importante desarrollar la infraestructura de
telecomunicaciones necesaria para mantener estos servicios y los que se
desarrollarán. Esto requiere inversión en infraestructura, pero también innovar en la
optimización de transferencia de información en medios desde ópticos hasta
inalámbricos. Esto permitirá:
r) Transferir información de diversos tipos de sensores (cámaras, acelerometría en
celulares, velocidad de automóviles, etcétera) para ser procesada en tiempo real y
ayudar al usuario a tomar decisiones. Por ejemplo, sugerir cambios de ruta en
función del monitoreo de tráfico.
s) Soportar necesidad de servicios de audioconferencia y videoconferencia en
aumento por la ubicuidad de telefonía celular.
7. Se requieren avances en redes de sensores, para optimizar el manejo de energía,
enrutar paquetes en función de la ubicación del sensor y monitorear y dar
mantenimiento a estos sistemas de bajos recursos. Estos avances permitirán:
t) Censar variables ambientales en zonas protegidas para facilitar la toma de
decisiones relacionada con su preservación.
2Unbot,palabraderivadaderobot,esunprogramaquebuscainteractuarconpáginaseninternet.
16
u) Monitorear el comportamiento de infraestructura física, como puentes y edificios,
para preservar la integridad estructural de la obra civil por medio de un
mantenimiento adecuado.
v) Analizar información censada por automóviles para estimar tráfico, contaminación
vial y condiciones del camino, facilitadas por la comunicación intravehicular.
w) Permitir la interacción entre objetos instrumentados (interconexión de utensilios
cotidianos) a través de la comunicación entre objetos de la vida diaria que incluyen
capacidades de censado y comunicación con el usuario.
Demostrado lo evidente (el efecto multiplicador de los avances en la computación y las
telecomunicaciones), tal efecto es otra razón poderosa para invertir nuestros “pesos en la
investigación y el desarrollo tecnológicos” en las telecomunicaciones y la informática.
Es importante señalar que todo apoyo a estas dos áreas eventualmente rendirá frutos
en otros ámbitos. Pero, dada nuestra posición de país en desarrollo, el apoyo se debe
dirigir sobre todo a áreas que rindan frutos útiles al sector productivo, que resuelvan
problemas reales (de nuestro país, de nuestra industria, de nuestras empresas, de
nuestros gobiernos, de nuestra sociedad) que sustituyan importaciones de software o
equipo, que puedan ser aplicados.
QUÉ CONTIENE ESTE LIBRO
En el capítulo 2 se señala con bastante detalle y claridad qué áreas de la comunicación
digital merecen ser apoyadas. En él, David Muñoz nos pasea lúcidamente por un mundo
donde múltiples dispositivos móviles (e inmóviles) interactúan a través de diversos y a
menudo incompatibles canales de comunicación: vehículos automotores, dispositivos de
geoposicionamiento (GPS), la interconexión de utensilios cotidianos, tabletas, teléfonos
inteligentes. Un universo donde la mayoría de las máquinas se comunican con otras
máquinas, y sólo ocasionalmente con algún ser humano.
En el capítulo 3, Eduardo Castañón plantea la situación actual de las
telecomunicaciones (telefonías fija y móvil, televisión restringida, banda ancha fija, banda
ancha móvil), para señalar los principales retos y así basar sus recomendaciones, en la
que destacan acciones que el gobierno federal, la Cofetel, la SCT, el sistema jurídico, los
17
tribunales especializados, deben emprender para normar mejor las actividades y
competencias del sector de las telecomunicaciones, concesiones, permisionarios,
comercializadores de servicios, operadores de redes móviles virtuales (MVNO), operadores
de red fija, operadores preponderantes, servicio universal, servicios de datos para banda
ancha móvil, hilos de “fibra obscura” en la red de la CFE, telecomunicaciones a las
poblaciones pequeñas, satélites Mexsat, televisión digital terrestre (TDT), el derecho
constitucional a la banda ancha, entre otros.
Avances importantes en diversas áreas de investigación, como física de partículas,
observación oceanográfica, meteorología o análisis de secuencias de ADN, dependen del
procesamiento de enormes cantidades de información generada por estos instrumentos.
Para muchos de estos problemas el principal cuello de botella es la transferencia de los
datos.
En el capítulo “Infraestructura cibernética de alto desempeño para la era de los
grandes datos”, Larry Smarr destaca la importancia de invertir en infraestructura de
cómputo y telecomunicaciones para abordar algunos de los grandes retos científicos y
tecnológicos que demandan cómputo de alto desempeño a escalas no antes vistas.
México cuenta ahora con un enlace de 10 gigabits por segundo con Estados Unidos, lo
que nos permite hacer uso de la infraestructura de cómputo instalada en el Centro de
Supercómputo de la Universidad de California, en San Diego (UCSD), optimizada para el
análisis masivo de datos. Aprovechar esta infraestructura requiere invertir en la
interconexión de las universidades y centros de investigación mexicanos, que haga
factible transmitir los grandes volúmenes de datos generados en estos sitios, para su
procesamiento e integración con otras fuentes de información. El doctor Smarr presenta
algunos ejemplos de iniciativas que se desarrollan en la UCSD y que están impulsando el
desarrollo de su infraestructura de cómputo y transferencia masiva de datos. La
observación oceanográfica representa un ejemplo de este tipo de investigación. La
predicción climatológica requiere de datos obtenidos de distintas fuentes que
necesariamente están distribuidas, como pueden ser datos satelitales, y los provenientes
de boyas oceanográficas. A la vez, la información generada es muy sensible al tiempo, no
tiene sentido demorar 24 horas en predecir el clima de mañana. La investigación es cada
vez más interdisciplinaria y demanda esfuerzos supranacionales y el uso de
infraestructura de cómputo de alto desempeño. Para mantenerse como un participante
relevante de estos esfuerzos, México requiere invertir en su propia infraestructura, así
18
como desarrollar una estrategia que le permita disponer de la que se encuentra disponible
en el ámbito mundial.
En el capítulo “Retos y oportunidades de las comunicaciones ópticas y el
procesamiento digital fotónico”, primero Horacio Soto destaca la importancia de las
comunicaciones ópticas. Habla de cómo en los países desarrollados, la forma en que se
ha podido satisfacer la gran demanda de ancho de banda que exigen Internet y las redes
móviles, es repartiendo los datos e intercomunicando las células inalámbricas a través de
fibras ópticas. De hecho, el doctor Soto afirma que hoy en día las comunicaciones ópticas
se han convertido en la columna vertebral de todos los otros sistemas de comunicaciones,
y son el conducto mediante el cual se distribuye la mayor parte del tráfico de
telecomunicaciones. Destaca que las razones de este fenómeno se basan en el hecho de
que las fibras ópticas presentan un gran ancho de banda (100 Tb/s), bajas pérdidas,
inmunidad a interferencia electromagnética, alta seguridad, buen rango de temperaturas
de operación, etcétera. Actualmente las fibras ópticas, y por tanto los sistemas de
comunicaciones fotónicos, son explotadas en un 15% de su capacidad, por lo que para
aprovechar su gran potencial es necesario efectuar esfuerzos importantes de
investigación y desarrollo (I+D). En particular, es fundamental desarrollar las futuras redes
de multicanalización densa por división en longitud de onda (DWDM) y las redes totalmente
ópticas con procesamiento digital fotónico. Este último tema da pie para que el doctor
Soto hable de la relevancia mundial que tendrá la nanofotónica integrada en silicio y de la
revolución tecnológica que está gestando al poderse integrar dispositivos fotónicos con
electrónicos. Como ejemplo, el doctor Soto muestra los destacados avances en
computación híbrida que están haciendo compañías como IBM e Intel. El doctor Soto
estima que México tiene potencial para convertirse en un actor mundial relevante en los
sectores de las comunicaciones ópticas, el procesamiento fotónico y la nanofotónica
integrada en silicio y plantea la gran oportunidad que tiene nuestro país de producir
riqueza en estos campos, vinculando a la academia con la empresa.
El capítulo 6 se dedica fundamentalmente a señalar las áreas de la computación
que conviene impulsar, desde un punto de vista aplicativo: cuáles áreas pueden, a juicio
de Adolfo Guzmán, rendir fruto en el corto y mediano plazos, y por qué o cómo. Como
contrapeso a esos señalamientos, el doctor Guzmán lista los principales obstáculos y
rémoras que estorban el florecimiento amplio de la informática en México.
El capítulo 7 es muy interesante. Aquí, Enrique Sucar nos hace una breve historia
de los sistemas inteligentes, hasta traernos al presente: robots de servicio, reconocimiento
19
de personas, etcétera. Y al final, de manera lúcida, el autor nos muestra una visión del
futuro de la inteligencia artificial, que es la “punta de lanza” de la computación. Aquí
resaltamos su conclusión:
Los sistemas inteligentes son una pieza clave para resolver muchos de los grandes retos
nacionales y mundiales:
1. Seguridad: sistemas de visión artificial, vehículos autónomos, planeación.
2. Biomedicina: sistemas de diagnóstico, análisis de imágenes médicas, minería de
datos.
3. Educación: tutores inteligentes, sistemas para búsqueda de información, laboratorios
virtuales.
4. Energía: reconocimiento de patrones, aprendizaje, sistemas de apoyo en la toma de
decisiones.
5. Información: sistemas automáticos para la búsqueda y análisis de grandes volúmenes
de información multimodal.
Fabián García Nocetti dedica el capítulo 8 a delinear una nueva era de la computación
en México. En una sección medular de su análisis, titulada “Retos y estrategias a
impulsar”, nos habla de los seis grandes retos identificados por numerosos investigadores
mexicanos reunidos para este propósito:
• GR 1: información relevante para la toma de decisiones
• GR 2: TIC para biomedicina (mejoramiento de la salud de la población en general)
• GR 3: TIC y educación en el siglo XXI
• GR 4: seguridad y transparencia en la información y en los servicios
• GR 5: ambientes inteligentes para ayudar a solucionar problemas de grandes
ciudades
• GR 6: servicios basados en el conocimiento para el ciudadano
En el capítulo 9, Édgar Chávez hace un paralelismo entre innovación, emprendimiento
e investigación básica en ciencias de la computación y la relación que existe entre
matemáticas, física teórica y física experimental. Describe el rol que ha tenido México en
el desarrollo de la tecnología de cómputo y el modesto papel que ha desempeñado tanto
en la creación como en la adopción de esta tecnología. Su tesis es que se puede
establecer un círculo virtuoso que potencie el desarrollo de todas estas actividades
20
tomando medidas simples, relativamente baratas y efectivas. Esto tiene que ver con
impulsar la investigación básica y la formación de recursos humanos de alto nivel, que
son los verdaderos motores de la innovación. Como afirma el autor: “si [un problema] se
puede resolver sólo programando, entonces no es un emprendimiento tecnológico”. Quizá
como respuesta a su propuesta o porque la idea maduró de manera independiente, en el
año 2014 el Conacyt lanzó una convocatoria para cátedras nacionales para jóvenes
investigadores; que sin duda será un impulso a la investigación científica y el desarrollo
tecnológico. Otras propuestas, como el Centro Nacional de Datos, la nube mexicana, o el
Instituto Nacional de Ciencia y Tecnología con una misión complementaria a los apoyos
monetarios puntuales para proyectos, suenan igualmente seductoras. Tomar estas
medidas a tiempo enriquecerá el panorama, tomarlas tarde o dejarlas de lado puede tener
resultados sombríos.
En el capítulo “Las TIC como ciencia emergente y herramienta para el desarrollo de la
ciencia en México”, Sergio Carrera y Juan Carlos Téllez, resaltan la importancia de las
tecnologías de información y comunicación, así como su carácter transversal en apoyo a
las ciencias. Proponen fomentar la formación de investigadores en este campo
potenciando la curiosidad científica desde la edad temprana. Asimismo, enfatizan la
necesidad de alinear el trabajo de investigación y desarrollo con las necesidades del país
y crear instancias multiplicadoras de emprendedores tecnológicos. Los autores también
proponen dar al Conacyt un rol prospectivo que guíe los esfuerzos de investigación y
desarrollo para resolver los grandes retos que enfrenta el país, y a la vez como una
entidad reflexiva, a manera de un laboratorio de ideas.
La situación de la investigación en ciencias de la computación en México es analizada
por Carlos Coello en el capítulo 11. Se trata de un área joven con un número aún escaso
de investigadores activos. Uno de los problemas que se ha encontrado para que esta área
sea reconocida en el sistema de investigación nacional, es que su clasificación en la
taxonomía tradicional de áreas científicas es esquiva. Esto contrasta con la matrícula a
nivel licenciatura y la oferta de posgrados de calidad reconocida. El doctor Coello discute
algunas deficiencias del sistema de evaluación de la investigación en México, que
favorece criterios cuantitativos sobre los cualitativos y no toma en consideración las
publicaciones en congresos arbitrados, que en el caso de las ciencias de la computación
son productos muy valorados. También señala la importancia de establecer, tanto en lo
individual como lo colectivo, una visión de investigador y comunidad científica
consolidada. En particular, resalta la importancia de influir en las políticas científicas
21
nacionales en las áreas de competencia de las ciencias de la computación. Establece
como un área de oportunidad el trabajo multidisciplinario en donde necesariamente incide
la computación: áreas como la bioinformática y las ciencias atmosféricas. El autor cierra
su reflexión preguntándose si estamos preparados para ser líderes en el ámbito mundial
en alguna de las disciplinas de la computación y si la creación de centros de investigación
dirigidos a las ciencias de la computación pueden ser un catalizador para lograrlo.
22
ÁREAS Y OPORTUNIDADES PARA EL DESARROLLO DE LAS
COMUNICACIONES: COMUNICACIÓN DIGITAL
David Muñoz Rodríguez*
Una de las características del ser humano es su capacidad para comunicarse de maneras
sofisticadas con otros individuos. Esta comunicación implica la adquisición de
conocimiento o información, así como la capacidad para procesar y almacenar esta
información. Ejemplo de estos procesos son las pinturas rupestres, la escritura cuneiforme
de Mesopotamia y los códices, sean egipcios o mayas, que servían para almacenar
información que sería compartida no sólo con generaciones inmediatas sino serviría como
referencia a civilizaciones posteriores.
Figura 1. Sistema temprano de almacenamiento de información.
Estas técnicas de almacenamiento han progresado lentamente, siglos después de
la invención de la imprenta, en la actualidad evolucionan de manera acelerada, y ahora es
posible almacenar grandes volúmenes de información en diminutos dispositivos
*Centro de Electrónica y Telecomunicaciones, Instituto Tecnológico y de Estudios Superiores de Monterrey.
23
electrónicos. Cabe destacar que diferentes tecnologías se distinguen por la persistencia
de la información almacenada y la rapidez con que se puede recuperar. De cualquier
forma, como tendencias generales podemos decir que la densidad de información por
unidad de área va en aumento, a la vez que el costo de almacenamiento decrece.
En ocasiones, el almacenamiento de información llevó a ciertas prácticas muy
elitistas, como la salvaguarda de mapas de navegación que en su momento fueron
considerados información estratégica para fines comerciales o militares. Otros esquemas
se ejemplifican con la biblioteca que los Tolomeos (I, II y III, quienes gobernaron Egipto en
el siglo III a.C.) crearon y desarrollaron en Alejandría, y cuya tradición ha sido recogida en
las grandes bibliotecas de diferentes países, cuyos esquemas de amplia difusión de la
información se vio aumentada con la invención de la imprenta, y hoy día apoyada también
por medios de almacenamiento óptico y electrónico.
Si bien la existencia de las grandes bibliotecas y centros de almacenamiento de
información perdurarán durante mucho tiempo, no hay duda de que los avances en
tecnología de compresión y almacenamiento de información, técnicas de despliegue, junto
con avances tecnológicos en comunicación, han modificado totalmente nuestras prácticas
de acceso a la información. Ejemplo de esto es la proliferación de libros y revistas
electrónicas e información en la nube, de manera que se puede acceder a todo ello desde
cualquier ubicación mediante una variedad de equipos electrónicos.
Es importante destacar que, en general, el proceso de comunicación se limita a
entes que sean compatibles con los protocolos de intercambio de información. Ejemplo de
esto son el establecimiento de comunidades sociales y económicas que mantienen
afinidades lingüísticas, culturales, económicas, etcétera.
Una de las características de la sociedad actual es la movilidad que se da a
diferentes escalas en distintos estratos de una comunidad. Si bien la movilidad se puede
referir a la capacidad de desplazamiento de individuos, ahora el concepto de movilidad
también incluye dispositivos, bases de datos, aplicaciones, entre otros. De esta manera,
las comunicaciones son un elemento de cohesión social que producen nuevas formas de
educación, socialización, esparcimiento, mercado y empresa.
Con el propósito de lograr una mejor administración de los recursos de
comunicación, es conveniente conocer en alguna medida los dispositivos de
comunicación. Este conocimiento también potencia el despliegue de nuevos servicios
basados en comunicaciones, lo que a su vez fomenta el desarrollo de tecnologías de
24
localización que satisfagan diferentes grados de precisión, dependiendo de la aplicación
que se utilice.
Figura 2. Algunos requerimientos de precisión en localización. Faltan créditos y
explicaciones. No es legible.
Cuando nos referimos a tecnología de comunicaciones, éstas son muy diversas.
Algunas de ellas no por antiguas dejan de ser vigentes, otras corresponden a
descubrimientos e inventos más recientes, y en todos los casos es necesario establecer,
entre otros criterios, el balance costo-beneficio de cada tecnología de acuerdo con su
precio de mercado, disponibilidad, madurez y confiabilidad, aplicaciones o soluciones que
aporta, contexto, así como el tamaño real y proyectado del mercado.
También es necesario hacer notar que con frecuencia una tecnología coexiste con
otras opciones, lo cual modifica mutuamente los pros y contras de una solución, al tiempo
que se enfrentan con tecnologías emergentes que competirán, en un escenario
extremadamente dinámico, por un segmento de algún mercado establecido y/o
segmentos de nuevos mercados y aplicaciones.
Manejo de Asignacion
Cargos por llamada Seleccion del Servicio
Rastreo
Monitoreo Personal Monitoreo de Emergencias Deteccion de
Intrusos Poscion Precisa Servicios de 911
Ayuda y Asistencia
Comunicacion movil
Busqueda de Amigos Inventario de
Rastreo Pago de la cuota del Auto Asistencia del servicio del
seguro del Auto Manejo de flota Área Restringida
Informacion de Trafico Control del trafico e informacion
de carreteras Juegos y Apuestas Sitios de Interes
Determinacion de horario Anuncios , noticias y transmision de
informacion
25
Figura 3.
Cambiar las preguntas así:
¿Cómo alteran mi circunstancia las entidades que me rodean?
¿Cómo altero la circunstancia de mis vecinos?
El filósofo José Ortega y Gasset postulaba la existencia en términos de nuestra
relación con el mundo que nos rodea y decía: “yo soy yo y mi circunstancia”. Esta máxima
también se puede aplicar a un entorno tecnológico, donde múltiples dispositivos
interactúan entre sí compartiendo y demandando información de diferentes vecinos que
definen una circunstancia. Los humanos podríamos tener una existencia “intensa” en la
medida que modificáramos o incidiéramos en el entorno que nos rodea. Un dispositivo,
independientemente de su capacidad de almacenamiento y/o procesamiento, puede tener
una existencia inadvertida debido a su incapacidad para interactuar o comunicarse con
otros nodos. Esta comunicación demanda una concurrencia de tecnologías y protocolos
compatibles, aspectos regulatorios, necesidades y mercados. Cuando analizamos la
ciencia en México es importante, sobre todo en el área de tecnologías de la información,
entender el contexto global de la telecomunicaciones.
El término global debe entenderse no sólo desde un punto de vista geográfico,
también es necesario incluir la complejidad de interrelaciones científico-tecnológicas, las
necesidades de mercado, los recursos humanos, los aspectos de regulación y tendencias
26
en nuevos servicios y la demanda de información. De manera que aportaciones
desarrolladas en México puedan posicionarse no sólo en el contexto nacional, sino
también en sectores o nichos tecnológicos, de servicios o comerciales en un mercado
global.
Ante una diversidad muy amplia de tecnologías de la información y las
comunicaciones es necesario evitar lo que podría llamarse un desarrollo errático, por lo
que lo más deseable es tener proyectos que den una directriz al trabajo de investigación y
desarrollo en TICs. No se trata de desechar iniciativas novedosas o prometedoras, se trata
más bien de agrupar las actividades de una manera coherente que permita efectos
multiplicadores en áreas de afinidad temática con metas a corto, mediano y largo plazos.
La ventaja de esto se ha documentado a partir de diferentes proyectos, como el
proyecto Apolo o el Manhattan, entre otros, que permitieron aglutinar esfuerzos y
canalizar recursos de manera sinérgica en torno a una meta.
La idea fundamental es definir un proyecto vertebral que permita agrupar una
variedad de tecnologías concurrentes que fortalezcan el desarrollo disciplinario y
multidisciplinario, pero con metas objetivas y cuantificables en tiempo y recursos que
hagan posible auditar el desarrollo del proyecto, el cual implicará obtener subproductos
relevantes desde diferentes perspectivas: aportaciones desde un punto de vista científico,
tecnológico o comercial, así como la formación de recursos humanos en áreas
estratégicas.
En todo caso, paralelamente a la definición del proyecto guía y sus metas, se
habrán de definir los recursos humanos y financieros para el desarrollo del proyecto, así
como dejar claras las metas principales, las calendarizaciones asociadas, así como sus
subproductos y su valor. Todo esto junto con el entendimiento de los riesgos en un
contexto de continuo cambio tecnológico.
27
Figura 4
Intentando entender el complejo contexto de las tecnologías de la información y las
comunicaciones, uno de los indicadores de las tendencias de desarrollo y mercado que
podemos mencionar es que en 2010 se reportaban cerca de mil millones de vehículos
automotores terrestres. Se encuentra en desarrollo y en implantación las primeras fases
de lo que se conoce como ITS (sistemas inteligentes de transporte, por sus siglas en
inglés), donde los diferentes vehículos cuentan con una amplia capacidad de
interconexión de dispositivos intravehiculares, así como conexión con vehículos vecinos
(conexión intervehicular) e incluso conexión con puertos fijos o puntos de acceso, lo que
potencia opciones que permiten incrementar el nivel de seguridad de conductores y
pasajeros ampliando el mercado de aplicaciones asociadas al mercado automotriz.
SUBPRODUCTOS
PROYECTO
GUIA (CIENTIFICOS, TECNOLOGICOS,
PRODUCTOS, SERVICIOS,ETC )
SECTOR ACADÉMICO,
SECTOR INDUSTRIAL, SERVICIOS,
ENTIDADES GUBERNAMEN
TALES. ETC. DISCIPLINA
S Y
TECNOLOGIAS
CONCURRENTES
28
Figura 5. Alrededor de mil millones de automóviles circulaban en el año 2010
Por otra parte, en 2010 BBC indicó la existencia de más de cinco mil millones de
usuarios de tecnología celular; y ese mismo año la Unión Internacional de
Telecomunicaciones (UIT) reportó más de dos mil millones de usuarios de Internet.
Esta gran proliferación de dispositivos de comunicación demanda grandes
esfuerzos dirigidos a contar con arquitecturas de red apropiadas con interfaces que
aseguren compatibilidad entre redes y dispositivos, al tiempo que se cumple con aspectos
regulatorios que no son uniformes, pues cambian de un país a otro.
Una tendencia adicional, entre otras, que plantea escenarios de crecimiento
acelerado con aplicaciones diversas, es la generada por la llamada internet of things,
donde dispositivos como sensores y actuadores cuentan con direcciones IP, así como con
capacidad de intercomunicarse. Así, las redes de comunicación resultantes prometen la
creación de nuevos modelos de negocios, así como hacer más eficientes los procesos y
reducir los costos. El internet de las cosas, llamado convencionalmente en inglés Internet
of Things (IoT), y que aquí traducimos como interconexión de utensilios cotidianos,
anticipa aplicaciones en diferentes sectores, como el de transporte, seguridad pública y
privada, construcción, energía, hogar y electrodomésticos, salud, sector industrial y de
ventas, así como servicios basados en la localización. Otras tendencias incluyen el
mercado de dispositivos móviles que indicó no sólo un número muy grande de usuarios
de teléfonos celulares, también predijeron que este número seguiría en crecimiento y que
durante 2013 la cantidad de teléfonos móviles superaría el número de PCs.
Para el año 2015 más de 80% de teléfonos móviles serán del tipo “inteligente”, y
las ventas de tabletas representará 50% del número de laptops. Es importante señalar
que el crecimiento de la cantidad de dispositivos móviles no sólo representa un aumento
en el mercado de dispositivos, sino que conlleva demandas de un mayor número de
puntos de acceso, aumento de enlaces de comunicación, nuevas demandas de seguridad
29
y privacidad, mayor velocidad de procesamiento en centros nodales o de red, todo lo cual
apoya la gestación de nuevas aplicaciones que a la vez demandan mayor ancho de
banda.
En cuanto al creciente número de aplicaciones móviles, se anticipa que el número
de proveedores en este rubro crecerá sin que alguno llegue a ser dominante. Mientras
que se experimentará una fuerte migración a servicios basados en la nube.
Crecimiento de teléfonos inteligentes y tabletas: la explosión en el aumento de
estos dispositivos está obligando a los operadores de telefonía celular y a otras empresas
a competir por un pedazo del mercado inalámbrico de video y comercio, para con ello
obtener billones de dólares para expandir el ancho de banda inalámbrico. Como un
indicador del crecimiento que se anticipa, se puede mencionar un nuevo pronóstico de
tráfico IP emitido por Cisco, que afirma que en 2013 el tráfico IP global anual llegará a dos
tercios de un zettabyte (billones de gigabytes); ese número representa un aumento de
más de cinco veces en el tráfico actual.
No obstante la coexistencia de diferentes generaciones de tecnologías celulares,
se espera que 4G (LTE) juegue un papel clave en la convergencia de los dispositivos
electrónicos, incluidos teléfonos inteligentes, tabletas y computadoras personales móviles.
De acuerdo con varios informes, se espera que el crecimiento de los suscriptores globales
de LTE se incremente en un factor de 70 para el año 2016.
30
Figura 6. Estimación de crecimiento de suscriptores 3G y 4G.
El crecimiento de sistemas Wi-Fi (Wireless Fidelity: redes locales inalámbricas)
anticipa que, debido al aumento global de teléfonos inteligentes y tabletas, se tenga una
subida global en el mercado de dicho sistema. Y como ejemplo: el número de puntos de
acceso Wi-Fi podrá crecer de 1.3 millones de dólares en 2011 a 5.8 millones en 2015.
Desde mediados del año 2012, las celdas pequeñas han sido utilizadas no sólo
para proveer servicio en localidades remotas, sino también para expandir la capacidad de
datos en localidades urbanas congestionadas. Estas dichas celdas son más inteligentes,
más baratas y menos obstructivas que las celdas tradicionales.
En 2013 los operadores desplegaron dichas celdas en una cantidad sin
precedentes. De acuerdo con Nick Marshall, de ABI Research, los embarques globales de
celdas pequeñas superarán los dos millones para 2016, principalmente diseñadas para
esquinas de ciudades congestionadas, pero también se desplegarán las celdas pequeñas
para casas, centros comerciales, estadios, negocios, entre otros, las cuales superarán los
37 millones.
Figura 7. Escenario celdas pequeñas.
ANCHO DE BANDA: UN CUELLO DE BOTELLA
31
De acuerdo con Cisco Systems, el tráfico global se ha venido incrementando año tras
año, y Nokia Siemens Networks ha advertido que el tráfico móvil se incrementará 1 000
veces para el año 2020, al mismo tiempo que ha disminuido el crecimiento de los IXP
(puntos de intercambio de internet), lo cual representa una limitante sobre todo cuando la
demanda global de ancho de banda para internet está creciendo exponencialmente.
Este desafío tiene varios frentes desde el punto de vista tecnológico, económico,
de dispositivos de usuario y de hardware. Por ejemplo, diversos informes indican que el
hardware en el corazón de internet no es suficientemente rápido. Las siguientes gráficas
indican la necesidad de mayores anchos de banda y, en particular, se indica que en el
ámbito mundial el crecimiento de la capacidad instalada es más bajo que los
requerimientos de usuarios.
32
Figura 8. Falta título /créditos
Figura 9.
La selección de un proyecto guía requiere de un cuidadoso análisis de prospectiva
tecnológica y evaluación de los recursos disponibles, así como de planificación de metas.
Sin embargo, a manera de ejemplo planteamos como proyectos cinegéticos ITS (intelligent
transportation systems) y PLC (power line communication), este último se refiere a la
transmisión de información en las líneas de suministro eléctrico. En su concepción inicial
se pretendía llegar a hogares con propósito de telemetría y posteriormente llevar servicios
de internet y televisión a usuarios residenciales.
Siendo la red de suministro de energía eléctrica una de las de mayor penetración y
cobertura, el concepto de PLC se puede extender como soporte para una red ITS que
tendría millones de usuarios, proporcionando la columna vertebral de amplia cobertura.
Este concepto implica desafíos, como establecer un protocolo de comunicación
compatible con las recomendaciones de ITS (bandas de frecuencia, entre otros), así como
aspectos regulatorios que permitan usar las líneas de suministro eléctrico y alumbrado
33
urbano para PLC. También será necesario caracterizar el canal de comunicaciones para el
escenario ITS/PLC (doppler, desvanecimientos, condiciones de propagación y cobertura en
las bandas para ITS) a la vez que se desarrollan en paralelo aplicaciones para este
sistema. Es claro que ya hay avances en otros países, además del compromiso de la
industria automotriz para un amplio despliegue de sistemas ITS a partir del año 2015.
Como un indicador del mercado potencial, cabe mencionar que en unos años el
parque vehicular en México será del orden de 30 millones de automotores. Si bien los
autos nuevos serán los que cuenten con capacidades para ITS,el parque vehicular
existente puede ser servido con unidades diseñadas a la medida, lo que producirá
también un mercado muy amplio de dispositivos de adaptación para los automotores de
generaciones previas.
Figura 10.
34
Figura 11.
RESUMEN
El sector de las tecnologías de la información y las comunicaciones es de los más
complejos por las múltiples aplicaciones y servicios, la confluencia de tecnologías,
mercados, regulación (que es tema actual de debate en los foros de legislación en nuestro
país), preferencias de usuarios, entre otros.
Junto con las fuerzas del mercado que operan en el país, es necesario elaborar
proyectos guía de mediano y largo plazos que definan rutas de crecimiento en el área de
las tecnologías de la información y las comunicaciones, dirigidas a áreas de sinergia,
medios suficientes en términos de recursos humanos, monetarios y tiempo.
Es importante que la asignación de recursos y compromisos puedan ir
acompañados de prácticas de gestión apropiada, y que de ninguna manera se planea
llevar el desarrollo de las comunicaciones del país a un estado estático. Sino que el
desarrollo de los proyectos estratégicos se dará paralelamente al desarrollo de la industria
de las tecnologías de información y telecomunicaciones del país. Buscando en todo
35
momento el mejor efecto educativo, científico, tecnológico, social, político, económico y de
mercado.
36
PERSPECTIVAS, RETOS Y OPORTUNIDADES DE LAS
TELECOMUNICACIONES EN MÉXICO
Eduardo Castañón Cruz*
ANTECEDENTES
Mercado demográfico En México existen aproximadamente 188 mil ciudades, villas o poblaciones. De éstas, 184
mil son rurales y 3 600 son urbanas. Solamente 600 cuentan con más de 15 mil
habitantes. La localidad promedio rural cuenta con 130 habitantes, son poblaciones
pequeñas y dispersas que representan un reto enorme al tratar de llevarles servicios de
telecomunicaciones. Los ingresos del sector de telecomunicaciones en México
ascendieron a alrededor de 26 600 millones de dólares en 2009.
ESTADO ACTUAL DE LAS TELECOMUNICACIONES
Telefonía fija En el ámbito mundial, la telefonía fija alcanzó su máximo en el año 2006, y en los países
de la OCDE en 2001, año este último a partir del cual el servicio viene decreciendo a razón
de 2% anual en los países desarrollados.
*
37
Gráfica 1. Líneas de telefonía fija y penetración en México.
Hasta el año 2000, Telmex tuvo el monopolio de la telefonía local y hasta el año de
1977 el monopolio de larga distancia nacional e internacional. Actualmente ostenta más
de 70% de participación en ambos mercados.
Gráfica 2. Participación de mercado de telefonía fija, 2012.
38
La telefonía fija en México es un mercado en competencia que no requiere utilizar
mecanismos de subsidio, y como otros servicios —por ejemplo, el telégrafo— ha
comenzado su proceso de remplazo en todo el mundo, y nuestro país no es la excepción.
En México existen actualmente 19 concesiones y nueve autorizaciones de telefonía fija
local, así como 33 concesionarios y 38 comercializadoras de larga distancia vigentes. Con
la aparición de otros servicios, la participación del servicio de larga distancia en los
ingresos del sector ha disminuido: pasó de representar 35% en 1999 a 8% en 2011.
Fuente: Cofetel.
Gráfica 3. Participación de la larga distancia en los ingresos de telecomunicaciones.
A pesar de los esfuerzos de apertura, competencia e inversión, México se localiza
en un rango medio en términos de teledensidad entre los países del continente
americano.
39
Fuente: Banco Mundial.
Gráfica 4. Teledensidad fija en América, 2010.
En número total de líneas fijas, México ocupa el octavo lugar en la OCDE, pero el lugar 34
en líneas fijas por cada 100 habitantes. La penetración promedio en países de la OCDE es
de 37%. Telmex, el operador incumbente de servicios de red fija, ocupa el lugar 30 en la
OCDE, comparable con operadores Telecom de Grecia o Portugal. A pesar de las
reducciones, los precios de la telefonía fija en México aún son de los más caros entre los
países de la OCDE, comparables con la República Checa, Hungría, Australia y Portugal,
entre otros.
Telefonía móvil La telefonía móvil inició operaciones en México en 1989 en la Ciudad de México, con la
empresa SOS Telecomunicaciones, antecedente del operador Iusacell. Se dividió al país
en nueve regiones con dos operadores por región, operando en la banda de 850 Mhz con
tecnología AMPS. En el ámbito nacional, la banda B se reservó a Radiomóvil Dipsa (Telcel,
filial de Telmex). La banda A se entregó a los diferentes concesionarios en las nueve
40
regiones del país. Hasta 1995 se mantuvo un régimen de regulación gubernamental de
precios. En 1998 se realizaron subastas de la banda de PCS (1900 Mhz), lo cual permitió
la entrada de dos nuevos operadores.
Durante el desarrollo de este servicio se pueden distinguir las siguientes etapas:
de 1989 a 1998 el servicio se expandió en estratos sociales de altos ingresos; de 1999 a
2008 se observó una etapa de maduración y difusión masiva. El número de líneas en
servicio aumentó en 874%, alcanzando 94.6 millones de abonados con un crecimiento
medio anual de 28.8%. En esta etapa de acelerado crecimiento se implantó la modalidad
“el que llama paga”, que propició llevar la telefonía a los sectores de bajos ingresos. A
partir de 2009 se observa un menor ritmo de crecimiento, que puede atribuirse al efecto
de la crisis económica y a la drástica reducción en las tarifas de interconexión móvil que
ha obligado a los operadores a rediseñar sus ofertas.
Fuente: Cofetel.
Gráfica 5. Líneas y teledensidad de telefonía móvil en México.
A pesar del gran desarrollo de la telefonía móvil en América Latina, México se
ubica en los últimos lugares en este rubro, debido, entre otras circunstancias, a lo elevado
41
de las tarifas celulares. Aspecto de principal importancia lo constituye la distribución del
espectro entre los operadores móviles.
En las últimas subastas realizadas en el año 2010, la Comisión Federal de
Competencia (Cofeco) estableció un límite de acumulación de espectro a 80 Mhz por
operador, quedando sin asignar 30Mhz en las bandas 1700/2100 Mhz. La participación
del mercado de telefonía móvil en 2012 es la siguiente:
Por lo que toca a las tecnologías de acceso al servicio móvil, Telcel, Iusacell y
Telefónica utilizan tecnologías GSM y HSPA. Iusacell cuenta además con una red CDMA-
EVDO. Nextel cuenta con tecnología iDEN y está desarrollando su nueva red HSPA.
42
Asimismo, está en proceso de lanzamiento la tecnología LTE por parte de varios
operadores. En el sector de la telefonía móvil, México se ubica en el quinto lugar de los
países de la OCDE en el número de suscriptores; pero en el lugar 33 en número de
abonados por cada 100 habitantes. Los precios de la comunicación móvil en México,
aunque han mejorado, superan el promedio de los países de la OCDE en casi todos los
casos, a pesar de la diferencia en el nivel de ingresos de los suscriptores. Del mismo
modo, es necesario destacar que en México los precios del roaming internacional son
sumamente altos, comparados con los de los usuarios en los países de la OCDE.
Televisión restringida En México, la televisión restringida (o de paga) se considera un servicio de
telecomunicaciones y, por tanto, se rige por la Ley Federal de Telecomunicaciones y por
el reglamento de la materia. Básicamente existen tres medios de distribución de las
señales de audio y video: por radiodistribución terrestre, por cable (coaxial o fibra) y por
satélite. De acuerdo con datos proporcionados por la Cofetel, existen unas mil
concesiones de televisión por cable, las cuales se han ido consolidando en unos pocos
grupos empresariales. A partir del Acuerdo de Convergencia de 2006 que permitió a los
concesionarios ofrecer servicios de datos y voz, su crecimiento de mercado ha sido
importante. En radiodistribución terrestre (MMDS) operan 81 concesiones en la banda de
2.5 Ghz que pertenecen a 11 grupos empresariales, el principal es MVS, que cuenta con
42 de las 68 concesiones vigentes. Varias de estas concesiones han vencido y las últimas
lo harán en el año 2020.
Es importante señalar que estas bandas se encuentran actualmente en conflicto,
debido a que en agosto de 2012 la Secretaría de Comunicaciones y Transportes (SCT)
inició un proceso de rescate para cambiar su uso a banda ancha inalámbrica y proceder a
subastarla. Existen seis concesiones para televisión vía satélite (DTH), de las cuales
solamente operan dos: Sky (de Televisa) y Dish (de MVS). En diciembre de 2011 el
servicio de televisión vía satélite contaba con aproximadamente 11.5 millones de
suscriptores, que corresponde a una teledensidad global de 10%. Esta modalidad de
servicio ha crecido a un ritmo promedio superior a 13% anual.
43
Fuente: Cofetel.
Gráfica 6. Usuarios de televisión restringida.
Según fuentes oficiales, en el año 2010 se tenía una penetración del servicio de
televisión de paga en 27.2% de los hogares mexicanos. En resumen: los principales
operadores son Televisa (Sky, Cablevisión, Cablemás y TVI) con 54% del mercado. Dish
ostenta el 17% de los usuarios y 10% de los ingresos. Megacable es el tercer operador en
importancia.
Tabla 3.
44
Se pronostica que para el año 2017 el mercado latinoamericano estará dominado
por DTH con 61%, televisión por cable digital con 28% e IPTV con 6%. Como ya se
presenta en el mercado, las redes de televisión por cable que digitalicen el acceso, son un
buen vehículo para llevar la banda ancha a los hogares a un mejor nivel de precio. La
televisión por IP (o video en demanda) y la televisión digital terrestre (TDT) pueden ser
fuertes competidores y futuros sustitutos de la televisión restringida o de paga.
Banda ancha fija Según datos confiables, el hogar es el primer lugar de conexión a internet para 50% de la
personas, seguido por el trabajo con 22%, un cibercafé con 20% y, finalmente, la escuela
con 8%. En la actualidad hay 25 licencias para redes nacionales de datos y muchas
autorizaciones para ofrecer servicios de acceso a internet. Sin embargo, como su
distribución geográfica no es uniforme, existen miles de localidades sin acceso. La UIT
define la banda ancha fija y móvil como aquélla que se ofrece al menos a 256 kbps en
bajada o subida. En algunos países la velocidad que se ofrece es de 100 Mbps.
La banda ancha fija alcanzó en diciembre de 2011 una teledensidad de 11% con
más de 12.5 millones de conexiones en todo el país, lo que registra un incremento de
56% en los últimos cuatro años. Los principales proveedores de acceso a internet son
Telmex con 72% de participación de mercado, Megacable, Cablemás y Cablevisión con
16% y Axtel con 4%. En conjunto concentran más de 92% del mercado y han comenzado
a instalar FTTH (fibra hasta el hogar).
45
Fuente: Cofetel.
Gráfica 7. Accesos fijos a internet por tecnología.
A pesar de múltiples esfuerzos, México presenta una muy baja penetración de
usuarios de internet y se encuentra por debajo de países de menor desarrollo.
Gráfica 8. Densidad de usuarios de internet en América, 2008 y 2010.
En términos de penetración de banda ancha, México aún presenta deficiencias al
ofrecer velocidades de acceso bajas a un número todavía reducido de usuarios.
46
Fuente: speedtest.net.
Gráfica 9. Velocidad promedio de bajada (mbps), 2010 y 2012.
47
Fuente: Banco Mundial.
Gráfica 10. Densidad de banda ancha, 2010.
Según el INEGI, en México en 2011, 30% de los hogares contaba con una
computadora y sólo 23.3% estaba conectado a Internet. En algunos hogares no pueden
pagar las tarifas actuales, demasiado altas respecto a sus ingresos. En los últimos cinco
años la cantidad de computadoras en los hogares ha pasado de 5.9 millones a nueve
millones, lo que representa un crecimiento de 11% anual, aún menor al de otros países de
Latinoamérica.
48
Fuente: INEGI.
Gráfica 11. Penetración de computadoras e internet en México.
Banda ancha móvil Las características esenciales de la banda ancha móvil son la personalización, la
inmediatez de respuesta y el nomadismo. En el ámbito internacional se considera la
banda ancha móvil con accesos de datos a velocidades superiores a los 512 kbps,
utilizando tecnologías UMTS/HSPA (3G y 3.5G) y próximamente LTE (4G). Según datos de
la Cofetel, en junio de 2012 existían unas 9.7 millones de conexiones de banda ancha
móvil, cifra muy semejante al total de conexiones de banda ancha fija. En los países de la
OCDE se considera la banda ancha móvil como un complemento muy importante de la
banda ancha fija.
PRINCIPALES RETOS
La falta de competencia efectiva en materia de telecomunicaciones ha propiciado
mercados poco eficientes que imponen costos significativos a la economía mexicana y
que inciden negativamente en el bienestar de la población.
49
El sector se caracteriza por precios altos, de los más elevados entre los países de
Latinoamérica con características semejantes a las de México, e incluso entre los países
de la OCDE.
Lo anterior trae como consecuencia una baja tasa de penetración de los servicios
y un pobre desarrollo de la infraestructura necesaria para prestarlos.
El mercado mexicano está dominado por una sola compañía que ostenta 80% del
mercado de la telefonía fija y 70% del de la telefonía móvil.
Después de la consolidación del mercado de televisión por cable, el mercado
nacional quedó en manos de un muy reducido número de empresas proveedoras de los
servicios.
En servicios de telefonía fija, móvil y de banda ancha México se encuentra entre
los últimos lugares de los países de la OCDE.
México ocupa el último lugar en términos de inversión per cápita en materia de
telecomunicaciones.
El organismo regulador, la Cofetel, carece de suficientes facultades y autonomía
para ejercer de forma eficiente sus atribuciones y facultades.
La falta de una división clara entre la formulación de políticas y las funciones de
regulación ha multiplicado la interposición de recursos y de impugnaciones legales y ha
creado confusión en el sector.
En México las decisiones a favor de la competencia han surgido con lentitud, y una
vez tomadas han sido frustradas por las ineficiencias de los sistemas de regulación y
legal.
Una de las principales barreras para la competencia es que las decisiones
regulatorias no se llevan a cabo o su aplicación es suspendida por los tribunales.
Los operadores dominantes se han favorecido del débil marco institucional vigente
al abusar del actual sistema de amparo mexicano.
En México hay un gran número de áreas donde los eventuales nuevos
participantes del mercado no cuentan con infraestructura y la conexión con otras redes es
costosa.
Es urgente armonizar en el marco regulador de México, la convergencia de las
telecomunicaciones y los servicios audiovisuales. En este sentido es conveniente acelerar
la implementación de la televisión digital terrestre que evite la exclusión.
México es uno de los tres países de la OCDE que restringen la propiedad de
extranjeros en ciertos mercados de telecomunicaciones.
50
OPORTUNIDADES Y RECOMENDACIONES
El gobierno federal debe propiciar decididamente la efectiva competencia en el sector de
telecomunicaciones.
Es necesario que la autoridad reguladora tenga mayor independencia y autonomía
en el desempeño de sus responsabilidades para asegurar la competencia en el mercado.
Los mecanismos para el otorgamiento de concesiones deben simplificarse hacia
un régimen de concesión único, a excepción de aquéllas en que el recurso es escaso,
como en el caso del espectro radioeléctrico.
Se debe alentar y simplificar la figura de los comercializadores de servicios, así
como la entrada al mercado de operadores de redes móviles virtuales (MVNO).
Se deben eliminar las restricciones a la inversión extranjera impuestas a los
operadores de red fija.
Es conveniente separar las responsabilidades relativas a la formulación de
políticas (sector central, SCT) de las funciones de regulación y de separación de mercados
(autoridad reguladora, Cofetel) y eliminar la denominada “doble ventanilla”.
Se debe reformar el sistema jurídico vigente de manera que se evite suspender y
anular de forma sistemática las decisiones de política y de regulación.
Se propone el establecimiento de tribunales especializados para ventilar las
audiencias y los juicios relativos al sector de las telecomunicaciones, de manera que los
magistrados tengan conocimiento del sector.
La Cofetel debería estar facultada para realizar análisis de mercados, declarar
operadores con poder significativo de mercado e imponer obligaciones, incluida la
regulación asimétrica. Asimismo, para regular ex ante las tarifas de interconexión.
El gobierno deberá definir las políticas de “servicio universal”, así como su
estrategia para implementarlas.
También el gobierno deberá liberar suficiente espectro para satisfacer la creciente
demanda de servicios de datos para banda ancha móvil, así como licitar más hilos de
“fibra oscura” en la red de CFE para propiciar la banda ancha fija a precios accesibles.
El Estado deberá propiciar la implantación de redes complementarias para llevar
los servicios de telecomunicaciones a las poblaciones pequeñas, comunidades y centros
de educación.
51
Manifestamos nuestro respaldo a proyectos del sector que propicien una mayor
cobertura para servicios apartados y de bajos ingresos, como el proyecto se satélites
Mexsat que ya ha iniciado operaciones.
De igual modo, consideramos importante que la Cofetel fomente acciones dirigidas
a avanzar en la transición a la televisión digital terrestre (TDT), a efecto de que la
transición se complete en el año 2016.
Asimismo consideramos conveniente la apertura y la asignación de dos licencias a
nuevos proveedores de televisión digital terrestre (TDT), previo análisis de sus planes de
inversión de conformidad con la regulación existente.
Proponemos también el fomento ordenado para el establecimiento de áreas y
ciudades digitales; así como un estudio ponderado para definir racionalmente el derecho
constitucional a la banda ancha, que permitirá reducir la “brecha digital”.
En suma, todas aquellas acciones que permitan la sana y racional competencia en
beneficio del público usuario; servicios de mayor calidad de acuerdo con normas y
estándares internacionales que permitan que México se sitúe en rangos de penetración y
teledensidad acordes con su desarrollo económico.
CONCLUSIONES
1. En el ámbito internacional existe consenso en el sentido de que la banda ancha, en
tanto que conducto convergente de las telecomunicaciones del futuro, será un
importante instrumento de inserción social para los jóvenes del mañana.
2. Para lograr lo anterior, deberá propiciarse la competencia real y efectiva que redunde
en servicios de alta calidad y a precios accesibles para los usuarios.
3. Para ello es fundamental que los países y gobiernos cuenten con instrumentos de
regulación vanguardistas y con órganos reguladores capaces y eficientes, que
propicien el uso intensivo, pero racional, de los servicios.
52
INFRAESTRUCTURA CIBERNÉTICA DE ALTO DESEMPEÑO
PARA LA ERA DE LOS GRANDES DATOS
Larry Smarr*
Con el establecimiento de un enlace óptico dedicado de 10Gbps (gigabytes por segundo)
entre el Centro de Investigación Científica y Educación Superior de Ensenada (CICESE) y
la Corporation for Education Network Initiatives in California (CENIC), México tiene una
puerta abierta al mundo de los grandes datos (big data) que surge rápidamente. A través
de la CENIC, esta red de gran velocidad conecta a todo Estados Unidos vía Internet2 y la
National LambdaRail, también conecta en el ámbito internacional vía la Global Lambda
Integrated Facility (GLIF) a centros de ciencia e innovación. Las velocidades típicas de
trasferencia de datos con internet convencional son de 10Mbps, de forma que el enlace
óptico dedicado de 10Gbps es mil veces más rápido. Esto permite a los investigadores
mover rápidamente grandes cantidades de datos de los repositorios globales y enviarlos a
otros científicos de todo el mundo. Aún más, es posible la transmisión de video de alta
definición en tiempo real sumado a la visualización científica. Un ejemplo de esta
colaboración se dio en marzo de 2013 entre el CICESE y el California Institute of
Telecommunications and Information Technology (Calit2) en la University of California,
San Diego (UCSD) utilizando la recientemente establecida conexión de 10Gbps.
Después de diez años de reuniones, que involucraron a los sectores público y
privado del país, se logró esta primera conexión de 10Gbps en México. Se contó con la
participación principal del Conacyt, la Corporación Universitaria para el Desarrollo de
Internet, A.C. (CUDI) y el CICESE. Se espera que con esta conexión piloto —con el
liderazgo de la CUDI apoyando en la instalación de alta velocidad— sea posible para la
CUDI replicar esta supercarretera de la información (big data freeway) en sitios de
investigación y educación en todo México.
La conexión óptica de 10Gbps provee acceso directamente al Centro de
Supercómputo de la UCSD (SDSC) y a la supercomputadora de la Fundación Nacional de la
*Institute for Telecommunications and Information Technology, University of California, San Diego.
53
Ciencia, de Estados Unidos (National Science Foundation, NSF), que está optimizada para
el análisis de big data. Esto significa que los investigadores mexicanos podrán solicitar
tiempo de uso en instalaciones únicas, como Gordon, la supercomputadora de grandes
datos del SDSC. La asignación de tiempo de la supercomputadora requerirá de un
colaborador en Estados Unidos, pero con la red de 10Gbps los investigadores mexicanos
podrán trabajar a la misma velocidad que sus pares de Estados Unidos. En la figura 1 se
presenta un diagrama que muestra cómo la conexión de 10Gbps del CICESE lo enlaza
directamente al SDSC vía CENIC.
El siguiente paso es ampliar la cobertura del enlace óptico de 10Gbps a todas las
universidades mexicanas, para que cada investigador y sus instrumentos científicos
tengan acceso directo a esta red ultrarrápida. La NSF otorgó fondos al UCSD para crear el
prototipo del sistema Big Data Freeway universitario llamado Prism@UCSD. A
continuación se presenta cómo el PriSm@UCSD ha permitido a una amplia variedad de
disciplinas utilizar esta nueva capacidad de internet.
54
Figura 1. Diagrama de conexión de 10Gbps del CICESE que lo enlaza directamente al
SDSC vía CENIC.
En el año 2006, la UCSD fue pionera en el concepto y la implementación del
instrumento de redes de banda ancha universitaria Quartzite —con fondos de la NSF—,
que utiliza múltiples canales de 10Gbps de Ethernet para interconectar los laboratorios de
uso intensivo de datos por todo el campus de la universidad. El uso práctico en los últimos
cinco años ha demostrado que las aplicaciones se benefician más al utilizar canales
anchos de IP dedicados con capacidad de ráfaga alta.
Sobre la base de las lecciones aprendidas con el Quartzite, la NSF otorgó los
recursos para la nueva infraestructura experimental en la UCSD: Prism@UCSD. Estos
nuevos fondos permitirán la actualización del instrumento Quartzite a una planta de
producción, realizando la reingeniería en una parte de la red del campus UCSD para
brindar un sistema complementario de Big Data Freeway para conexiones ópticas de
punto a punto de gran ancho de banda. Prism@UCSD conserva la sencillez de la
topología en estrella de Quartzite para reducir los costos de mantenimiento y permitir que
otras universidades puedan duplicar fácilmente nuestra experiencia. El núcleo
experimental de Quartzite se actualizará a un conmutador robusto Arista Networks 7504
de nueva generación. El nuevo cambio provee la bisección de ancho de banda de una
interconexión de cúmulo de computadoras, pero desplegada en la escala del campus.
Un precepto fundamental es que Prism@UCSD aumenta y protege la red de
producción existente en el campus, proporcionando un servicio especializado
complementario, de red de capacidad masiva para un número limitado de laboratorios de
uso intensivo de datos, a un costo muy rentable. Nuestra experiencia indica que mientras
que sólo un número relativamente pequeño de los laboratorios en el campus requieren de
alta capacidad de movimiento de big data, cada uno de estos valores estadísticos atípicos
puede saturar completamente la capacidad de la red troncal (backbone) de producción de
10GbE del UCSD, cuando existen ráfagas de datos.
Además de la actualización del núcleo de Quartzite del Calit2, la conexión de fibra
óptica existente en el Centro de Supercómputo de San Diego, se actualizará a 120Gbps
para proveer acceso a los laboratorios conectados al almacenamiento paralelo en la nube
y a los recursos de la NSF Extreme Science and Engineering Discovery Environment
(XSEDE). El uso de tramos de la fibra óptica del despliegue Quartzite —conexiones
55
múltiples de 10Gbps y 40Gbps— atenderán a aproximadamente 500 investigadores y
estudiantes, al tiempo que protege de saturación a la red del campus (que da servicio a
cerca de 50 000 estudiantes, profesores, personal y visitantes).
Prism@UCSD es una solución fácilmente reproducible en las universidades para
atender el reto de nuevos patrones de uso de grandes conjuntos de datos que han
cambiado drásticamente en los últimos cinco años. Así, el manejo de mayores conjuntos
de datos y el aumento de datos generados mediante instrumentos como los
secuenciadores del genoma, microscopios y cúmulos de computadoras implican la
exploración de conjuntos de datos y datos totales de +100TB que son cada vez más
comunes. Hemos diseñado y queremos implementar una red con ancho de banda
extremo con el objetivo de proteger e interoperar con la infraestructura existente en el
campus, al tiempo que permite la investigación intensiva con datos en múltiples
disciplinas, como la física, la química, la biología, el cambio climático, la oceanografía y
las ciencias de la computación.
El gran resultado de Prism@UCSD es que genera una data freeway productiva a
escala del campus que permite a los investigadores manejar fácilmente datos masivos,
tanto dentro como fuera de la universidad, creando un diseño que puede ser instalado en
otras instituciones. El efecto transformador permite la transferencia cotidiana de grandes
conjuntos de datos entre múltiples disciplinas a los usuarios finales y los instrumentos
científicos de la universidad, cúmulo de computadoras de cómputo, almacenamiento
replicado, dispositivos de visualización y colaboradores digitales fuera del campus.
Creemos que Prism@UCSD será el precursor de la ciberinfraestructura especializada en
big data en muchos centros de investigación.
Prism@UCSD es una red enfocada a investigadores específicos que se desarrolló
a partir de nuestra versión previa del Quartzite. De esas experiencias hemos definido un
conjunto de principios de diseño y conceptos de política que llevaron a la estructura
específica de Prism@UCSD:
1. Establecer cada conexión tomando en cuenta las necesidades actuales y las
proyectadas a corto plazo por el laboratorio, partiendo de dónde se generan o se
almacenan los datos y hacia dónde deben ser trasladados. Estamos conectando
un número relativamente pequeño de laboratorios cuyo uso de la red es desigual.
Pueden pasar días (o semanas) entre los tiempos en los que va a necesitar un
56
usuario en particular para mover terabytes de datos. Las redes con capacidad de
estallido (burst capacity networks) optimizan el tiempo de las personas.
2. Decidir cuándo es económicamente viable alojar todas las conexiones en un solo
complejo interruptor de bisección completo para la simplicidad del diseño y reducir
los costos de mantenimiento. Esto permite que cualquier sitio del campus que esté
conectado se comunique a la tasa de su conexión o de la conexión de destino sin
congestionar los puntos finales no relacionados. Se requiere aprender sobre el
diseño de las interconexiones del cúmulo de computadoras.
3. La política de Prism@ es que la red se puede utilizar para el análisis de datos
activos, conexiones experimentales y para la conectividad entre centros de
cómputo. Hay laboratorios distribuidos en el campus que se pueden beneficiar
enormemente de este ancho de banda tan alto. La conectividad sin congestiones
entre los sitios de la universidad, la cual ayuda en la resiliencia de datos,
administración y planes de análisis. Las investigaciones ad hoc realizadas por los
científicos sobre cómo las redes de alta velocidad pueden permitir flujos de trabajo
deben ser fomentadas y a un mínimo costo.
4. Permitir y agilizar un mayor presupuesto para invertir en los puertos, la óptica y el
mantenimiento de conmutadores (switches). La inversión incluye al menos dos
laboratorios y otros que puede requerir el desempeño que Prism@ ofrece.
Prism@UCSD está al alcance de varios de los principales investigadores y
laboratorios de la UCSD big data y se interconectan a velocidades de entre 10-80 Gbps en
redes ópticas dedicadas (véase la figura 2). Mientras estos investigadores están en la
UCSD sus contrapartes en México podrían utilizar una infraestructura tipo Prism@ en sus
instituciones.
57
Figura 2. Mapa de la UCSD.
ALGUNAS APLICACIONES DE INFRAESTRUCTURA PARA BIG DATA
Física experimental de partículas
Emprende una tarea global dominada por los experimentos en el Gran Colisionador de
Hadrones (LHC). La computación científica, en los dos grandes experimentos (Atlas y
CMS), es a escala internacional y depende de un sistema escalonado de los centros de
cómputo. Dentro del sistema de gestión de contenidos en Estados Unidos (US-CMS), uno
de los centros Tier-2 es operado por el profesor Wuerthewein de la UCSD. El propósito de
estos centros es, en primer lugar, que cada centro sirva a toda la colaboración del CMS
mundial alojando datos primarios, así como datos para grupos específicos de física. En
58
segundo lugar, cada centro atiende a una comunidad local de científicos. Para la UCSD,
esta comunidad se compone de 85 físicos CMS provenientes de la Universidad de
California en Santa Barbara, en Riverside, y en San Diego, y sus colaboradores del
Laboratorio Nacional Fermi (FNAL).
El centro Tier-2 de la UCSD cuenta con más de 2PB de almacenamiento en disco
distribuido en todo un cúmulo de computadoras, que es aproximadamente la mitad de lo
que utiliza la comunidad local para alojar sus datos derivados. Asimismo, se conecta a la
red nacional a través de dos conexiones ópticas del campus. El nuevo Arista 7050s, de
esta propuesta, representa un aumento de casi ocho veces en el ancho de banda externo
y permitirá que el proyecto CMS duplique disco y ancho de banda por nodo.
Igualmente, Prism@ proporciona enlaces de alta velocidad a otras agrupaciones
de la UCSD para que puedan unirse a la Open Science Grid (OSG), que permite el
intercambio de ciclos de cómputo a través de las agrupaciones de la universidad para las
aplicaciones de uso intensivo de datos. Por ejemplo, la NSF ha financiado el proyecto Any
data, Anytime, Anywhere, que permite a las aplicaciones acceder a los datos alojados en
el centro de Capa 2 de la UCSD desde cualquier CPU, ya que siempre hay suficiente ancho
de banda entre el almacenamiento y los cúmulos de computadoras de CPU. En el corto
plazo se va a poner a disposición de las comunidades atendidas por Prism@ las técnicas
OSG y AAA.
Iniciativa de Observatorios Océano (OOI)
Esta iniciativa es financiada por la NSF, y en cinco años desplegarála infraestructura
global, regional y costera artesanal para ampliar la capacidad de los científicos para
estudiar a distancia el océano. Un componente global enfrentará los problemas a escala
planetaria mediante una nueva red de boyas fondeadas vinculada a la costa a través de
satélites de telecomunicaciones. Un observatorio cableado regional va a “conectar” una
sola región en el noreste del Océano Pacífico, a través de una red de alta velocidad de
energía y fibra óptica. El componente costero ampliará los bienes de observación marina
existentes para estudiar la importancia de la alta frecuencia de fuerza en el medio
ambiente del océano. Estos componentes estarán vinculados por una ciberinfraestructura
robusta (OOI-CI) que integrará observatorios marinos en un solo sistema de sistemas. Esta
infraestructura CI también proporcionará una red de aplicaciones a escala nacional que
permita el acoplamiento en tiempo real de los sistemas de observación, modelado
59
numérico y análisis de decisiones para proporcionar la base para la investigación
oceanográfica concreta. Por tanto, los oceanógrafos tendrán acceso a las redes
automatizadas de máquina-a-máquina que pueden ser escalables para aumentar la
capacidad, el potencial y la participación durante décadas. El equipo OOI-CI se ha situado
en el edificio Calit2 de la UCSD, pero se trasladó al SIO en 2012. Prism@ proporcionará la
conectividad necesaria para SIO. El equipo OOI-CI también utilizará la infraestructura
Prism@ para dar apoyo a pares para investigación en el modelado realizada en el SIO y el
modelado de previsión regional realizado en el JPL, todo dentro de la red de la aplicación
OOI.
Un aspecto clave de la estrategia de la red nacional de la aplicación OOI es la
capacidad de unir instituciones a la red nacional Layer 2 OOI que sustenta la red
directamente, proporcionando de esta manera la participación de la banda ancha en el
intercambio en tiempo real de datos y servicios entre los puntos finales de las
aplicaciones. La configuración Prism@ de la red del campus es considerada por el equipo
OOI-CI como la necesaria, a escala de campus, de una solución institucional para el punto
de interconexión de la red de científicos con la red de observatorios OOI. Esta solución
atiende a la significativa tensión que actualmente existe entre la infraestructura de red de
banda ancha de los usuarios en general de la universidad, y las correspondientes de sus
grupos de investigación especializados. Se proporciona una solución innovadora para
esta tensión al demostrar que la configuración, segura y de bajo costo, separa
completamente a estas dos comunidades rivales.
Análisis regional de cambio climático Se lleva a cabo por varios investigadores del Scripps Institution of Oceanography de la
UCSD (SIO); analizan cómo y por qué varía el clima, así como la forma en que durante el
siglo XXI se pueden dar los cambios climáticos globales. A medida que se ha extendido la
conciencia sobre el potencial de los efectos sustanciales del cambio climático, se presenta
la necesidad de obtener proyecciones climáticas específicas en los ámbitos regional y
local. Los avances recientes han dado lugar a un mayor número de modelos climáticos
globales que se ejecutan en los centros nacionales (aproximadamente 25 en el último
ejercicio de la Quinta Evaluación del Intergovernmental Panel on Climate Change, IPCC),
mientras que los sistemas estadísticos avanzados han mejorado de 12Km hasta 6Km de
resolución horizontal, las simulaciones dinámicas también se han perfeccionado a una
60
mayor resolución, de unos 10Km hasta 2Km. Esta necesidad de contar con un mayor
control, que llevó varias décadas de simulaciones de cambio climático, junto con los
avances en el modelado dinámico y estadístico, ha logrado producir un marcado aumento
en los cálculos necesarios. El gran crecimiento de la producción de estas simulaciones
avanzadas ha dado como resultado conjuntos de datos con volúmenes de decenas de
terabytes. El SIO accede, procesa, analiza y visualiza estos conjuntos de datos generados
de forma remota, de ahí la necesidad de contar con un acceso rápido a conjuntos de
datos de gran volumen.
National Center for Microscopy Imaging Research
El centro alberga instrumentos múltiples 3D, como el microscopio electrónico de
positrones (EMT), y de microscopía electrónica de barrido serial (SEM). La producción de
cada instrumento requiere hasta 1-2TB de datos en bruto a la semana. Además, los
instrumentos SBEM operan completamente en modo de robot con mínima intervención de
un operador. Los métodos SBEM utilizan un ultramicrotomo equipado dentro de un
microscopio electrónico de barrido para remover con éxito una fina capa (<15nm) de
cualquier espécimen entre imágenes de la cara del bloque usando un haz de electrones
de baja tensión. Con todo el proceso —en virtud de la automatización— controlado por el
ordenador. Varios de los últimos avances en la tecnología de la sonda genética y tinción
de metales pesados de muestras biológicas permiten mejoras significativas en la
resolución, en el rendimiento de formación de imágenes y en la carga de reducción para
la formación de imágenes de una amplia variedad de especímenes. El sistema más rápido
ahora es capaz de digitalizar imágenes de campo amplio de exploración de 32k con
tiempos tan cortos como 500 nanosegundos aproximadamente, 2TB de datos para la
ejecución típica de un proyecto. En el año 2012 se incrementó el formato a 64k×64k,
produciendo aproximadamente 12TB/dataset/semana.
A través de las 10+ plataformas de producción microscopía óptica y electrónica del
NCMIR, el recurso está generando aproximadamente 400TB de nuevos datos en bruto por
año. Mientras se procesan estos datos, se produce una explosión de datos intermedios y
datos derivados. Estos datos agregados amplían los requisitos de almacenamiento del
Centro en aproximadamente dos petabytes. Los recursos reunidos para apoyar esta
operación se han desplegado en el NCMIR, Atkinson Hall (Calit2), y SDSC que requieren
más de 10Gbps en red.
61
Espectrometría de masas
Actualmente ésta es una tecnología esencial para todos los análisis de alto rendimiento
de proteínas (proteómica) y pequeñas moléculas (metabolómica). También es una
tecnología importante en los principales ductos de descubrimiento de fármacos para
nuevas terapias basadas en anticuerpos y compuestos derivados de productos naturales
aún existentes. El UCSD alberga en NIH Biomedical Technology Research Center for
Computational Mass Spectrometry (Centro de Investigación Biomédica de Tecnología
Computacional en Espectrometría de Masas, CCMS por sus siglas en inglés) el análisis de
alrededor de 925 millones espectros de unos 2 900 usuarios en más de 26 000
búsquedas.
El CCMS también ha introducido el concepto de archivos espectrales, donde se
utilizan algoritmos avanzados para encontrar grupos de moléculas relacionadas en
grandes conjuntos de datos. Asimismo, ha demostrado —en el esfuerzo más grande
jamás realizado— una agrupación en espectrometría de masas (por lo menos de tres
órdenes de magnitud) y uno de los mayores esfuerzos de agrupación a través de
cualquier campo de la ciencia. Por otro lado, el CCMS asume un nuevo proyecto:
espectrometría de masas en un medio ambiente interactivo virtual (Interactive Virtual
Environment, MassIVE). Este recurso requerirá del ancho de banda que proporciona
Prism@ y se hará cargo de los esfuerzos de almacenamiento público, actualmente
limitado (alrededor de 20TB de datos públicos), para escalarlos en una a dos órdenes de
magnitud. Además, en el CCMS se analizarán los datos utilizando algoritmos avanzados y
técnicas de visualización/curaduría con el objetivo de identificar todos los espectros de
masas que se producen en el mundo.
Estos esfuerzos requieren de una estrecha y altamente interactiva colaboración
entre el CCMS y los laboratorios y científicos que generan los grandes conjuntos de datos.
Prism@ proveerá la capacidad para permitir subidas rápidas y el análisis interactivo de
conjuntos de datos de +100GB, emparejándolos contra un repositorio de 100s de TB de
datos de espectrometría de masas.
Banco de proteínas (PDB)
Es financiado por múltiples agencias, está ubicado tanto en el SDSC dentro del edificio de
la Skaggs School of Pharmacology, como en un segundo sistema de conmutación por
62
error en Rutgers University, en Nueva Jersey. Actualmente del PDB lo utilizan unos 280
000 usuarios únicos al mes, y en promedio se descargan entre siete y ocho estructuras.
La base de usuarios del PDB y su acceso sigue creciendo a una tasa de 10% anual y tiene
un uso interno significativo. El PDB está planeando una “mudanza” a un modelo de
máquina virtual (VM) donde la totalidad de los servidores estén activos en todo momento y
sincronizados para ofrecer el acceso más rápido, ya que el acceso de alta velocidad punto
a punto dentro de las universidades es crítico. Asimismo, el PDB se está cambiando más
hacia un modelo tipo-aplicación donde los usuarios se conectan con aplicaciones a la
base de contenidos y el PDB se convierte en una especie de app-store donde los usuarios
eligen alguna aplicación para ejecutarla con los datos del PDB y calificarlas en un modo
WEB 2.0. Esto se implementó por primera vez en la UCSD, así que de nuevo en gran
medida el aumento de ancho de banda es importante.
Secuenciadores genómicos
En la última década han aumentado su capacidad de producción de datos. También han
caído dramáticamente los precios de los equipos. La plataforma de secuenciación de
próxima generación (NGS) más utilizada la produce Illumina, una compañía ubicada cerca
del campus de la UCSD. Una sola corrida de Illumina puede generar casi un terabyte (Tb)
de datos en un aumento de casi ×1 000 ¡en cuatro años! Sin embargo, se espera aún una
mayor producción en los siguientes productos. Las instalaciones de la base de
secuenciación genética de última generación de la UCSD Biogema fueron fundadas como
una asociación entre la School of Health Sciences y la Division of Biological Sciences.
Calit2 trabajó con el profesor Trey Ideker de la UCSD para transmitir los datos de la salida
de esta instalación para el almacenamiento situado en GreenLight, el centro de datos
modular. A partir de ahí, los datos fueron montados por NFS sobre las fibras ópticas
Quartzite de 10Gbps al switch Calit2 y al cúmulo de computadoras de cálculo Triton de la
SDSC. Esto permitió al grupo del profesor Ideker almacenar de forma confiable los datos
genómicos, así como realizar cálculos con las instalaciones coubicadas Triton. El número
de NGS en la UCSD está aumentando con la llegada de la nueva generación de
secuenciadores NGS, por lo que será esencial un mayor uso de Prism@. Además, Calit2
ha iniciado la instalación del software del laboratorio Cytoscape del profesor Ideker en el
nuevo dispositivo de visualización escalable de Calit2 Vroom (de 64 megapixeles).
Cytoscape es una plataforma de software de código abierto ampliamente utilizada para la
63
visualización de las redes biológicas complejas e integradas a cualquier tipo de datos de
atributos. Como se mencionó anteriormente, esto será fundamental para la integración de
la genómica, la proteómica y metabolómica. Como resultado, el Calit2 Vroom requerirá
alta velocidad para bajar enlaces de latencia a todas las diversas bases de datos
mencionados antes. Se espera que a medida que el uso de Cytoscape en las paredes de
visualización escalables comiencen a mostrar resultados científicos, una serie de
investigadores en ciencias ómicas (genómica, trancriptómica, protómica y metabolómica)
querrán su propio OptlPortable (con los cuales se construye la pared de pantallas Vroom)
en su cubículo o laboratorio dentro de la UCSD, de nuevo con la necesidad de utilizar la
conectividad Prism@.
Institutos de ciencia cercanos
Hemos tenido pláticas con instituciones de investigación de clase mundial ubicadas cerca
de la UCSD sobre su integración a Prism@. Algunas de estas instituciones son: el Salk
Institute for Biological Studies, el Sanford-Burnham Medical Research Institute, el Scripps
Research Institute y el Sanford Consortium for Regenerative Medicine; este consorcio es
una colaboración entre la UCSD y las tres instituciones mencionadas. Todos han
expresado un fuerte interés por unir sus instrumentos científicos con usuarios finales a la
red Prism@, aportando recursos financieros propios. Estamos trabajando conjuntamente
con cada una de estas instituciones para identificar el conducto de fibra, de modo que
puedan conectarse desde el inicio del proyecto. Hacemos hincapié en que es esencial
para el Sanford Consortium for Regenerative Medicine contar con una infraestructura de
gran ancho de banda tipo Prism@, ya que al estar ubicada en sus instalaciones contará
con instrumentos de alto rendimiento que no se encontrarán en otras instituciones. Esto
implica tener una “autopista de datos” que permita a los usuarios del consorcio acceder a
los instrumentos de las otras cuatro instituciones, y viceversa.
En resumen, en cada universidad de México va en aumento el número de
disciplinas que generan grandes datos y requerirán de capacidad de banda ancha mucho
más allá de la proporcionada por el internet compartido convencional para unirse a la
comunidad global de innovación. Creemos que los estudios piloto de Prism@UCSD
ofrecen a México una oportunidad única para experimentación primaria con estas
tecnologías avanzadas. Nuestra ya larga y estrecha colaboración con el CICESE, el CUDI y
64
el Conacyt nos da las bases para ampliar la colaboración y llevar estas capacidades de
clase mundial a todo México.
65
RETOS Y OPORTUNIDADES DE LAS COMUNICACIONES ÓPTICAS
Y EL PROCESAMIENTO DIGITAL FOTÓNICO
Horacio Soto*
INTRODUCCIÓN
Este ensayo da una visión de la evolución de las comunicaciones fotónicas, presenta su
estado del arte y sus grandes retos. En este sentido, se comienza exponiendo la
relevancia que tienen hoy en día las comunicaciones ópticas en los sistemas de
telecomunicaciones modernos. Se habla de la fibra óptica, así como de la necesidad que
tienen las telecomunicaciones actuales de ofrecer banda ancha a sus usuarios y de cómo
este escenario ha hecho que los sistemas de comunicaciones ópticas evolucionen.
Enseguida, se abordan las tendencias de las comunicaciones ópticas, se identifica como
una de ellas a la multicanalización densa por división de longitud de onda (DWDM) y se
introduce el procesamiento digital fotónico como herramienta clave para las redes de
comunicaciones ópticas del futuro. A continuación se retoma el procesamiento digital
fotónico, se enumeran algunos de los fenómenos no lineales y tecnologías que permiten
su implementación y se enfatizan algunas demostraciones de actualidad. Para continuar,
se plantean los retos del procesamiento digital fotónico y se introduce la nanofotónica
integrada en silicio, la cual se identifica como la tecnología que en breve transformará los
circuitos integrados y la computación. En este contexto, se presentan los sorprendentes
avances en nanofotónica integrada en silicio que ha tenido la compañía IBM, se habla de
las comunicaciones fotónicas intrachip y del concepto que tendrán las futuras
computadoras híbridas donde, al menos, su bus de datos será óptico. Se habla de la
revolución tecnológica que se avecina en el mundo con la nueva era de los chips
optoelectrónicos, los cuales permitirán efectuar operaciones ultrarrápidas con gran
estabilidad. Se identifica entonces las comunicaciones fotónicas, el procesamiento digital
fotónico y la nanofotónica integrada en silicio como nichos de oportunidad que
revolucionarán la tecnología mundial, los cuales representan, en consecuencia, una
*
66
enorme oportunidad de invertir fuertemente en ellos para transformar a México en una
potencia mundial de las nuevas tecnologías del futuro. Se concluye que los temas antes
mencionados, por su relevancia académica y sobre todo por la repercusión para nuestra
sociedad, son sin duda directrices que indican hacia dónde se debe enfocar la ciencia en
México.
SISTEMAS DE TELECOMUNICACIONES ÓPTICAS
Existen muchos tipos de telecomunicaciones, por ejemplo las vía satélite, inalámbricas,
por cable de cobre, etcétera. Sin embargo, en los países desarrollados la gran mayoría
del tráfico de telecomunicaciones se reparte ópticamente. Por ejemplo, se estima que en
Estados Unidos 98% del tráfico global de telecomunicaciones es repartido por fibras
ópticas (Mynbaev, 2011).
Esto se debe al gran ancho de banda que posee la fibra óptica, la cual es, en
efecto, el canal de transmisión de los sistemas de comunicaciones ópticas guiadas. En
particular, la fibra óptica goza de un ancho de banda teórico de 100 Tb/s (100 billones de
bits por segundo), lo cual intuitivamente se percibe como una cantidad enorme. Para tener
una mejor idea de la capacidad de las fibras ópticas, analicemos el siguiente ejemplo
académico. Un solo cable de fibra óptica con 1 000 fibras, el cual tiene un diámetro
parecido al de la muñeca de la mano de un adulto (cada fibra tiene un diámetro de 250
µm ya con recubrimiento), puede admitir del orden de 400 millones de conversaciones
telefónicas simultáneas. Ahora bien, durante el año 2012 en todo el mundo se registraron,
en horas pico, 40 millones de conversaciones telefónicas simultáneas. Es decir, mediante
un solo cable de fibra óptica se podrían transmitir todas las conversaciones telefónicas
que se llevan a cabo en todo el mundo y aún sobraría muchísimo espacio para otras
aplicaciones (Milla-León).
Además de su gran ancho de banda, las fibras ópticas poseen las siguientes
características extraordinarias:
• Pérdidas bajas
• Inmunidad a interferencia electromagnética
• Alta resistencia a la radiación cósmica
67
• Baja distorsión en la distribución de la señales
• Bajo peso y diámetro reducido
• Diafonía insignificante (para potencias moderadas)
• Alta seguridad y se puede detectar su intervención
• Amplio rango de temperaturas de operación
• Operación segura en ambientes peligrosos
Todas estas propiedades han hecho que la fibra óptica sea utilizada masivamente en
enlaces de ultralarga distancia, comunicando continentes y enlazando ciudades.
Paralelamente al escenario descrito, el mundo ha sido testigo del crecimiento
explosivo de internet, el cual es resultado de la demanda exponencial de servicios
multimedia que son proporcionados por esta red y por la cantidad cada vez mayor de
dispositivos que se conectan a internet, así como al número cada vez mayor de estos
dispositivos per cápita. El resultado ha sido un aumento desmedido en la demanda de
ancho de banda.
Al mismo tiempo, las redes de telefonía celular han crecido de manera desenfrenada
ya que satisfacen la necesidad de comunicación de usuarios móviles y pueden llegar a
lugares que son difíciles de cablear. Sin embargo, sin importar las circunstancias, los
usuarios móviles exigen servicios multimedia. Lo anterior ha provocado que los sistemas
de telefonía celular se hayan visto en la necesidad de aumentar dramáticamente su ancho
de banda y, por tanto, de transmitir con ondas milimétricas de frecuencias cada vez más
elevadas. Para tal efecto, se han diseñado topologías con una gran cantidad de células
contiguas, cada una de las cuales contiene una antena cuyo radio de acción es muy corto,
ya que las ondas milimétricas son fuertemente absorbidas en el espacio libre. Si el radio
de acción de la antena es de entre 20 a 400 m se tiene una pico célula, y si es de entre
400 m a 2 km se cuenta con una nanocélula. Para evitar cuellos de botella y células muy
costosas, la tendencia es que éstas, a través de sus antenas, se dediquen únicamente a
transmitir y recibir señales. El enrutamiento y el procesamiento de las señales son
entonces llevados a cabo en una oficina central, la cual está conectada con fibra óptica
con cada una de las células del sistema de comunicaciones móvil. Es decir, la fibra óptica
es un conducto clave mediante el cual la telefonía celular, en los países desarrollados, ha
podido aumentar el ancho de banda que ofrece a sus usuarios. Asimismo, y por razones
68
obvias, si la red de telefonía celular crece, la red óptica que conecta a sus células con
alguna oficina central lo hace también (Vass, 2011).
Por las razones explicadas en los párrafos anteriores, se puede entender fácilmente
porqué la mayor parte del tráfico de telecomunicaciones, en los países desarrollados, es
repartido por fibra óptica. De hecho, las fibras ópticas —aparte de ser usadas hoy en día
de forma masiva en enlaces submarinos intercontinentales y en enlaces de larga
distancia— son ampliamente utilizadas en redes metropolitanas de acceso, y cada vez
más en la llamada última milla, llegando directamente hasta los hogares y oficinas. Es
decir, la fibra óptica y por tanto los sistemas de comunicaciones ópticas se han convertido
en la columna vertebral de las telecomunicaciones, permitiendo que los otros sistemas de
telecomunicaciones puedan soportar el ancho de banda que sus usuarios les demandan.
El crecimiento fulgurante de los sistemas de telecomunicaciones ópticas ha
ocasionado que se observen varias tendencias, en lo que respecta a su implementación
futura, pero principalmente dos son sobresalientes (Yao):
• Elaborar redes con multicanalización densa por división en longitud de onda
(DWDM)
• Desarrollar redes completamente ópticas con procesamiento digital fotónico
En cuanto a las redes DWDM, actualmente son la única alternativa factible, teórica y
práctica, de aprovechar todo el ancho de banda de las fibras ópticas. Su principio de
operación se basa en enviar por una sola fibra óptica 40 o más canales de información.
Para ello, cada canal se envía en una longitud de onda diferente (o color), de manera que
al final del trayecto se puede volver a separar de los demás sin perder la información que
contiene. Así, por cada fibra óptica, de un gran conjunto de éstas, se envía una portadora
modulada, generalmente en amplitud, con una longitud de onda que es distinta a todas las
demás del conjunto. Todas estas fibras arriban a un nodo donde su información se
multicanaliza (MUX) dentro de una sola fibra óptica. Es decir, por esta última viajará toda la
información contenida en el conjunto primario de fibras ópticas. Al final del trayecto, se
efectúa el proceso de demulticanalización (DMUX), el cual consiste en separar cada una de
las portadoras de longitud de onda diferente y enviarlas por una fibra distinta hacia su
destino final. Una gran ventaja de los sistemas DWDM es que, a su vez, cada canal de
información puede contener otro tipo de multicanalización, por ejemplo, mulicanalización
69
por división de tiempo (TDM) en donde la información de varios canales se envía a
intervalos diferentes.
Actualmente en su gran mayoría las redes DWDM trabajan con 40 canales separados
entre sí, 100 GHz (0.8 nm) en la banda C (de 1 530 a 1 565 nm), donde la fibra óptica
presenta la menor atenuación y la amplificación de las señales se puede efectuar de
manera sencilla y “económica” con amplificadores de fibra contaminada con erbio. De
esta manera, si cada canal transmite a 40 Gb/s, por una sola fibra óptica, se pueden
enviar 1.6 Tb/s. Recientemente han empezado a utilizarse sistemas con 80 canales
separados entre sí 50 GHz (0.4 nm), y hay demostraciones con 200 canales separados
12.5 GHz (0.1 nm), aunque estos últimos abarcan también la banda L (1 565 a 1 625 nm)
(Aurora Networks Overview).
De todo lo anterior no es difícil imaginar que los grandes retos de los sistemas DWDM
están contenidos en los siguientes puntos:
• Aumentar el número de canales
• Realizar láseres con anchos de línea cada vez más finos
• Realizar MUX/DMUX capaces de funcionar con canales cada vez más cercanos
• Desarrollar nuevos protocolos de comunicación más eficientes
• Implementar nuevas técnicas para compensar la dispersión cromática y la de los
modos de polarización
• Realizar nuevas fibras con menor no linealidad
• Realizar amplificadores ópticos eficientes y de implementación simple para todas
las bandas de transmisión.
En particular, los nuevos protocolos de comunicación se refieren a la manera de
codificar y decodificar la información para que ésta sea enviada de manera más eficiente.
Asimismo, las técnicas para compensar la dispersión cromática y la de los modos de
polarización se refieren a los procesos que hay que implementar para que todas las
componentes espectrales y de polarización de las portadoras electromagnéticas, que
contienen la información, viajen a la misma velocidad, de manera que los bits no se
deformen.
Por otra parte, es claro que entre más señales se multicanalicen en una sola fibra
óptica, ésta contendrá mayor potencia óptica. Cuando la potencia óptica comienza a
70
aumentar excesivamente, la fibra entra en un régimen no lineal y puede entonces haber
interferencia entre los canales. Por tal motivo, es deseable fabricar nuevas fibras con una
menor no linealidad.
Todos estos retos tendrán que ser solventados para garantizar el futuro viable de las
redes DWDM. No obstante, no hay que perder de vista que actualmente estas redes se han
expandido de manera vertiginosa, lo que está causando cuellos de botella en los nodos
repartidores donde confluyen diversas fibras ópticas con canales multicanalizados en
longitud de onda. Este enorme problema es el responsable de que hoy en día se realicen
grandes esfuerzos para desarrollar las así llamadas redes completamente ópticas con
procesamiento digital fotónico.
Efectivamente, imaginemos por un instante lo que sucede dentro de un nodo
repartidor donde confluyen diversas fibras ópticas con canales multinanalizados en
longitud de onda. La primera tarea por realizar dentro del nodo es demulticanalizar todas
las señales que viajan por cada una de las fibras arribantes (DMUX). Una vez que cada
señal es espacialmente separada de las otras, se fotodetecta y se convierte en una señal
eléctrica. Todas las señales convertidas a flujos eléctricos son entonces introducidas en
una computadora dedicada que lee su encabezado y así se entera de dónde provienen,
qué tipo de información transportan (video, voz, datos, etcétera), qué longitud de onda las
transporta, hacia dónde se dirigen, etcétera. Antes de enviarlas hacia el puerto de salida
que les corresponda, la computadora analiza sus encabezados, y/o directamente a éstas,
y determina si alguna de ellas necesita algún tipo de acondicionamiento. En particular hay
tres tipos de regeneraciones (3R) que se efectúan dentro de los nodos: reamplificación,
reformado y resincronización de las señales. Una vez que las señales han sido
reacondicionadas, se envían hacia el puerto de salida que les corresponde, donde son
trasladadas nuevamente al dominio óptico. De hecho, cada señal eléctrica funge como la
señal manejadora de un modulador electroóptico, al que le está arribando un haz láser
continuo con una longitud de onda igual a la de la señal óptica que dio origen a la señal
eléctrica correspondiente. Así, a la salida de cada modulador, un haz láser se encuentra
modulado, con el mismo formato que el de la señal eléctrica correspondiente, y listo para
ser enviado por la fibra que lo llevará a su destino final o a otro nodo intermedio. No
obstante, antes de que estas señales ópticas sean enviadas por la fibra correspondiente,
la computadora debe asegurarse de que ninguna de sus longitudes de onda sea igual a la
de otra señal, proveniente de otro puerto de entrada, que quiera partir por la misma fibra.
Si la computadora llegara a detectar dos señales con la misma longitud de onda, que
71
deban ser enviadas por la misma fibra de salida, remite una de ellas a un convertidor de
longitud de onda (WC) para que su longitud de onda sea cambiada. Una vez que todas las
señales, que saldrán por el mismo puerto de salida, poseen longitudes de onda diferentes,
entonces son finalmente multicanalizadas (MUX) y enviadas a su destino final por la fibra
correspondiente.
La lectura de los encabezados de las señales, la regeneración de éstas, la conversión
de su longitud de onda, así como su enrutamiento hacia el puerto de salida que
corresponda, se efectúan dentro de un módulo que se le denomina matriz de
conmutación. En los sistemas DWDM actuales, esta matriz de conmutación es del tipo
“opaca”, ya que las señales ópticas de entrada son convertidas a electricidad y se
procesan en el dominio eléctrico. Como se puede deducir, entre más fibras de entrada
haya en el nodo, conteniendo cada vez más canales de información y con tasas de bit
cada vez mayores, la electrónica comienza a ser insuficiente para procesar todas las
señales en un tiempo adecuado, lo que produce demoras que forman cuellos de botella.
La solución es entonces hacer el procesamiento digital de las señales en el dominio
completamente óptico. Es decir, los canales de información arribantes al nodo nunca se
conviertan en electricidad para su procesamiento, sino que éste se hace completamente
en el dominio óptico. A la red de este tipo se le conoce como red completamente óptica
con procesamiento digital fotónico. En este caso la matriz de conmutación hace todo en el
dominio óptico, y se le denomina “transparente”.
PROCESAMIENTO DIGITAL FOTÓNICO
Como se mencionó, la clave para poder efectuar matrices de conmutación transparentes
es el procesamiento digital fotónico, el cual se puede desarrollar aprovechando la forma
en la que se manifiestan distintos fenómenos no lineales, como, entre otros:
• Mezcla de cuatro ondas
• Automodulación de la fase
• Modulación cruzada de la fase
• Modulación cruzada de la ganancia
• Modulación cruzada de la polarización
72
• Absorción de dos fotones
Estos fenómenos, y por tanto el procesamiento digital fotónico, se pueden desarrollar
con distintas tecnologías utilizando, por ejemplo:
• Guías de onda de niobato de litio periódicamente polarizado (PPLN)
• Monocapas autoensambladas iónicamente (ISAM films)
• Amplificadores ópticos de semiconductor
• Cristales fotónicos
• Fibras altamente no lineales
• Plasmones activos
• Micro y nanofotónica integrada en silicio
Cabe resaltar que de todas las tecnologías mencionadas, la micro y nanofotónica
integrada en silicio recientemente ha atraído gran atención, por las razones que en breve
se explicarán. Por lo pronto, es pertinente resaltar que existe una enorme cantidad de
funciones completamente ópticas —que efectúan algún tipo de procesamiento digital
fotónico— que recientemente han sido demostradas, dado que éste es un tema fértil de
investigación de mucha actualidad. En primer lugar, se tiene a las funciones booleanas
básicas AND, XOR, OR y NOT (Ma et al., 2010) que han permitido efectuar dispositivos más
complejos, como flip-flops (Liu et al., 2010), convertidores de longitud de onda (Pérez-
Serrano et al., 2013), sumadores y restadores (Dai, Bo et al., 2013), convertidores
analógico-digitales (Scaffardu et al., 2009), convertidores digital-analógicos (Wu et al.,
2009), codificadores multinivel (Pérez et al., 2013), conmutadores de paquetes ópticos
(Scaffardi et al., 2008), MUXs, DMUXs (Hong et al., 2011), entre otros. En este punto, es de
vital importancia señalar que, a diferencia de la electrónica, las funciones complejas
mencionadas no solamente se pueden desarrollar con combinaciones de funciones
booleanas básicas, sino que también se pueden hacer directamente explotando la
manifestación particular de algún fenómeno no lineal.
A partir de todo lo explicado en los párrafos anteriores, se deduce que los principales
retos del procesamiento digital fotónico (PDF) son (Bognoni):
• Efectuar la integración monolítica de varios dispositivos fotónicos de PDF
73
• Realizar la integración de dispositivos fotónicos de PDF con elementos electrónicos
• Implementar dispositivos fotónicos de PDF de bajo consumo de energía
• Desarrollar sistemas de PDF que contengan alta escalabilidad y cascabilidad
• Implementar sistemas de PDF que presenten una operación ultrarrápida
• Desarrollar dispositivos de PDF de bajo costo
De todos estos puntos, un aspecto en el que vale la pena abundar es el relacionado
con la integración de dispositivos electrónicos con fotónicos que efectúen procesamientos
digitales. Esta característica extremadamente deseable era hasta el año 2010 un sueño
que no se había podido realizar de manera práctica. La principal dificultad radicaba en
que los dispositivos electrónicos actuales se desarrollan con semiconductores indirectos,
como el silicio. Estos semiconductores son extremadamente ineficientes para generar y/o
liberar fotones cuando sus electrones pierden energía, por lo que a temperatura ambiente
y con corrientes bajas es imposible efectuar fuentes de luz con silicio puro (LEDs o
láseres). Dado que casi la totalidad de las funciones del procesamiento digital fotónico se
pueden realizar, utilizando el medio activo de los láseres de semiconductor, también
resultaba imposible efectuarlas con dispositivos de silicio. Sin embargo, investigaciones
recientes muestran que es posible generar láseres infrarrojos de silicio, contaminando
este material con fosfuro de indio o explotando el efecto Raman que se manifiesta
naturalmente dentro del silicio. Esta nueva tecnología, llamada nanofotónica integrada en
silicio, será, desde el punto de vista de muchos expertos, el motor de una nueva
revolución tecnológica, que permitirá desarrollar una gran cantidad de dispositivos
ultrarrápidos, sumamente estables,1 y es el motivo de análisis de la siguiente sección.
LA NANOFOTÓNICA INTEGRADA EN SILICIO Y LA COMPUTADORA
HÍBRIDA
1 Made in IBM Labs: IBM Lights Up Silicon Chips to Tackle Big Datahttp://www-
03.ibm.com/press/us/en/pressrelease/39641.wss.
74
En el año 2010, la compañía IBM anunció que logró efectuar, en silicio, con tecnología
CMOS (complementary metal-oxide-semiconductor) la integración de láseres, moduladores
de luz, fotorreceptores, guías de onda, MUX/DMUX e interruptores con transistores de
silicio. Como se sabe, la tecnología CMOS, que se usa para realizar microprocesadores y
circuitos integrados, tiene dos características muy importantes: presenta una baja
sensibilidad al ruido electromagnético y un consumo estático de potencia moderado. IBM
desea así efectuar procesadores extremadamente potentes, ultrarrápidos, poco sensibles
al ruido y de bajo consumo. La idea central de esta compañía es efectuar chips que ella
llama “en tres dimensiones (3D)”. En la parte baja del chip se colocará una capa de
procesamiento electrónico con diversos microprocesadores (al menos 16), después habrá
una capa superior de memoria y finalmente una capa de red de intercomunicación
fotónica. Esta red de interconexión óptica es en sí una matriz de conmutación, compuesta
por un enrejado de guías de onda ópticas, teniendo en cada uno de sus cruces un
interruptor fotónico que puede permitir el paso de la luz, en función de la orden eléctrica
que reciba, en cualquier dirección. Este concepto revolucionario terminará con un cuello
de botella que frena a la computación de hoy en día. En efecto, la electrónica ha logrado
efectuar operaciones digitales en tasas del orden de los gigabits, sin embargo, la
comunicación a través de pistas de cobre, con otros dispositivos periféricos y/o otros
procesadores, es muy lenta para evitar que las señales eléctricas se distorsionen. Este
fenómeno se acentúa a medida que las pistas de cobre se hacen más largas. No
obstante, con una interconexión fotónica como la propuesta por IBM, este problema
queda resuelto y el cómputo paralelo y el traslado de datos entre procesadores se podrá
efectuar a velocidades inimaginables. IBM ha llamado a sus procesadores 3D
“exaprocesadores”, porque espera que efectúen 1 018 operaciones por segundo (un trillón
de operaciones/seg), es decir, que un solo chip será 1 000 veces más rápido, en su
procesamiento, que las supercomputadoras de nuestros días.2
En particular, los procesadores o núcleos de procesamiento liberarán datos en
serie con una tasa de bits de 1 Tb/s, los cuales serán convertidos a paralelo y
posteriormente serán amplificados para manejar moduladores de luz. Lo anterior se
podrá realizar en el dominio eléctrico porque todo el trayecto que recorrerán las señales
2 Breakthrough chip technology lights the path to exascale computing,
http://www.zurich.ibm.com/news/10/nanophotonics.html.
75
eléctricas, desde que salen del núcleo de procesamiento hasta que llegan a los
moduladores, se hará en un área de 16 mm2. Así, se tendrán N canales eléctricos
paralelos que manejan a N moduladores de luz a los cuales les llega N diferentes fuentes
de luz (láseres de potencia constante), con N longitudes de onda diferentes. Los
moduladores transpondrán a la luz de amplitud constante que les llega, el formato de
modulación de la señal eléctrica que los maneja. Así, a la salida de los moduladores se
tendrán N canales ópticos con diferente longitud de onda e información. Estos canales
serán multicanalizados en una sola guía de onda de silicio, utilizando un MUX WDM.
Posteriormente, la guía de onda los dirigirá hacia la matriz de interconexión óptica donde
serán enviados a su destino final. Para ello, la matriz de interconexión habilitará los
interruptores que el núcleo de procesamiento le ordene, de manera que los canales
ópticos multiplexados lleguen justo arriba del procesador o periférico a donde el primer
núcleo se quería conectar. Una vez en su destino final, los canales ópticos son
fotodetectados, amplificados eléctricamente, serializados e introducidos en el núcleo de
procesamiento blanco o destinatario.3
IBM está desarrollando esta nueva tecnología para fabricar computadoras de alto
rendimiento, sin embargo Intel también ha logrado la integración nanofotónica con
dispositivos electrónicos en silicio y su objetivo es desarrollar los núcleos de las
computadoras que todos utilizaremos.4 En el caso particular de Intel, el bus de datos no
será sustituido por guías de onda de silicio, sino por fibra óptica. IBM e Intel no son las
únicas compañías que se encuentran desarrollando esta nueva tecnología, también HP se
engloba en este contexto, así como algunas startups como Luxtera, Kotura, Lightwire,
Genalyte y Caliopa.
Como se puede entender de lo descrito anteriormente, la nanofotónica integrada
en silicio revolucionará la tecnología de los circuitos integrados de hoy en día, permitirá
desarrollar dispositivos ultrarrápidos, de bajo consumo y de muy baja sensibilidad al ruido
electromagnético. El primer gran paso es la concepción de la computadora híbrida con su
3 IBM chips the laser light fantastic, http://insidehpc.com/2010/12/02/ibm-chips-the-laser-light-
fantastic.
4 Revolutionizing Computing with Lasers, http://www.intelfreepress.com/news/revolutionizing-
computing-with-lasers/57.
76
interconexión óptica, pero a medida que esto suceda y se requiera aún más velocidad,
para desarrollar aplicaciones inimaginables hoy en día, el procesamiento digital fotónico
será indispensable. Por ahora, la tecnología dará un salto cuántico en cuanto a tasas de
bits y estabilidad, y se tendrá un nuevo concepto de tiempo real en miles de aplicaciones,
cada vez más complejas y demandantes. Evidentemente, esta tecnología no sólo se
aplicará a las telecomunicaciones y a la computación y será el preámbulo del
procesamiento digital fotónico, sino que será empleada en una gran cantidad de sectores,
como el de salud, educación, seguridad, la industria, entre otros. En pocas palabras, la
nanofotónica integrada en silicio será una tecnología que revolucionará nuestras
sociedades.
OPORTUNIDADES PARA MÉXICO En este texto se ha expuesto cómo las comunicaciones fotónicas han evolucionado y han
ganado terreno en la tecnología actual. Ahora las tenemos en enlaces submarinos de
ultralarga distancia, comunicando ciudades, en redes metropolitanas, en redes de área
local, llegando a casas y oficinas, pero también interconectando cuartos de control, racks,
tarjetas, circuitos integrados y en interconexiones intrachips. Es decir, las comunicaciones
fotónicas son una pieza clave de la tecnología por venir que ya se encuentra inundando
los países desarrollados y que, sin duda alguna, llegará masivamente a México. Por tal
motivo, en breve se tendrán las siguientes oportunidades:
• Será necesario diseñar e instalar redes ópticas adecuadas para nuestro país y
llegar con fibra óptica a muchos hogares y oficinas
• Se necesitará una gran cantidad de equipo y dispositivos que se pueden fabricar
en México, para consumo interno y para el mundo
• Dado el gran volumen de mercado que representan, las comunicaciones ópticas
son una oportunidad viable para producir tecnología propia y para ayudar a
transformar a las empresas maquiladoras de componentes fotónicos en empresas
desarrolladoras de tecnología
• Las comunicaciones ópticas representan el medio ideal para desarrollar nuevas
aplicaciones, por ejemplo, comunicaciones seguras por criptografía cuántica
77
• Dada la complejidad de los temas por abordar, el desarrollo de las comunicaciones
ópticas en México es una gran oportunidad para vincular estrechamente a la
academia con la industria y para crear empresas promotoras comercialmente del
conocimiento técnico y científico
En cuanto a la nanofotónica integrada y al procesamiento digital fotónico, son nichos
que transformarán la tecnología mundial y representan una enorme oportunidad para
invertir fuertemente en ellos para transformar a México en una potencia mundial de las
nuevas tecnologías del futuro, que se emplearán no sólo en las telecomunicaciones sino
en prácticamente todos los campos de nuestra vida.
Las comunicaciones fotónicas y la nanofotónica integrada en silicio representan un
nicho de oportunidad enorme para nuestro país. Son tecnologías que invadirán al mundo
en todos sus sectores y representan un mercado trillonario. México está hoy en día en la
disyuntiva de seguir siendo un espectador del mundo de la tecnología o convertirse en un
protagonista de ésta que le genere riqueza y las condiciones para tener una sociedad más
justa y equitativa. Corea del Sur, siendo un país más pobre que México, tomó la decisión
de volverse una potencia en los sectores automotriz, de electrodomésticos y de
telecomunicaciones y lo logró. ¿Nosotros tomaremos la decisión de volvernos una
potencia de la nanofotónica e inundaremos con nuestra tecnología y productos al mundo?
Para lograrlo hay que comenzar desde las universidades, enfocando los programas de
estudio hacia estos temas, es necesario impulsar la investigación de la nanofotónica
integrada en silicio en centros públicos y universidades. Es imperativo crear nuevos entes
de investigación dedicados a esta materia, traer a México especialistas en el campo,
generar masas críticas, abrir plazas de investigación y de posdoctorados, eliminar las
normativas absurdas que asfixian a la investigación en México, incentivar a empresas
para que paguen el salario de investigadores, alentar y establecer como punto final de
programas de investigación la creación de empresas promotoras comercialmente del
conocimiento técnico y científico, incluir la nanofotónica integrada en silicio dentro del Plan
Nacional de Desarrollo del país, hacer un plan nacional con objetivos precisos y recursos
comprometidos para el desarrollo de la nanofotónica integrada en silicio con la formación
paralela de la industria nacional que la explotará, entre otros aspectos.
En pocas palabras, debemos tener una visión de hacia dónde se quiere ir y
apostarle con inteligencia y sin escatimar recursos, puesto que el retorno de la inversión
no sólo sería en trillones de pesos, sino en bienestar para nuestra sociedad.
78
CONCLUSIONES Dado que las comunicaciones ópticas se han vuelto la columna vertebral que sostiene la
demanda de banda ancha, han cobrado una gran importancia y juegan un papel
estratégico en la vida de cualquier país.
Las comunicaciones fotónicas y el procesamiento digital fotónico son elementos
clave para las tecnologías del futuro cercano que revolucionarán los sistemas de
comunicaciones ópticas y de cómputo.
La nanofotónica integrada en silicio es una tecnología que cambiará la forma de
proceder de las sociedades modernas, y en conjunto con las comunicaciones fotónicas
representa una enorme oportunidad para invertir fuertemente en ellas para transformar a
México en una potencia mundial de las nuevas tecnologías del futuro.
Las comunicaciones fotónicas, el procesamiento digital fotónico y la nanofotónica
integrada en silicio, por su relevancia académica y por la repercusión que pueden tener
para nuestra sociedad, son sin duda directrices que indican hacia donde se debe enfocar
la ciencia en México.
La comunicaciones fotónicas, aparte de representar un gran nicho de oportunidad
para nuestro país, son también un campo imperioso a desarrollar, ya que pocos sectores
como la industria de las telecomunicaciones tienen tanto efecto en tantos ámbitos de una
sociedad y en la competitividad de un país.
REFERENCIAS
Aurora Networks Overview (s/a). WDM, CWDM DWDM and LcWDM, Technology,
http://webcache.googleusercontent.com/search?q=cache:dHKdRL19mREJ:www.cc
tanet.com/index.php%3Foption%3Dcom_docman%26task%3Ddoc_download%26
gid%3D27+LcWDM&cd=2&hl=en&ct=clnk.
Bogoni, Antonella (s/a). Trend, Challenges and Applications of Photonic Digital
Processing, Integrated Research Center for Photonic Networks and Technologies.
79
https://docs.google.com/viewer?a=v&q=cache:dyYlDAtoOw0J:optoelectronics.ece.
ucsb.edu/sites/default/files/shared/docs/bogoni%2520seminar.pdf+%22Trend,+Ch
allenges+and+Applications+of+Photonic+Digital+Processing%22&hl=en&pid=bl&sr
cid=ADGEESi2pwIr99UwlPNfco3CWcfSnrOY5YNlU7HOXt48_m9qESCYFaomQG
24pp5jdW05TzMD2Rx1FU8ZjnMaBbThd6vieE3sn-
Lpq6FICEuzwPZEYOakc9Rrsa1Yngj14vjg7pWVGv8W&sig=AHIEtbSLPcKNKwDg
Y2UKeRiCBjvOO7AZWg.
Dai, Bo et al. (2013). Simultaneous All-Optical Half-Adder and Half-Subtracter Based on
Two Semiconductor Optical Amplifiers. IEEE PTL, 25(1), 91-93.
Hong, Wei et al. (2011). Design of flexible and reconfigurable optical add/drop multiplexer.
Optical Fiber Technology, 17(3), 247-251.
Liu, Liu et al. (2010). An ultra-small, low-power, all-optical flip-flop memory on a silicon
chip. Nature Photonics, 4, 182-187.
Ma, Shaozhen et al. (2010). High speed all optical logic gates based on quantum dot
semiconductor optical amplifiers (AND, XOR, NOT). Optics Express, 18(7), 6417-
6422.
Milla-León, Luis (s/a). Comunicaciones ópticas: conceptos, aplicaciones y tendencias.
https://docs.google.com/viewer?a=v&q=cache:xxUIVdNjDrUJ:www.usmp.edu.pe/vi
sion2011/exposiciones/21.%2520Comunicaciones.pdf+400+millones+de+conversa
ciones+telef%C3%B3nicas+simultaneas&hl=en&pid=bl&srcid=ADGEEShhMgE5u4
u4wTn2h3_Hd-
WbxH3oWkXJJ3lsIpSiCGsZUaom093d7_YmKq0pan_rEvekwqarkwbOfB1Jns6UVv
fgtP8ki8ERQ1QhjmLFMgQVt3WAxFJ79tPMONvedYyoqycRTUVJ&sig=AHIEtbT5l
wZBMrDET-CEdlicLN3NCX4fWg
Mynbaev, Djafar K. (2011). Optical Communications: Status and Trends. Universidad de
Nueva York.
http://webcache.googleusercontent.com/search?q=cache:9cpA8qr71AIJ:iaria.org/c
onferences2011/filesAICT11/AICT_2011_Tutorial_Optical.pdf+Optical+Communica
tions:+Status+and+Trends&cd=1&hl=en&ct=clnk.
Pérez Cortés, Obed et al. (2013). All-Optical Binary-to-Octal Encoder Based on a
Semiconductor Optical Amplifier: Application to Eight-Level ASK Signaling
Pérez-Serrano et al. (2013). Multichannel Wavelength Conversion Using Four-Wave
Mixing in Semiconductor Ring Lasers. IEEE PTL, 25(5), 476-479.
80
Scaffardi, M. et al. (2008). Photonics in Switching (PS), Post deadline paper. 160Gb/s/port
2×2 OPS node test-bed performing 50Gchip/s all-optical active label processing with
contention detection.
Scaffardi, M. et al. (2009). M. Scaffardi Analog-to-Digital Conversion based on modular
blocks exploiting Cross Gain Modulation in Semiconductor Optical Amplifiers. IEEE
PTL, 21, 540-542.
Vass, Sinclair (2011). Optical communications trends for 2011, Lightwave.
http://www.lightwaveonline.com/articles/2011/01/optical-communications-trends-
for-2011-113365784.html.
Wu, Qingwei et al. (2009). 40GS/s Optical analog-to-digital conversion system and its
improvement. Optics Express, 17(11), 9252-9257.
Yao, Colin (s/a). The Future of Fiber Optic Communication.
http://www.streetdirectory.com/travel_guide/126621/computers/the_future_of_fiber
_optic_communication.html.
81
COMPUTACIÓN. ALGUNAS OPORTUNIDADES Y RIESGOS TECNOLÓGICOS
Adolfo Guzmán Arenas*
En el vertiginoso desarrollo de la computación y sus aplicaciones, es prudente reflexionar
en qué deben invertir sus esfuerzos los tecnólogos e investigadores que trabajamos en
esta área. Atisbar hacia dónde va nuestra disciplina tiene la ventaja de que podemos
tomar acciones cuando encontramos oportunidades en las que dedicar nuestros
esfuerzos. O al menos, señalar a otros las oportunidades que creemos ver. Por eso, en la
primera sección de este artículo enumero algunas líneas de investigación en las que, a mi
parecer, conviene invertir esfuerzos y recursos. Por supuesto, la lista no es exhaustiva.
Asimismo, una mirada retrospectiva, reflexiva, a lo que estamos haciendo mal, o
de manera más general, ver qué obstáculos frenan o limitan un desarrollo adecuado de
nuestra área, será útil para tratar de evitar y corregir estos errores o condiciones. Por
tanto, en la segunda sección señalamos varios problemas actuales que son importantes
impedimentos (a mi entender) para consolidar y acelerar el progreso de nuestra disciplina.
En la última sección se proponen las grandes acciones que a mi juicio deben
tomar las organizaciones que dedican sus esfuerzos a la ciencia y la tecnología, en
particular en este estratégico y vigoroso campo de la computación teórica y aplicada.
OPORTUNIDADES, ÁREAS A DESARROLLAR
En México, cada año terminan sus estudios profesionales (licenciatura en ingeniería)
aproximadamente 25 000 egresados de las distintas carreras de informática,
computación, cibernética, sistemas computacionales y otros nombres similares (en
Estados Unidos la cifra anual de egresados es de 50 000; en la India, 100 000).
Desafortunadamente, la mayor parte del software y del equipo de cómputo y
telecomunicaciones que se usa en México es importado. ¿A qué se dedica entonces esta
importante y calificada mano de obra? Ciertamente, algunos desarrollan software a la
*
82
medida, que no puede importarse porque no existe, es muy caro, o la empresa tiene
necesidades muy específicas de manejo de información. La mayoría instala, usa y adapta
equipo y software importados. Sólo un número reducido produce software para consumo
nacional (e internacional, tal vez).
Por otro lado, la preparación de un egresado de estudios profesionales en México
es buena, si la comparamos con los egresados de otros países. He trabajado con
compañeros de México, Colombia, Estados Unidos, China, India, Turquía (y algún otro
país), y hay desde luego diferencias personales en cuanto a creatividad y productividad,
pero no percibo que estén correlacionadas con el país donde estudiaron. Los compañeros
mexicanos (y en general, los latinoamericanos) se caracterizan por ser creativos e
ingeniosos.
¿Tiene alguna ventaja crear software de uso amplio? Sí, por supuesto. La gran
ventaja de una aplicación informática es que sólo hay que producir una pieza original, las
demás copias son tan buenas como el original mismo. No tiene gastos de transporte (se
usa internet), de impresión, de manufactura (de las copias). Ah, pero necesita ser bueno,
confiable, fácil de usar y realmente útil. Si no lo es, ni se compra ni se vende ni se usa ni
remplaza a software o servicio importado alguno. En general, el mejor software (uno que
cumpla con las características señaladas) se desarrolla junto con el usuario. Es él o ella
quienes van dando retroalimentación valiosa sobre qué especificaciones básicas debe
cumplir, qué le falta o le sobra; nos puede dar ejemplos de aplicaciones parecidas que
tienen tal y cual característica deseable, y señalan fallas de otras para evitarlas.
Y nuestros investigadores en estas disciplinas, ¿cómo contribuyen a cerrar la
dependencia tecnológica en este rubro? Poco, diría yo. Es escasa su producción de
bienes o servicios comerciales (que remplacen a los importados y sean a su vez
exportados), patentes, registros de software ante el Indautor (en México el software no se
patenta), procesos industriales, marcas registradas, etcétera. Ver el apartado “Poco
interés del sector académico/de investigación en proteger sus desarrollos e innovaciones”.
Afortunadamente, nuestra disciplina es muy joven. Aún es tiempo de cerrar la
brecha digital. Con el fin de aprovechar mejor (“encauzar”) una fracción de esa mano de
obra, su creatividad y empuje, señalo algunas áreas en las que, a mi juicio, podemos
contribuir para crear productos competitivos, “tropicalizados” y mejor adaptados a las
83
necesidades de las organizaciones y empresas mexicanas. Y, ¿por qué no?, después
abarcar otros mercados.
Dispositivos móviles
A finales del año 2013 hubo más dispositivos móviles que habitantes de la Tierra; estos
forman un mercado no saturado, de gran crecimiento. Y para el año 2017, Cisco (empresa
de telecomunicaciones digitales) estima que habrá diez mil millones de dispositivos
móviles. Tan sólo los dispositivos Android, en 2013 eran mil millones. Según un estudio
hecho por Laboratorios iAB,1 “existían en 2012 en México 95.5 millones de líneas
telefónicas para celulares (datos de Cofetel), de los cuales 17% son teléfonos inteligentes,
83% celulares, mientras que el porcentaje de usuarios de tabletas en México no supera el
5%. En promedio, los mexicanos realizan seis actividades diferentes en su dispositivo
móvil, de éstas las más frecuentes son: 91% los utiliza para actividades elementales como
hablar por teléfono, enviar mensajes de texto (64%) o como despertador (52 por ciento).
Las actividades de entretenimiento en el celular las realiza 70% de los usuarios: toman
fotografías (47%), escuchan música (43%) y juegan (35%). El 38% lleva a cabo
actividades relacionadas con internet, como usar las redes sociales (18%), enviar correos
electrónicos (15%) y navegar en internet (15%). También hay un 21% que utiliza el celular
para actividades especializadas como leer noticias (16%), abrir archivos del trabajo (8%) y
realizar transacciones bancarias (3 por ciento).
Aquellos usuarios que tienen internet en su dispositivo móvil, ¿para qué lo usan?
Según el mismo estudio, “En promedio, pasan tres horas navegando y realizan 10
actividades, como hablar por teléfono, estar en las redes y navegar en internet. En
promedio realizan cinco actividades relacionadas con internet, principalmente usan redes
sociales (65%), buscadores (54%), correo electrónico (45%) y chat (41%). Además, 44%
utiliza algún sistema de geolocalización: Google Maps (80%), Nokia Maps (19%) y Guía
Roji (18%). El 66% descarga aplicaciones, de las cuales, las relacionadas con las redes
sociales son las más populares”. Continúa diciendo: “Actualmente, el 49% de los usuarios
recibe publicidad en su dispositivo móvil, principalmente a través de mensajes SMS y
correo electrónico”.
1http://www.iabmexico.com.
84
Este enorme mercado de usuarios recientes de dispositivos digitales para
telecomunicación no está saturado, y destacan varias oportunidades:
• Migración de aplicaciones que actualmente corren en PCs y laptops
• Juegos (ver siguiente apartado)
• Aplicaciones basadas en la situación del usuario (voy a visitar una empresa, me
gustaría que mi software me recordara qué conocidos míos pueden encontrarse
ahí, ver sus fotografías y qué hacen o cómo los conocí)
• Seguimiento de trayectorias o recorridos (tracking)
• Aprendizaje remoto (ver más adelante el apartado “Enseñanza virtual”)
Juegos
Cuando las computadoras bajaron de precio, empezaron a abundar los juegos digitales.
Con la existencia de una gran cantidad de dispositivos pequeños, portátiles, el mercado
ha crecido enormemente. Empero, casi no se desarrollan juegos en México, a pesar de
que nuestro país tiene una gran riqueza histórica y cultural que se podría aprovechar para
darles contextos, tramas y personajes singulares, interesantes o no trillados. Los juegos
se pueden desarrollar en ambientes únicos o inusuales (juegos en las ruinas mayas,
juegos semihistóricos, peleas entre bandos en la Gran Tenochtitlán, viajes por las grutas
de Cacahuamilpa, etcétera). Desde el punto de vista de la técnica, el desarrollo de juegos
requiere programación fina para ejecución rápida, despliegue de detalles (rendering,
texturas, superficies) con distintas granularidades, y movimientos rápidos. Desde el punto
de vista artístico, requiere de caracterización de personajes, continuidad, movimientos
convincentes, trama interesante. Brindan la oportunidad de combinar el sentido artístico
(que se enseña en carreras de diseño gráfico, filmación y afines) con habilidad técnica de
explotar la computadora.
Internet
De acuerdo con un estudio hecho en el año 2014 de la Asociación Mexicana de Internet
(AMIPCI) acerca de los hábitos de los usuarios de Internet en México, en 2013 hubo 51.2
millones de ellos (dato de Ifetel); su antigüedad promedio como internauta es de seis
años, y el uso más común es el correo electrónico (81%), acceder a redes sociales (77%),
85
búsqueda de información (72%) y envío de mensajes (55%). Nueve de cada diez
internautas accede a alguna red social, su uso más frecuente es “comunicarse con
amigos”. Se conecta 5.36 horas diariamente, sobre todo desde el hogar (71%), usa sobre
todo una conexión Wi-Fi contratada (66%). El principal acceso es a través de laptop o PC.
La mitad de ellos lo hace con un teléfono inteligente. El 84% de los internautas ha
descargado alguna aplicación. Ocho de cada diez niños usan internet (se convierten en
internautas a la edad de 10 años, en promedio): para actividades escolares (48%) y
entretenimiento (50 por ciento).
Esta penetración continua de internet en nuestras actividades invita a desarrollar
aplicaciones novedosas (por ejemplo, aquéllas que, al facilitar la comunicación, eviten el
desplazamiento físico de las personas, remplazándolo por transmisión de información)
que aprovechen la alta comunicación, el gran número de usuarios potenciales y el bajo
costo. Entre ellas destaco:
• Servicios a los ciudadanos (pagos, encuestas, remplazo del correo de papel);
consultas, aclaraciones; aplicaciones que explotan la ubicación del usuario (ver más
adelante la sección “Despliegue en mapas y geoprocesamiento”)
• Elaboración de encuestas; índices de satisfacción; votaciones, elecciones electrónicas
• Análisis de tendencias (en redes sociales; en popularidad de espectáculos, de
inclinaciones, de preocupaciones), de opiniones o percepciones (ver la sección “La
ciencia de los datos”). En lugar de hacer encuestas por teléfono, o por internet,
examina lo que se dice en las redes sociales, cuáles son la preocupaciones de los
usuarios, cuáles temas tienen más efecto, y se podrán encontrar resultados similares
si se usan bien la estadística y el procesamiento masivo de datos
La ciencia de los datos
El abaratamiento de la capacidad de proceso, así como del almacenamiento y de la
transmisión de la información ahora hace posible tener una gran cantidad de datos
disponibles para obtener conclusiones y derivar decisiones o acciones al estudiar “lo que
nos quieren decir”. Es muy importante sobre todo para, a partir de un mar de datos, hacer
86
planeación estratégica, descubrir tendencias, desviaciones, situaciones interesantes y
anomalías. Para ello, sugerimos los siguientes desarrollos:
• Minería de datos. La búsqueda sistemática de anomalías, desviaciones, situaciones
interesantes y tendencias. Predicciones. Encuestas que explotan los mensajes de
Twitter. Minería sobre dispositivos móviles. Minería usando Hadoop (varias máquinas)
y MapReduce. Ver la sección “Cuidado: procesamiento masivo de datos. Grandes
computadoras paralelas”
• Análisis de texto. Mucha de la información está en texto. ¿Qué dice? ¿Cuál es su
significado? ¿Cómo una computadora puede hacer deducciones o guiar decisiones
basada en el análisis de su contenido, de su significado? Buscadores “inteligentes”.
Bibliotecas digitales.
Interconexión de utensilios cotidianos
Cada vez más objetos cotidianos están conectados a internet (electrodomésticos,
sensores como termostatos, cámaras de video, lectores de humedad; pero también se
utiliza en válvulas para controlar fluidos, como regar las partes secas de mi cultivo,
motores, alarmas, compuertas que permiten o impiden el paso…) que se comunican
sobre todo con computadoras que recogen sus lecturas, toman decisiones y controlan los
aparatos; o se comunican entre sí. Eventualmente se comunican con el ser humano.
¿Qué beneficios puede traer? Entre otros, optimizar la cadena de abastecimiento, bajar
costos, mejorar la experiencia y satisfacción de los consumidores, ahorrar energía, tener
mejor idea de “cómo van las cosas”, tener mayor seguridad, respuestas más rápidas a
emergencias. Las oportunidades que IoT (internet of things, que aquí traducimos como
“interconexión de utensilios cotidianos”) presenta se pueden visualizar si pensamos, dado
un problema, cómo una buena cantidad de sensores y actuadores controlados por
software podrían ayudar a solucionarlo. Por ejemplo: en vías y lugares públicos de la
ciudad de México se han colocado unas diez mil cámaras de video. Controladas mediante
software, podrían ayudar a detectar embotellamientos, choques, riñas, accidentes, seguir
vehículos sospechosos, encontrar a personas desparecidas, etcétera (ver más adelante la
sección “Despliegue en mapas y geoposicionamiento”).
87
Torrentes de datos
Al llegar la información, lo normal es almacenarla en una base de datos para luego
procesarla. Los datos llegan primero, las preguntas después. Dicho esto, en la actualidad
hay muchos datos que llegan como si fuera un flujo o torrente: llamadas telefónicas,
accesos a una página web popular, correos electrónicos, imágenes de las cámaras en la
vía pública, información de satélites (boyas, sismógrafos, otros sensores), compras en un
centro comercial, señales en procesos industriales… ¿Por qué no analizamos los datos
conforme llegan? Pensemos en unos filtros que dejan pasar los datos que cumplen con
ciertas propiedades (llamadas que duran más de tres minutos), los cuentan y dan
resúmenes periódicos (“en esta hora, hubo 119 llamadas de más de tres minutos”). Desde
otra óptica, estos “filtros” hacen una especie de resumen de lo que va entrando. Las
preguntas llegan primero, los datos después. Los datos no se almacenan (bueno, no
necesariamente), sólo se almacenan los resultados. La buena noticia es que la
herramienta preferida para analizar bases de datos relacionales, el lenguaje SQL, también
se puede aplicar para hacer un análisis continuo de torrentes de datos (data streams, no
confundir con video streaming o lectura en tránsito, que es el envío de multimedia, un
video, digamos, de forma que se pueda consumir —ver— al mismo tiempo que se
descarga). Las oportunidades se presentan cuando consideramos cómo transformar
nuestro problema para mirarlo desde el punto de vista de “analizar los datos conforme
llegan”, aunque nuestras respuestas sean aproximadas. “Procesar datos que están en
movimiento”, este proceso es de un solo paso, no hay oportunidad de volver a procesar
los datos que ya pasaron (ya se fueron).
Enseñanza virtual
Las grandes universidades de Estados Unidos y de la Unión Europea están entrando en
este juego. Pronto nos veremos inundados de cursos impartidos por prestigiosas
universidades extranjeras, hechos para sus necesidades. Si a esto se le une el
malinchismo que aún existe en algunos sectores de nuestro país, la educación para
nuestras necesidades y objetivos se verá muy mermada. Debemos entrar en este
mercado antes de que sea tarde. Afortunadamente, nos es más fácil que en otros lares
poner de acuerdo a amplios sectores educativos sobre lo que conviene enseñar. Similar al
88
esfuerzo para dotar de libros unificados a todos los estudiantes de primaria, es necesario
hacer el mismo esfuerzo para secundaria, preparatoria (o vocacional) y cursos básicos de
la enseñanza superior. Hablo de textos unificados.
Textos unificados
Hace algún tiempo, la Asociación Nacional de Instituciones de Enseñanza en Informática
(ANIEI) desarrolló unos “modelos curriculares” de los posibles contenidos de los cursos a
nivel superior en esencialmente todas las áreas posibles de la computación. Similar a los
currícula desarrollados por el Institute of Electrical and Electronics Engineers (IEEE) y la
Association for Computing Machinery (ACM), pero orientados a nuestra realidad. Estos
modelos, actualizados, pueden dar lugar a unos 100 libros de texto “unificados”, que
serían escritos por autores de renombrado prestigio (se someterían a concurso). A los
autores se les pagaría y los libros estarían disponibles gratis en la web, para su uso libre
por universidades y profesores que los encuentren útiles. Siendo de indudable calidad,
este material sería adaptado y usado en una buena porción de los programas de
enseñanza superior en informática. Ahora bien, un plan de estudios a nivel superior
incluye unas 50 materias, de modo que estos 100 libros cubrirían todas, o casi todas, las
materias de prácticamente todas las carreras profesionales en computación, informática,
ingeniería de cómputo y otros nombres similares. Cada plan de estudios contendrá,
seguramente, algunas materias que no están en estos libros unificados, y los profesores
de materias particulares que los usen añadirán en sus enseñanzas cierto material que no
está en ellos, o bien omitirán algunas secciones. Periódicamente estos cambios o
actualizaciones darán lugar a nuevas versiones de los libros unificados. Se puede formar
un wiki para esto.
Problemas con la enseñanza virtual
La experiencia en otras universidades muestra que no se necesita crear material
elaborado, multimedia, con gráficas interactivas o en tercera dimensión, pues son
moderada o escasamente útiles. En cambio, un texto más o menos plano acompañado de
buenas secciones de video (5-10 minutos por tema), que se suben a Youtube, son muy
útiles. Otros problemas (no insolubles) a resolver son:
89
• Resolución de dudas. Éste es un problema importante cuando el estudiante no
entiende o entiende mal la información durante el curso. Se han usado chats y foros
de discusión, pero imponen una gran carga sobre el profesor o facilitador, y no
resuelven bien las dudas
• Poca atención personal. El estudiante siente que no es atendido de forma individual.
No se identifica con que su profesor sea una máquina. El alumno no se identifica con
el profesor. El profesor no conoce a los estudiantes
• Aislamiento. El estudiante virtual no sabe quiénes son sus “compañeros de grupo”. No
interactúa con ellos. Quizá no haga trabajo en grupo ni tenga actividades colectivas.
Cada quien está solo, o se siente solo.
• Aburrimiento. Generalmente los cursos a distancia tienen una gran deserción. Falta
hacerlos atractivos, interesantes, usar el suspenso… “aún hay más”
Despliegue en mapas y geoposicionamiento
Dada la fácil disponibilidad de mapas y planos de ciudades y del territorio de todo el globo
terráqueo, el despliegue de información en mapas es útil y estará en aumento. Combinar
esto con el geoposicionamiento del usuario permite brindarle información relevante de su
localidad. Pensemos en una actualización distribuida de la información desplegada (varias
fuentes de información suministran un flujo unificado de información), idealmente en
tiempo real. Algunas aplicaciones serían:
• Servicios gratuitos al ciudadano donde el municipio (o el estado) le brinda información
relevante en mapas consultables mediante un navegador
• Encuestas e informes donde el ciudadano participa (brinda información) mediante un
mapa
• Aplicaciones para que grupos de personas geográficamente dispersas conozcan e
informen el avance de sus actividades. Por ejemplo: un grupo de ayuda a
discapacitados expone sus avances, muestra imágenes y documentos de sus
90
actividades, metas y retos en un mapa accesible a sus miembros (o al público en
general)
• Vigilancia y detección de “eventos anómalos”: una especie de minería de datos (ver la
sección “La ciencia de los datos”) pero con datos que tienen lugar en el tiempo y en el
espacio (ver también el apartado “Imágenes y dispositivos de video”)
Despliegue y captura en 3D
La computadora y la cámara digital se están librando de la restricción de trabajar en dos
dimensiones: ahora es posible capturar imágenes, video y otro tipo de información
tridimensional, y desplegarlo de la misma forma (y pronto será posible hacerlo
económicamente). La captura de información en 3D (imágenes volumétricas, video;
gestos, movimientos de manos, actitud corporal; interacción entre dos o más personas;
estudio del flujo de multitudes, o de flujo de partículas) abre grandes posibilidades para
desarrollar aplicaciones innovadoras. El uso de dispositivos sofisticados (para “realidad
aumentada”: cascos para inmersión en mundos fantásticos, trajes activos, guantes
especiales…) y costosos se está viendo superado por dispositivos sencillos y de precio
accesible.
Imágenes y dispositivos de video
La colocación de cámaras de video en lugares públicos y privados ha ido en aumento, ya
que proporcionan evidencia histórica y legal de lo sucedido. Esta información es de gran
volumen, y en general su análisis se lleva a cabo de forma manual (un operador observa
las imágenes buscando encontrar anomalías o eventos —un asalto, alguna persona que
yace en el piso— que ameriten su intervención, o “a toro pasado” (mucho después de
ocurrido el asalto se revisan las grabaciones). Puesto que el operador debe observar
varios flujos de información (típicamente, 16 imágenes en un monitor), su eficiencia es
modesta, es fácil aburrirse y distraerse. Es importante desarrollar software que analice la
información captada y que señale situaciones anómalas o sospechosas en tiempo real,
para así auxiliar (o remplazar) al análisis manual. Un paso más allá involucra seguimiento
91
a través de las diversas cámaras: de un vehículo sospechoso, de una persona en
particular. Aunque aquí existen cuestiones de privacidad (ver la siguiente sección).
Seguridad informática y privacidad
Menciono este aspecto porque es de importancia indiscutible, sobre todo ahora que
mucho del software de base que usamos viene por internet, lo que trae consigo, además
de virus, bots, SPAM, robo de identidad, etcétera, que haya gobiernos o entidades que
recogen información nuestra de manera no muy obvia, y reúnen grandes bases de datos
sobre cada ciudadano común, “por lo que pudiera ofrecerse”. ¿Dónde están guardados en
la red todos nuestros correos electrónicos, nuestras imágenes, nuestra página web,
nuestro blog, nuestros chats?, información que voluntariamente hemos proporcionado.
¿Qué protecciones de seguridad tienen? ¿Quién tiene acceso a ellos? Aparte, cuando
visito un sitio web, el visitado puede colocar en mi computadora galletas informáticas
(cookies), una pequeña cantidad de información que el sitio web me envía, para que ese
sitio pueda conocer mi actividad previa (con él). Esto es útil para que el sitio “continúe con
la conversación” si es que lo visito frecuentemente. Pero también se puede usar para
conocer mis hábitos de navegación, mis preferencias…
No ofrezco aquí sugerencias de oportunidades a explorar, porque no soy experto
en el área, pero la señalo por su importancia indiscutible.
Software para envejecimiento activo y personas con alguna discapacidad
Buena parte de la población mundial, y en particular la de los países desarrollados, está
envejeciendo. Saludables o con alguna discapacidad, los adultos mayores requieren
atención especial. Por otro lado, les gusta vivir independientes, en lo posible no depender
de la ayuda de familiares, cuidadores profesionales o centros de atención. Aquí, la
tecnología informática puede contribuir en la creación de dispositivos y servicios que
apoyen en el envejecimiento activo, presten ayuda al adulto mayor y los mantengan en
comunicación oportuna con sus familiares, colegas y servicios médicos o de emergencia.
Consideremos las siguientes oportunidades:
92
• Ayuda para necesidades fisiológicas o biológicas: control de sillas de ruedas; prendas
de vestir adaptadas (soporte extra en ciertas partes del cuerpo); prendas de vestir
provistas de sensores para detectar posibles anomalías cardiacas, respiratorias,
etcétera; en general, monitores de salud; software para el usuario vea lo que no puede
decir (para problemas en el habla), escuche lo que no puede ver (problemas visuales),
dicte lo que no puede escribir (problemas motrices), barredores ópticos que convierten
una gráfica o imagen en imágenes en relieve de alta definición; sumadoras y
calculadoras que hablan; lectores de libros digitales, de documentos escritos;
amplificadores de audio que se adaptan a la curva auditiva del usuario; entre otros.
• Para las necesidades de seguridad: sentirse libre de peligro (real o aparente), caídas
en el hogar, detección temprana de problemas de salud: sensores para
electrodomésticos que construyen patrones de uso habitual y reportan (vía internet,
por ejemplo) alguna anomalía; sensores de movimiento, de radiofrecuencia (gafetes
activos que usan RFID) o de posición con el mismo propósito; sensores que avisan que
el adulto abandonó cierta “área segura”; sensores de caídas no recuperables (el
adulto no se puede incorporar); localización vía GPS del lugar donde está el usuario;
electrodomésticos inteligentes que obedecen a comandos de voz, y en general
“hogares inteligentes”, etcétera.
• Para las necesidades de afecto: conexión con la familia, con amigos y colegas,
participación en la vida social (iglesia, club); “memorias sensibles al contexto”, que me
recuerdan nombres y fotografías de las personas que quizá estén en el lugar que
estoy visitando; pantallas que me facilitan socializar, compartir fotos, entrar en
discusiones; entre otros.
• Para mantenerse activo: programas para trabajo de tiempo parcial, esporádico, remoto
(en casa) o móvil; software que crea un “trabajador virtual en el tiempo” capaz de
desarrollar cierta tarea, a partir de adultos reales que señalan los horarios en que
están disponibles” (por ejemplo, traducir o verificar ciertos textos); software para
“trabajador virtual en el espacio”, que le permite a un adulto mayor (con experiencia y
conocimientos en cierta tarea) enseñar y vigilar el desarrollo de ciertas labores que un
aprendiz o persona menos capacitada desarrolla: cómo está ensamblando un equipo
complicado, por ejemplo. Especie de enseñanza/supervisión remota individualizada.
93
Problemas, obstáculos
Una mirada retrospectiva de cómo vamos, dónde estamos y qué escollos existen es útil
para comprender qué hacemos bien, qué hacemos mal y por qué, y cómo podemos
mejorar. Aquí presentamos algunos problemas actuales del sector educativo, académico y
de investigación, sobre todo de instituciones públicas, en el área de telecomunicaciones y
computación (cuando menos).
Distanciamiento entre lo que se enseña y lo que se usa
En el área de las telecomunicaciones y la computación, este problema generalmente no
se presenta en la licenciatura. En este nivel, tenemos egresados productivos, con
conocimientos recientes, que se desempeñan bien en los centros de trabajo. Sin
embargo, el posgrado en México está dominado por el sesgo del Sistema Nacional de
Investigadores (SNI) para favorecer trabajos teóricos publicados en inglés, buscando
reconocimiento internacional. Esto a menudo se agrava por la burocracia en la institución
académica pública, que remunera adicionalmente a los profesores-investigadores usando
criterios similares a los del SNI (en algunos lugares esta remuneración consiste
simplemente en “si te apoya el SNI, yo también”). Estos criterios ayudan a desarrollar la
ciencia (sobre todo la ciencia teórica), pero dificultan el desarrollo y la ejecución de
proyectos aplicados. La enseñanza-investigación practicada por profesores-
investigadores poco ligados a la práctica y las necesidades del sector productivo
mexicano, podría no estar dirigida a nuestras carencias actuales ni a aumentar nuestra
competitividad.
Raro es el investigador público con experiencia en aplicaciones, en “la vida real”. En
un área como la computación, que tiene importancia y efecto indiscutibles en todas las
actividades económicas y técnicas (incluso las sociales), ¿cuáles son las principales
razones para esta poca inclinación de la investigación pública en computación, a tener
perfiles aplicados, a buscar la innovación que pudiese ser aplicada, que tenga un mayor
efecto en el sector productivo? A mi entender, algunas son:
94
• Poca vinculación. En el sector académico, sus unidades de vinculación, promoción y
colaboración con el sector productivo y gubernamental tienen poco interés,
experiencia y recursos para entablar diálogos efectivos, exhibiciones, ferias
tecnológicas, “días de puertas abiertas” y otros actos similares, que den a conocer los
logros y habilidades de la planta docente y de investigación, los hallazgos, sus usos
potenciales y su relevancia para aumentar la productividad o disminuir el rezago y la
importación de bienes informáticos. Si no conocen (ni muestran interés por conocer) lo
que sus académicos-investigadores hacen, qué desarrollaron, para qué puede servir,
ni saben ante quiénes promover estos hallazgos o adelantos, poca vinculación o
promoción se logrará. Si además no conocen lo que las distintas empresas,
dependencias, ramas de la industria, comercio, etcétera, necesitan, serán poco
efectivos en conectar oferentes con demandantes adecuados.
• Mucha burocracia para dejarme trabajar. Aun si se consigue un proyecto, hacerlo a
tiempo y adecuadamente es un reto (ver la sección “Burocracia de la escuela pública
para obtener y ejecutar proyectos aplicados”).
• ¿Y quién va a hacer eso? Yo no. Lo que los académicos investigan y lo que nuestra
industria, comercio, banca y sector productivo necesitan no necesariamente están
alineados. Lo que estoy desarrollando es lo que yo sé hacer, o lo que puedo hacer, o
lo que me gusta hacer, y no se me ocurre mirar hacia otros lados para ver qué se
necesita (ver el apartado “Las innovaciones que se hacen en el área académica
generalmente no son relevantes para el sector productivo”). ¿Y qué estudiantes voy a
preparar, qué perfil tendrán los egresados que yo forme? Si adquieren preparación en
áreas poco aplicadas, alejadas de lo que se necesita, esotéricas, irrelevantes, también
ellos tendrán poco efecto en el sector productivo. Probablemente terminarán
trabajando como investigadores, como su profesor. Se produce una retroalimentación
que aísla más el ambiente académico de la realidad productiva.
Desde luego debemos formar egresados con alta resistencia a la obsolescencia,
cuya vida profesional productiva sea de unos 40 años. Esto necesariamente requiere
materias teóricas, conocimientos novedosos, “que no son útiles hoy”. Es importante
prepararlos también para la industria, las empresas, el comercio y el gobierno del
futuro. Pero como, cuando egresen, trabajarán en el presente, debemos darles una
mezcla cuidadosa de conocimientos inmediatamente aplicables junto con otros que
formarán su base para que puedan seguir aprendiendo e innovando, adquiriendo
95
experiencia y desarrollando aplicaciones útiles, resolviendo nuevos problemas,
etcétera.
Burocracia de la escuela pública para obtener y ejecutar proyectos aplicados
Aunque la Ley de Adquisiciones exime de concurso a las instituciones públicas, es
necesario agilizar la burocracia elaborada y abundante que a menudo tienen: retrasa la
firma de contratos (deben ser aprobados por una instancia superior, deben ser revisados
por una oficina de abogados que se tarda un par de meses, los gastos deben predecirse
de antemano…) y entorpece la remuneración adicional que los profesores e
investigadores deben recibir cuando participan en proyectos aplicados.
Las innovaciones que se hacen en el área académica generalmente no son
relevantes para el sector productivo
• Son temas teóricos (su fin es publicar)
• Son temas de otras áreas. Gradualmente, áreas como control, física nuclear… infiltran
el área de computación. Naturalmente, los cursos avanzados de estos profesores
tienen poca relevancia para el desarrollo de la informática. Y, probablemente, también
para el sector productivo.
• Aun para profesionales de la informática, el envejecimiento de la planta educativa (ver
la sección “Envejecimiento y obsolescencia de la planta docente y de investigación”)
hace que se tienda a enseñar áreas obsoletas y desligadas de la realidad mexicana.
• Es difícil transferir un prototipo (que se desarrolló en la escuela o unidad académica) a
un producto comercial. Y a menudo los desarrollos académicos no llegan a prototipos,
son “demostraciones de concepto”, de que algo podría ser útil u ofrecer ventajas. La
institución educativa-de investigación no tiene como finalidad crear productos
comerciales. La empresa que los cobijó o alentó muestra reticencia a invertir recursos
y tiempo en algo “que podría resultar, o fracasar.” Los inversionistas y capitales de
riesgo podrían hacerlo, pero son pocos en nuestro país. Las incubadoras de empresas
y negocios incipientes podrían apoyar en esta labor importante de transferir “el estado
96
del arte” (lo que se acaba de inventar, lo que está en las revistas técnicas y en las
patentes) al “estado de la práctica” (lo que es comercial).
Las empresas o dependencias prefieren comprar software que mandar hacerlo
Si necesito una aplicación informática, lo primero que se me ocurre es ver si existe en el
mercado. Porque normalmente costará mucho menos que desarrollarla. Y además, ya
está probada (eso es lo que me aseguran). Si no existe, o tiene un precio elevado, o
conlleva cuantiosos pagos periódicos por mantenimiento, actualización o ajuste a la
medida, existe la posibilidad de desarrollarla. En ese caso, si cuento con un grupo de
desarrollo de aplicaciones, se la encargaré a ellos. La opción de convenir con una
universidad o centro de investigación o desarrollo para que la manufacture a mi medida,
va en tercer lugar.
Por otro lado, el investigador o profesor de un centro de estudios o de investigación no
tiene mucha idea de lo que se requiere “allá afuera”, por lo que es proclive a investigar o
desarrollar temas que él cree que podrían servir, o que le gustan, o simplemente son los
temas que conoce y domina. Pero no necesariamente los que se requieren “allá afuera”.
Así es (en parte) como surge el distanciamiento entre los sectores productivo y el de
investigación (en computación). Uno quiere resolver su problema pronto (proclive a
comprar), otro quiere seguir desarrollando lo que ha venido haciendo, o lo que está de
moda (inclinado a no preguntar qué se necesita).
Para muchas dependencias, comprar está prohibido. Hay que rentar. Así no se puede
desarrollar una industria del software mexicana. ¿Qué hubiera pasado con el desarrollo
de la aviación en Brasil si el gobierno exigiera a sus dependencias rentar aviones en vez
de comprarlos?
Para muchas dependencias, la adquisición de bienes informáticos está ligada a
departamentos poco versados en esta área, por ejemplo, a Oficialía Mayor. Se tiene la
impresión errónea de que comprar hardware o software es tan sencillo como comprar
papel o lápices. Y nadie piensa en innovar, en apoyar los desarrollos mexicanos
recientes.
Se debe otorgar un porcentaje de contratos públicos a centros de investigación
97
Estados Unidos obliga a las grandes dependencias gubernamentales que otorgan
contratos a empresas, a que “5% de tus contratos deben ir a empresas pequeñas o de
minorías”. Porque de otro modo, las empresas pequeñas nunca se desarrollarían. Sugiero
que el gobierno mexicano imponga una política similar que derive estos recursos a las
escuelas y centros de investigación.
Contratación de mano de obra. Debe evitarse la práctica de que contratos de
dependencias públicas a universidades públicas sean en realidad contratación disfrazada
de personal. “Te contrato para que me ofrezcas 20 programadores, diez analistas y tres
líderes de proyecto. Pero yo te digo a quiénes contratar y qué sueldos pagarles. Y yo los
dirijo. Tú eres solamente el intermediario.” Los centros de investigación deben aportar
valor agregado real al trabajo.
Envejecimiento y obsolescencia de la planta docente y de investigación
El docente-investigador teme jubilarse, perder las “becas” que su institución le otorga, y el
estímulo del SNI. Literalmente, “se muere en la raya” (en su cubículo). No entra sangre
nueva a la institución. Si a esta situación le agregamos el alejamiento entre lo que se
enseña (o investiga) y lo que se requiere (ya referido en la sección “Distanciamiento entre
lo que se enseña y lo que se usa”), existe la tendencia de que cada vez más el posgrado
(sobre todo el doctorado) en las instituciones públicas tienda a formar egresados con
conocimientos obsoletos o poco útiles para el sector productivo. Estos egresados
probablemente se dedicarán, en el mejor de los casos, a hacer investigación, o a la
docencia. Pero casi el único mercado en ese rubro es la educación, y está saturado
(precisamente por la reluctancia del docente a jubilarse). No hay plazas. Esto crea una
retroalimentación que hace estable ese distanciamiento indeseable.
En principio, estos egresados son exportables (formar científicos para otros países).
Pero… allá la competencia es mayor… Además, qué caso tiene invertir para que otros se
beneficien…
Poco interés del sector académico-de investigación en proteger sus desarrollos e innovaciones
98
En México, el Instituto Mexicano de la Propiedad Industrial es el organismo público
encargado de proteger los derechos de propiedad industrial y otorgar a sus titulares la
seguridad jurídica necesaria. Desarrolla estas funciones mediante la emisión de:
• Patentes que protegen una obra original (que no forme parte ya del estado de la
técnica) y no trivial (que no sea un cambio o modificación que una persona
versada en el arte o campo de la patente pudiese hacer) durante 20 años.
• Modelos de utilidad para proteger mejoras, cambios o adaptaciones en la
configuración, estructura, forma o disposición que tenga novedad y aplicación
industrial, a invenciones previamente patentadas. Su vigencia es de 10 años.
• Diseños industriales que se refieren a cambios en la ornamentación de un
producto. Puede ser un dibujo o modelo. Su vigencia es de 15 años.
• Dibujos industriales cuando se incorpora al producto industrial alguna combinación
de figuras, líneas o colores para darle un aspecto peculiar. Mismo trato que para
los modelos de utilidad.
• Modelos industriales cuando el aspecto que se modifica en el producto industrial
influye en su forma tridimensional, sin implicar efectos técnicos, y puede servir de
patrón para la fabricación de un producto con apariencia especial. Mismo trato que
para los modelos de utilidad.
• Signos distintivos que son marcas (todo signo visible que se utiliza para distinguir e
individualizar un producto o servicio de otros de su misma clase o especie), avisos
y nombres comerciales.2
Por falta de espacio, de estos temas hablaré solamente de las patentes.
En general, el docente-investigador muestra poco interés en patentar lo que
inventa o descubre, por varias razones.
• Primera, su entrenamiento previo, y por ende su énfasis, es en publicar. Es en lo
que tiene más experiencia, y lo que ha visto que sus profesores y colegas hacen.
Desafortunadamente, lo que se publica ya es del dominio público, y después de un
corto tiempo (un año, generalmente) ya no es patentable. Patentar es un proceso
2http://www.impi.gob.mx/, consultada el 1 de noviembre de 2014.
99
lento, no seguro y costoso. Es más fácil publicar que tratar de proteger su
descubrimiento.
• Obtiene sus recompensas o satisfacciones de los estudiantes que gradúa, de los
cursos que imparte, de los congresos en que participa y de los artículos que
publica.
• El SNI evalúa más o menos de la misma manera una publicación que una patente.
Si son patentes en trámite no las toma en cuenta.
• Además, patentar requiere del apoyo de su institución, apoyo económico para
contratar abogados con especialidad en patentes, que le guíen en los trámites.
• Quizá la patente sea parcialmente objetada (porque el examinador de patentes
encuentra ciertos conflictos con otras patentes ya otorgadas, por ejemplo), y habrá
que reescribirla para atender las observaciones. Más espera, más gastos e
incertidumbre.
• Tal vez su institución no tenga un departamento legal especializado en patentes,
lo que deja al inventor solo.
• Otro aspecto importante a considerar es que, aun con una patente en el bolsillo, si
no se explota comercialmente, no ayuda mucho. Quizá la pueda vender a algún
interesado. Después de 20 años, la invención pasa al dominio público.
• Además, ¿quién es el propietario de la patente cuando ésta se otorgue?
Legalmente, es de la institución para la que labora, la que le proporcionó los
apoyos, instrumentos, equipo, laboratorio, colegas y estudiantes que le ayudaron.
Quizá su institución no le otorgue participación en su usufructo (si es que llega a
haberlo).
• Probablemente la invención no la hizo él solo, y deba compartir la paternidad del
invento con otros colegas (y tal vez con funcionarios o jefes con los que debe ser
cortés y quedar bien).
En cuanto al software, hay otras consideraciones. En México el software no es
patentable. La protección que se puede obtener es registrar la “obra” ante el Instituto
Nacional del Derecho de Autor (Indautor), lo cual es fácil, rápido y barato. La protección
se otorga “de buena fe”, la autoridad cree (supone, confía) que quien registra la obra es
en realidad el autor, y que la obra es inédita. No hay revisiones ni comparación con obras
previas. Sólo en caso de controversia se revisa más a fondo. Los derechos caducan (y la
100
obra pasa al dominio público) 100 años después de la muerte del autor, y no 20 años
después de registrada, como en el caso de las patentes. El SNI valora una obra registrada
con “derechos de autor” si se demuestra su uso externo (no por la institución académica o
estudiantes), y si está bien documentada. Todo esto hace que el software reciba
protección más fácil y expedita. Sin embargo, la Ley Federal del Derecho de Autor no
protege:
• Las ideas en sí mismas, las fórmulas, soluciones, conceptos, métodos,
sistemas, principios, descubrimientos, procesos e invenciones de cualquier tipo
• El aprovechamiento industrial o comercial de las ideas contenidas en las obras
• Los esquemas, planes, o reglas para realizar actos mentales, juegos o
negocios3
Distracciones o modas que conviene ver con precaución
Quizá no sean obstáculos o riesgos tecnológicos, sino más bien “modas” o tendencias
que requieren analizarse con cuidado, sopesar sus beneficios y ventajas contra sus
desventajas y costos, y compararlas contra otras maneras de lograr lo mismo. A menudo
una “propaganda viral” o difusión masiva y sostenida puede inducirnos a seguir algunos
caminos o tecnologías que probablemente no sean “obviamente lo mejor” para nosotros.
Por falta de espacio mencionaré tan sólo dos.
Cuidado: virtualización, cómputo en las nubes
En lugar de adquirir bienes informáticos y tener personal que los administre, atienda,
desarrolle las aplicaciones y proteja (de virus, infiltraciones maliciosas, pérdida de
información, etcétera), la idea es adquirir servicios de cómputo de modo que los usuarios
3http://www.indautor.gob.mx/preguntas/preguntas_generales.html, consultada el 1 de noviembre
de 2014).
101
puedan acceder a ellos en la nube de internet. La información y su procesamiento se
llevan a cabo en servidores remotos, a los que se accede vía internet. Disminuyo mis
inversiones, mis gastos fijos y sólo rento y pago los servicios que uso. Suena atractivo,
sobre todo si mi negocio o actividad no es el procesamiento de datos, sino una actividad
económica muy distinta. Rentar en vez de comprar. Ciertamente existe esta disyuntiva en
otras áreas cotidianas. ¿Rentar o comprar un automóvil? ¿Rentar o comprar una casa?
¿Rentar (o comprar) un avión, o adquirir un servicio (un boleto de ida y vuelta) para ir a
Boston? Para servicios esporádicos, temporales, rentar es mejor. Si mi uso es cotidiano,
comprar se vuelve una opción atractiva. (Ciertamente, el que renta debe tener alguna
ganancia, obtenida de sus arrendatarios.) Hay otras consideraciones para escoger la
mejor alternativa. No abundaré en ellas, sólo daré las principales ventajas y desventajas.
Ventajas:
• Escalabilidad. Para picos de trabajo, puedo aprovisionarme de más recursos. Sólo
pago lo que consumo. Útil si mi carga de trabajo varía sustancialmente
• Menor inversión para empezar a trabajar
• Acceso universal. Puedo hacer mis trabajos de procesamiento de información
desde cualquier parte del mundo. Útil si tengo sucursales en muchos lugares
• Seguridad. Los datos estarán más seguros “en la nube”, en manos de personas
expertas (es lo que me dicen los proveedores del servicio), que los protegerán de
ataques maliciosos, pérdida de información
• Disponibilidad. El servicio seguramente no se suspenderá, está en manos de
personas capaces, que le dan un mantenimiento adecuado. Además, tienen
máquinas redundantes, protección contra fallas de energía, etcétera
• Software siempre actualizado. Útil si necesito usar las últimas versiones.
Desventajas:
• Dependencia de los proveedores de servicios. Pongo mi capacidad de
procesamiento en manos del proveedor
• Los datos sensibles de mi negocio u operación están fuera de mi control. Podrían
caer en malas manos
102
• Requiero acceso a internet. Los canales para que la información viaje entre el
proveedor y el usuario son vulnerables a espionaje. Usar https u otro protocolo
seguro disminuirá la velocidad de transmisión
• Si necesito un servicio (un software especializado, digamos) que no está
disponible con ese proveedor, podría tardar mucho tiempo en obtenerlo (quizá
nunca)
• El proveedor hará cambios frecuentes en sus interfaces, por lo que tendré una
curva de aprendizaje lenta
Para el desarrollo del campo de la computación y sus aplicaciones en México,
ciertamente el cómputo en las nubes conlleva el riesgo de convertirnos en meros usuarios
de la tecnología, de ser estériles en la creación de nuevos algoritmos, aplicaciones,
invenciones, mejoras y abrir nuevos caminos en la informática. ¿Qué vamos a crear, a
inventar, a desarrollar, si todo lo compramos (lo rentamos) ya hecho? Si solo compramos
motores, si solo rentamos aviones, pronto nos quedaremos sin posibilidad de hacerlos,
pues los avances de esa tecnología ya estarán fuera de nuestro alcance. “Ya se fue el
tren.” Exagero, pero habrá que ponderar las ventajas y desventajas, los riesgos
tecnológicos.
Cuidado: procesamiento masivo de datos. Grandes computadoras paralelas
Existen computadoras enormes, supercomputadoras, con gran capacidad de
procesamiento en paralelo y formidables dispositivos de almacenamiento secundario. Son
costosas, centralizadas. Se usan para cómputos intensivos, para manejar una gran
cantidad de datos que requieren una gran cantidad de procesamiento, y donde las cargas
de trabajo necesitan repartirse en nodos más pequeños que a menudo requieren
compartir datos. Para procesamiento masivo, porque los cálculos son tales que necesitan
de fuerte acoplamiento (se generan muchos resultados parciales que con frecuencia se
intercambian entre los diferentes procesadores, antes de tener el problema o cálculo
resuelto). Estas máquinas son muy útiles cuando realmente se necesitan. Además, se
cree que tener una de ellas da gran prestigio. Antes de llevar a cabo una inversión
cuantiosa en un producto complejo que requerirá mucho mantenimiento, energía eléctrica,
103
servicios y actualización continua, conviene reflexionar si su adquisición es inevitable.
¿Realmente hay una gran fila de usuarios esperando a que la institución tenga una gran
computadora? ¿Ha habido muchos usuarios que han estado usando (y continúan
haciéndolo) durante bastante tiempo otras máquinas enormes de manera remota, y ahora
necesitan una propia?
Supongamos que tenemos un proceso complejo, que maneja muchos datos y que
quizá requiere cómputo en la nube (o virtualización), o una supercomputadora. La
siguiente guía puede ayudar a discernir qué tecnología conviene usar para cuál tipo de
aplicaciones.
Quizá agregando memoria principal adicional, o más memoria secundaria (discos),
¿caben mis datos en una PC o en un servidor?
• Sí, sí caben
¿La velocidad de cómputo que me ofrece es adecuada, aceptable?
o Sí. ! Use la PC o servidor
o No. El procesamiento es muy lento
¿Se debe a que se requiere un procesamiento intenso, mientras que los datos se
mueven poco?
1. Sí. Considere usar la unidad gráfica del procesador, o GPU. Se puede programar
con CUDA, variante del lenguaje C. Es adecuada para el cómputo intensivo de
datos (simulaciones, descifrar contraseñas, seguridad...) y mucho más barata que
otras opciones. Sin embargo, no es adecuada para manejar bases de datos y
otros problemas donde la tardanza de una aplicación está dominada por
instrucciones de entrada y salida (típicamente, lecturas y escrituras al disco
Winchester).
2. No. Es mucho el tráfico de datos.
¿Puede rehacer su algoritmo, para tener menos lecturas de sus datos? Quizá dividir
sus datos en lotes que se van procesando secuencialmente.
a) Sí. Rehaga su algoritmo. ! Use la PC o servidor.
b) No. Necesita varios procesadores. ! Vaya al inciso 2.
• No caben. Se requieren entonces varios procesadores con memoria externa
Los distintos procesos, ¿interactúan mucho, intercambian muchos datos entre sí?
o No. No se comunican entre sí, o lo hacen muy poco. ! Use una red de PCs
con Hadoop y MapReduce. En un gran porcentaje de casos, esto compite muy
favorablemente con una gran máquina paralela centralizada. Y como la
104
dependencia probablemente ya tenga una red de PCs, este tipo de cómputo
requiere poca inversión adicional.
o Sí. Aunque cada uno tenga una porción de datos en disco para procesar, los
procesos locales a una máquina necesitan intercambiar datos parciales
frecuentemente con procesos en otras máquinas.
¿Pueden redefinirse (reescribirse, cambiar el algoritmo) estos procesos para que
interactúen con menos frecuencia? En otras palabras, ¿puedo cambiar el sistema
fuertemente acoplado, a otro con componentes débilmente acoplados?
• Sí. ! Use Hadoop con MapReduce
• No. No es posible redefinirlos. Use una de las siguientes soluciones (tecnologías):
! Obtenga acceso a una supercomputadora que ya existe
!Use cómputo en la nube
! Adquiera una supercomputadora
Las grandes propuestas
Aquí presento ideas que abordan aspectos globales de nuestra disciplina, líneas de
acción para un futuro cercano.
Creación de varios centros de investigación
En colaboración quizá con instituciones educativas, con gobiernos estatales o con
industrias o secretarías de gobierno, se deben establecer varios centros de investigación
dedicados a aplicaciones de las comunicaciones y de la computación. Propongo apoyo
federal a la creación de centros de investigación orientados a una industria. Los
matemáticos tienen el CIMAT, los astrofísicos el INAOE, ¿y los computólogos? ¿Y los de
comunicaciones eléctricas?
Crear estos centros en parques tecnológicos o áreas de desarrollo industrial es una
buena alternativa.
Además de la creación de nuevos centros, es deseable revitalizar los ya existentes.
105
Revitalización de centros de investigación dedicados a una industria o área
productiva
Propongo revitalizar este tipo de centros (que han caído en el descuido), y crear otros
nuevos, por ejemplo:
• El Instituto de Investigaciones Eléctricas, dedicado a la industria eléctrica
• El Instituto Mexicano del Petróleo, para la industria petrolera
• El Colegio de Posgraduados y la Universidad Chapingo, dedicados a la agricultura
• El Instituto Mexicano de las Comunicaciones (extinto)
• El Centro de Investigación de Teléfonos de México (privado; extinto)
Reestructurar el modo de evaluar del SNI
• La evaluación de la investigación aplicada, la transferencia de tecnología y la
innovación deben estar en manos de personas diestras en estos temas, no de teóricos
de otras disciplinas
• Dar el peso debido a los desarrollos tecnológicos. Otorgar mucha más importancia a
las patentes adquiridas de lo que se les da actualmente. Dar peso a las patentes
solicitadas. Considerar la participación en congresos de importancia (la mayor parte
de los desarrollos de la computación se dan a conocer en congresos, dada la rapidez
con se generan conocimientos en nuestra disciplina)
Creación del área VIII del SNI en tecnología de las comunicaciones e informática
La computación, la informática y las comunicaciones son la rama más grande de la
ingeniería, y tienen su propia dinámica y relación con la industria. Por ejemplo, los
desarrollos tecnológicos y prototipos son más numerosos. Es muy común participar en
congresos prestigiados, que tienen un tiempo de publicación corto (necesario en un
campo como el nuestro, donde “los conceptos, métodos y dispositivos cambian
rápidamente”). Merecen tener sus propios mecanismos de evaluación dentro del SNI,
formando una nueva área.
106
El gobierno federal debe reevaluar sus políticas en informática
Para muchas dependencias, informática es algo parecido a un servicio, depende de la
Oficialía Mayor, que da reglas de qué software comprar, cómo debes trabajar… No
fomenta la creatividad. Parecería que el software y el hardware son simples productos a
granel, y que comprarlos no requiere conocimiento del campo, sino más bien ser un buen
contador o administrador. Se favorece la renta en vez de la compra. Favorece la
contratación de servicios de cómputo (outsorcing). Ellos guían el desarrollo informático de
la institución, y la renta o compra de servicios (“los prefiero importados, son más
seguros”).
107
SISTEMAS INTELIGENTES.
PRESENTE Y FUTURO
Enrique Sucar Succar*
En este capítulo se presenta un panorama general de los sistemas inteligentes, incluida
una definición de lo que es inteligencia artificial y sus principales áreas de desarrollo. Se
analiza su historia, su estado actual y las perspectivas futuras, se presentan los retos
actuales y se destaca su importancia para resolver los grandes problemas nacionales.
SISTEMAS INTELIGENTES
Los sistemas inteligentes son aquellos que exhiben ciertas características que asociamos
con la inteligencia humana, como entender el lenguaje natural, analizar imágenes,
aprender, razonar, planear, etcétera.
La inteligencia artificial (IA) estudia los sistemas inteligentes desde dos puntos de
vista: científico, entender la inteligencia; e ingenieril, desarrollar máquinas inteligentes.
En los inicios de la IA surgió una pregunta: ¿cómo sabremos cuando una
computadora sea inteligente? Alan Turing, uno de los pioneros de la IA, planteó una
ingeniosa forma de saberlo, conocida como la prueba de Turing.
PRUEBA DE TURING
* Coordinación de Ciencias Computacionales, Instituto Nacional de Astrofísica, Óptica y
Electrónica.
108
Supongamos que una persona, el interrogador, se comunica mediante teletipos (en la
actualidad sería por internet) con otra persona y una computadora. El interrogador puede
hacer cualquier pregunta a la otra persona y a la computadora, y recibe las respuestas en
una pantalla (no las puede ver). Si después de cierto tiempo de intercambio con ambos, el
interrogador no puede distinguir entre la persona y la computadora, podríamos decir que
la computadora es “inteligente”, o que al menos aparenta serlo.
Figura 1. Prueba de Turing. (fuente y créditos) El interrogador (izquierda) se comunica con una persona (derecha arriba) y una
computadora (derecha abajo). Si después de cierto intercambio de mensajes no
puede distinguir a la computadora de la persona, se podría considerar que la
computadora es “inteligente”.
En años recientes se ha dado cierta controversia respecto a esta prueba. Por un
lado, puede ser relativamente fácil engañar al interrogador, en particular en dominios
restringidos, dando una apariencia de inteligencia. Por otro, no considera aspectos
importantes de la inteligencia, como la percepción visual y el reconocimiento de voz, entre
otros.
109
Actualmente la IA incluye una serie de técnicas que contribuyen a desarrollar
sistemas más poderosos con ciertas capacidades que se podrían considerar inteligentes,
y por lo pronto se ha olvidado hasta cierto punto desarrollar una máquina con una
inteligencia como la de los humanos en un sentido amplio.
ÁREAS DE LA INTELIGENCIA ARTIFICIAL
La inteligencia artificial se enfoca principalmente en las siguientes áreas de investigación:
• Búsqueda y juegos: estrategias para realizar búsquedas eficientes en espacios
muy grandes, destacando el uso de heurísticas para acelerar las búsquedas.
Desarrollo de sistemas para resolver juegos, como el ajedrez, destacando que una
computadora ya venció al campeón mundial de este juego.
• Representación del conocimiento: esquemas para modelar el conocimiento
humano y hacer inferencias basadas en este conocimiento, resaltando los
modelos basados en lógica y en probabilidad.
• Razonamiento automático: sistemas que pueden resolver problemas complejos
con base en diversas formas de inferencia automática, incluidos lenguajes de
programación como Prolog.
• Visión y análisis de imágenes: análisis de imágenes para interpretar su contenido,
como la recuperación de profundidad, el análisis de movimiento y el
reconocimiento de objetos, entre otros.
• Reconocimiento de voz y procesamiento de lenguaje natural: desarrollo de siste-
mas para transformar una señal de voz en palabras, así como para analizar e
interpretar textos en lenguaje humano como español, inglés, etcétera.
• Planeación: técnicas que permiten establecer una serie de pasos o estrategias
para alcanzar cierta meta o lograr ciertos objetivos, considerando aspectos como
minimizar el tiempo o el costo.
• Tutores inteligentes: desarrollo de esquemas de enseñanza que se adaptan a las
necesidades y aptitudes de los estudiantes, emulando un tutor humano.
110
• Aprendizaje: sistemas que mejoran su rendimiento con la experiencia; en particular
se ha enfocado a construir modelos generales a partir de datos, lo que se conoce
como minería de datos.
• Robótica: desarrollo de máquinas que pueden percibir e interactuar con el
ambiente en forma autónoma. En años recientes se ha priorizado el desarrollo de
robots de servicio que puedan asistir a las personas en diversas tareas; así como
el desarrollo de vehículos autónomos.
• Sistemas multiagentes: desarrollo de sistemas distribuidos en los que varios
agentes interactúan, ya sea de forma colaborativa o competitiva.
• Modelos bioinspirados: sistemas inspirados en la naturaleza, como las redes
neuronales que se modelan de forma simplificada en las redes de neuronas, o los
algoritmos genéticos que simulan el proceso de la evolución natural.
• Cómputo afectivo: sistemas que intentan interpretar el estado afectivo de las
personas o emular un comportamiento afectivo; enfocado principalmente a tratar
de mejorar la interacción entre humanos y computadoras en ciertas aplicaciones,
como educación y salud.
BREVE HISTORIA
Podemos distinguir cuatro grandes etapas en la evolución de los sistemas inteligentes:
Mundos artificiales (décadas 1950 y 1960): los principios modernos de la IA se
enfocaron a desarrollar sistemas de cómputo simbólico basados en deducción lógica,
orientados a resolver problemas en mundos artificiales, como el de los bloques, el ajedrez
y los teoremas matemáticos. Uno de los anhelos en esa época era desarrollar un sistema
general de resolución de problemas que pudiera aplicarse a una gran variedad de
dominios.
Sistemas específicos (décadas 1970 y 1980): cuando los científicos se
convencieron de que era muy difícil tener sistemas inteligentes genéricos, orientaron la IA
al desarrollo de sistema específicos que fueran muy eficaces para cierto dominio, basados
en el conocimiento de dicha aplicación, los llamados sistemas expertos. Estos sistemas
se basan en técnicas de razonamiento automático o motores de inferencia, de forma que
111
el mismo procedimiento se puede aplicar a diversos problemas simplemente cambiando la
base de conocimiento.
Pan con pasas (décadas 1990 y 2000): las técnicas de IA empezaron a integrarse
a muchas aplicaciones prácticas, proveyendo de elementos importantes a sistemas de
cómputo complejos. Marvin Minsky, otro de los pioneros de la IA, les llamó a estos
sistemas “pan con pasas”, donde las pasas eran las partes inteligentes dentro de otros
elementos de software (el pan).
IA ubicua (década 2010): actualmente las técnicas de IA están en prácticamente
todos los dispositivos electrónicos que utilizamos a diario. Por ejemplo, algoritmos de
reconocimiento de caras y sonrisas en las cámaras digitales, sistemas de reconocimiento
de voz en los teléfonos celulares, sistemas de planeación de rutas viales, robots que
aspiran la casa, entre muchas otras.
PRESENTE
En la actualidad los sistemas inteligentes ayudan a resolver diversos problemas que
representan grandes retos. Entre ellos destacan los siguientes:
• Robots de servicio: robots móviles que auxilian a las personas en diversas tareas,
desde robots aspiradoras y cortadores de pasto, hasta aquellos que ayudan a
personas de la tercera edad y exploran otros planetas.
• Reconocimiento de personas: sistemas que pueden identificar personas y
reconocerlas, por ejemplo, sistemas de seguridad, identificación e interacción
humano-computadora, entre otras aplicaciones.
• Tutores inteligentes: sistemas que ayudan a las personas a aprender acerca de
diversos tópicos, adaptando su método de enseñanza a las necesidades
particulares de cada persona.
• Minería de datos: software que puede extraer conocimiento no obvio y útil de
grandes bases de datos para auxiliar a las empresas y gobiernos en la toma de
decisiones.
112
• Vehículos autónomos: vehículos que se pueden trasladar de forma autónoma en
carreteras y ciudades con base en la información de sus sensores. Se espera que
ésta sea la forma de transporte del futuro.
• Diagnóstico médico: sistemas que ayuden en el diagnóstico y tratamiento de
enfermedades.
• Bioinformática: técnicas para ayudar en el análisis de datos biológicos, por
ejemplo, para determinar las funciones de los genes en el genoma de plantas,
animales y humanos; así como para entender y combatir enfermedades complejas
como el cáncer y el sida.
• Cómputo afectivo: sistemas que pueden interpretar emociones humanas y simular
cierto comportamiento afectivo. Esto es importante para interfaces humano-
computadora más atractivas y naturales, por ejemplo, en sistemas de enseñanza,
entretenimiento y robots de servicio.
FUTURO
Aun cuando se han logrado avances importantes, todavía quedan por resolver grandes
retos para alcanzar el sueño de los iniciadores de la IA: máquinas realmente inteligentes.
Algunos de estos retos son los siguientes:
• Sistemas que puedan entender y conversar en un lenguaje natural lo más parecido
al de los humanos
• Sistemas de visión que puedan analizar y reconocer diversos objetos en imágenes
de forma general y bajo condiciones cambiantes
• Sistemas que aprendan de su interacción con el ambiente de forma continua y
durante mucho tiempo
• Sistemas que tengan sentido común
• Sistemas que posean sentimientos, conciencia
113
•
(a) (b)
(c) (d)
Figura 2. Ejemplos de aplicaciones de la inteligencia artificial. a) Robot de servicio que ayuda a personas de la tercera edad; b) sistema de visión
que reconoce personas; c) vehículo autónomo en Marte; d) modelo para representar
las relaciones entre fármacos (óvalos verdes) y mutaciones (óvalos naranja) en el
virus del sida.
Estos problemas presentan grandes retos que motivan a los investigadores a seguir
trabajando para poder entender la inteligencia y desarrollar mejores sistemas inteligentes.
114
Los sistemas inteligentes son una pieza clave para resolver muchos de los grandes
retos nacionales y mundiales:
1. Seguridad: sistemas de visión artificial, vehículos autónomos, planeación
2. Biomedicina: sistemas de diagnóstico, análisis de imágenes médicas, minería de
datos
3. Educación: tutores inteligentes, sistemas para búsqueda de información, laboratorios
virtuales
4. Energía: reconocimiento de patrones, aprendizaje, sistemas de apoyo en la toma de
decisiones
5. Información: sistemas automáticos para la búsqueda y análisis de grandes volúmenes
de información multimodal
Para poder enfrentar estos importantes retos, México debe redoblar esfuerzos en
investigación, desarrollo e innovación de sistemas inteligentes en combinación con otras
áreas, como robótica, computación, energía y bioinformática, entre otras.
En particular proponemos la creación de un centro de investigación multidisciplinario
en sistemas inteligentes que coadyuve en la solución de los grandes retos nacionales.
REFERENCIAS Minsky, M. (1988). The Society of Mind, Nueva York, Touchstone, 1988.
Russell, S. y Norvig, P. (2013). Artificial Intelligence: A Modern Approach, Essex,
Pearson.
Turing, A. (1951). The Imitation Game, York, R. U.. Mind, 1951.
115
UNA NUEVA ERA DE LA COMPUTACIÓN EN MÉXICO.
OPORTUNIDADES Y ÁREAS ESTRATÉGICAS DE ACCIÓN
Fabián García Nocetti*
ANTECEDENTES
La computación es una disciplina de carácter estratégico para el desarrollo nacional.
México es un gran usuario de estas tecnologías, así como de sus tecnologías
relacionadas y esta tendencia seguirá aumentando a lo largo del presente siglo. La
infraestructura educativa y de servicios con que contamos hace posible su
comercialización, asimilación y uso, con grandes beneficios sociales. Sin embargo, hasta
ahora México ha jugado en papel muy limitado en el proceso de creación de las
tecnologías computacionales, y por lo mismo se ha beneficiado muy poco del gran valor
agregado del que disfrutan las naciones que han hecho un esfuerzo por cultivarlas y
desarrollarlas. Para que México participe de esta riqueza es indispensable que la
investigación en estas especialidades científicas y tecnológicas se fortalezca
considerablemente, y para acceder a la innovación y al desarrollo económico de la
sociedad, se requiere fomentar una mayor interacción dinámica con la industria y el
Estado. En particular, es necesario que el carácter estratégico de la computación se
refleje en la estructura de las instituciones científicas y tecnológicas del país.
Durante muchos años la comunidad de computación en México ha sido pequeña y
ha estado fragmentada, lo que ha frenado su crecimiento y consolidación. Sin embargo,
en los años recientes la comunidad ha hecho un esfuerzo muy significativo para
integrarse y proponer políticas y estrategias de desarrollo. Una de estas acciones fue la
formación de la Red Mexicana de Investigación y Desarrollo en Computación (Remidec)1
en la que participan más de 550 doctores en computación y disciplinas relacionadas,
*1turing.iimas.unam.mx/~remidec.
116
trabajando en México y el extranjero, tanto en la academia como en los sectores público y
privado. Asimismo, la UNAM, con la participación de la Remidec, organizó con mucho éxito
el congreso 50 Años de la Computación en México2 con el fin de analizar el estado y
perspectivas de esta disciplina, y proponer políticas para su desarrollo y consolidación.
ESTADO ACTUAL Y PERSPECTIVAS
Sin duda alguna la aportación más importante de la academia fue la introducción de la
tecnología computacional en México. Independientemente de la estrategia de
comercialización emprendida por el gobierno y las grandes empresas de Estados Unidos
cuando esta tecnología se hizo una realidad, la introducción de la computación en México
no hubiera sido posible sin instituciones académicas abiertas al pensamiento libre y
comprometidas sin reservas con el desarrollo de nuestro país, que tuvieran además la
tradición y los recursos humanos para llevar a cabo una empresa de esta magnitud. La
UNAM fue sin duda alguna el núcleo inicial de la actividad computacional en México, por el
apoyo en esta disciplina que se brindó a la investigación en una gran variedad de áreas
científicas, por el inicio de la actividad educativa y la formación de recursos humanos y
por hacer disponibles los servicios de cómputo a la comunidad docente y estudiantil; de
ahí surgieron las primeras actividades de investigación en ciencias de la computación y de
desarrollo de la tecnología computacional en México, y también porque se habilitó la
posibilidad de automatizar los servicios administrativos tanto de la academia como del
gobierno y las empresas del sector privado que iniciaron el uso de esta tecnología en
nuestro país.
Asimismo, la academia ha sido una de los impulsoras de la tecnología
computacional en las diversas olas que han surgido a lo largo de los últimos 50 años,
primero con la introducción de la tecnología con la instalación de la primera computadora;
posteriormente, durante los años sesenta y setenta con la introducción de las grandes
máquinas para negocios; y después, a lo largo de los ochenta, con el auge de las
minicomputadoras y las computadoras personales. También fue clave en la introducción
de la tecnología de redes de computadoras y el ingreso de México a la era de internet. Un
2www.congreso50.unam.mx.
117
capítulo de gran relevancia en esta historia fue la introducción del supercómputo en
México, y el gran impulso que se dio con esta tecnología a la investigación científica en
áreas tan diversas como la astronomía, la física y la química, la geofísica y de manera
más reciente en la biología molecular y la ingeniería genética, entre muchas otras.
El sector académico también ha jugado un papel muy importante en la educación y
formación de recursos humanos en esta disciplina científica y tecnológica, desde la
fundación del Departamento de Cálculo Electrónico en la Facultad de Ciencias en 1955,
cuando se ofrecieron los primeros cursos formales en temas computacionales en México.
Posteriormente, la maestría en computación del IIMAS fue el primer programa de posgrado
en computación establecido formalmente en nuestro país. También a nivel de licenciatura,
la UNAM ha tenido una gran actividad y a lo largo de los años ha fundado carreras
profesionales relacionadas con computación e informática, para apoyar las necesidades
administrativas del sector, atender las necesidades técnico-administrativas y formar
recursos humanos dirigidos a la investigación y la academia. A lo largo de las últimas
décadas, estos recursos humanos han sido muy importantes para hacer posible que los
beneficios de la tecnología computacional hayan llegado al gobierno, a los sectores
productivos y de servicios, a la educación y a la sociedad en general. La academia ha
sido también un núcleo central para la construcción de aplicaciones de la tecnología
computacional dirigidas tanto al apoyo de la investigación científica como al desarrollo de
proyectos de ingeniería, así como en la creación de proyectos tecnológicos dirigidos al
gobierno, la industria y los servicios. Esta actividad se ha llevado a cabo de manera
continua desde los inicios de esta disciplina hasta nuestros días.
Aun cuando la tecnología computacional ocupa a cientos de miles de mexicanos, y
que el funcionamiento del gobierno, los sectores productivos y la sociedad en general
dependen de esta tecnología, en términos generales el entorno nacional está dominado
por un esquema de comercialización en el que los grandes consorcios internacionales
introducen la tecnología y nuestro país es todavía un cliente pasivo que se limita a
asimilarla y utilizarla. Este entorno, que hemos vivido en México desde los inicios y que
prevalece hasta nuestros días, gira alrededor de un sistema en el que la tecnología
computacional, tanto de hardware como de software, se produce en los laboratorios de las
grande firmas internacionales y también, aunque en menor medida, en las universidades
tecnológicas de vanguardia en el mundo, en un ambiente en que las empresas
tecnológicas y la academia están estrechamente vinculadas. Estas empresas tienen una
red de comercialización sumamente extendida que vende la tecnología, la adecua a las
118
necesidades específicas de los diversos clientes y ofrece el apoyo técnico para la
operación continua de los equipos y sistemas. Por su parte, los sectores productivos,
tanto en el gobierno como en la industria y los servicios, son compradores de tecnología y
desarrolladores de aplicaciones. En este contexto, el sistema educativo nacional produce
los recursos humanos necesarios para hacer operativa dicha infraestructura, es decir,
prepara a los vendedores, a los administradores del proceso tecnológico, a los
desarrolladores de aplicaciones específicas y a los técnicos de apoyo y de servicios. El
gobierno, por su parte, garantiza las condiciones para que este ciclo de comercialización
con sus insumos materiales y humanos se mantenga en condiciones operativas, y lo
mismo sucede en la prestación de servicios informáticos a la sociedad. El resultado de
este entorno es que la sociedad mexicana goza de los beneficios de la tecnología
computacional.
Sin embargo, la carencia de una tecnología propia y las limitaciones para participar
en el proceso de creación de tecnología, conllevan un precio muy alto que no hemos
dejado de pagar. Además del saldo negativo en la balanza de pagos por conceptos
relacionados con la propiedad intelectual, el gran valor agregado de la tecnología
pertenece a quien la produce, y la utilidad va decreciendo a lo largo de la cadena de
comercialización. Por lo mismo, independientemente de las grandes ganancias de los
representantes comerciales de las empresas tecnológicas internacionales, la situación de
dependencia en la que nos encontramos no permite que la riqueza derivada de la
tecnología se traduzca en mejores niveles de vida para la sociedad en general. Para
revertir esta situación es indispensable que México se convierta en un actor creativo y
participativo en el proceso de producción de tecnología computacional. No se trata de
sustituir importaciones, por supuesto, sino más bien de ser socio y contribuir en la
creación de productos con alcance local y global, y así participar de la riqueza que
conlleva la producción de tecnología.
La creación de alta tecnología es una tarea pendiente en México; la parte que le
corresponde a las universidades es proporcionar una infraestructura de investigación muy
sólida, con una amplia base de recursos humanos altamente calificados y con el entorno
adecuado para hacer investigación y tecnología computacional de punta.
México es una gran nación que requiere contar con una infraestructura científica y
tecnológica muy desarrollada; por esta razón, nuestro país representa un mercado muy
importante para la industria de la computación. Las grandes firmas mundiales están aquí,
compitiendo. El gobierno y el sector productivo proveen los recursos materiales y el marco
119
institucional, y la academia los recursos humanos para que la tecnología computacional
nos llegue a todos. Todo esto alrededor de una industria de cómputo enfocada en la
comercialización y los servicios.
En este entorno, la historia de la computación en México ha sido, hay que decirlo,
la historia de cómo hemos adquirido y asimilado la tecnología. La instalación de la IBM-
650 en la UNAM hace 50 años no escapa a esta lógica. Hasta ahora hemos participado
sólo de forma muy modesta en el proceso creativo y, consecuentemente, hemos disfru-
tado de manera muy limitada de la riqueza que produce esta tecnología. Hoy quisiéramos
empezar a cambiar este estado de cosas; hay que comenzar a contar la historia de cuáles
han sido nuestras contribuciones científicas y tecnológicas, y de cómo hemos influido en
nuestra sociedad y el mundo.
El gran valor agregado está en las ideas y en cómo éstas se convierten en
productos y servicios. Lo que queremos es participar más ampliamente de la riqueza que
genera la tecnología computacional. Lo que queremos es que México deje de ser un
observador pasivo y se convierta en un actor genuino del proceso creativo. Esto lo
podemos lograr, como lo están haciendo otras naciones, cuya historia y tradición es
similar e incluso menos privilegiada que la nuestra.
RETOS Y ESTRATEGIAS A IMPULSAR
La creación de la Red Temática de Tecnologías de la Información y la Comunicación
(RedTIC) del Conacyt,3 así como la realización del taller para identificar los grandes retos
de investigación en TIC, organizado por la misma red, han contribuido de una manera muy
positiva al fortalecimiento y maduración de la comunidad, tanto desde el punto de vista de
su organización como en la definición de la agenda de investigación científica y
tecnológica a corto y mediano plazos. Es importante mencionar también que la Remidec y
la RedTIC están trabajando de manera coordinada y tienen una intersección significativa
de visiones y membresía, y que la acción en conjunto de estas redes está dando gran
ímpetu y energía al desarrollo de esta disciplina científica. Asimismo, el número de
investigadores y tecnólogos en computación y tecnologías relacionadas está en aumento
3http://www.redtic-conacyt.mx/.
120
constante: por la importancia y visibilidad del área, por la proporción de este sector en el
sistema educativo en su conjunto, por el número de profesionistas y técnicos trabajando
en el sector y, por supuesto, por el tamaño del mercado de computación y
comunicaciones. Esto se ve reflejado en el número de estudiantes de posgrado en estas
disciplinas, y en particular del número creciente de doctores formados tanto por el sistema
educativo nacional como en el extranjero, por lo que se espera que la cantidad de
investigadores en la especialidad tendrá un crecimiento muy importante en los próximos
años, y posiblemente hasta bien entrado el siglo XXI. Durante los últimos cinco años, en
nuestra comunidad se ha desarrollado un importante esfuerzo por organizar e impulsar la
discusión colectiva y la conformación de grupos de investigación en torno a algunos
problemas estratégicos particularmente relevantes para México. En este último caso, la
primera etapa de discusión consistió en definir los “grandes retos” tal y como lo percibía
un subconjunto significativo de investigadores mexicanos, establecidos en el país o en el
extranjero.
De esa discusión surgieron los siguientes seis grandes retos, y cabe
señalar que estos planteamientos están centrados en la discusión alrededor de grandes
problemas que tienen una importante incidencia social nacional.
GR 1. Información relevante para la toma de decisiones: facilitar la recopilación de
datos y la adopción sistemática de TI como herramienta de apoyo para la toma de
decisiones y su evaluación, ayudando así a obtener conocimiento relevante, el cual tenga
efecto en la sociedad mexicana.
GR 2. TIC para biomedicina: mejoramiento de la salud de la población nacional: lograr que
los investigadores y profesionales mexicanos en biomedicina tengan las herramientas
computacionales adecuadas para resolver los problemas específicos que son relevantes
para mejorar la salud de la población en todo el país.
GR 3. TIC y la educación en el siglo XXI: gestionar el cambio e innovación en el sistema
educativo mexicano a través de la investigación en TIC y su contribución y efecto en las
organizaciones educativas.
GR 4. Seguridad y transparencia en la información y en los servicios:
• Realizar un estudio del estado del campo del arte en materia de seguridad y
transparencia en la información y en los servicios
• Analizar y diagnosticar los grandes retos identificados con respecto a los estándares
nacionales e internacionales (por ejemplo, National Institute of Standards and
121
Technology (NIST), Organización para la Cooperación y el Desarrollo Económico
(OCDE), etcétera
• Sensibilizar y educar sobre la importancia de la seguridad y transparencia de la
información y los servicios a los diferentes sectores (social, productivo y de servicios)
• Vincular la red temática con organismos públicos y privados
• Elaborar proyectos de investigación con influencia en México en materia de seguridad
y transparencia en la información y en los servicios
GR 5. Ambientes inteligentes para problemas de grandes ciudades: el objetivo principal es
desarrollar sistemas y tecnologías orientados a mejorar la calidad de vida de los
habitantes de las grandes ciudades mexicanas, apoyados en la convergencia de cómputo
ubicuo, cómputo sensible el contexto, redes y telecomunicaciones, e interacción humano-
computadora. Para ello se han definido los siguientes objetivos particulares:
• Integración de equipos especializados de trabajo en el desarrollo de ambientes
inteligentes en las temáticas de tráfico y movilidad urbanos, salud y seguridad
• Realización de estudios de diagnóstico de los problemas fundamentales de las
grandes ciudades relacionados con el tráfico y movilidad urbanos, salud y seguridad
física, susceptibles de ser abordados desde una perspectiva de computación ubicua
• Vinculación con los equipos de trabajo de las líneas de investigación de la RedTIC
relacionadas con el reto cinco, con otras redes temáticas del Conacyt y con otros
sectores responsables del bienestar y seguridad de la población mexicana, para la
realización de acciones y proyectos conjuntos
• Contribución a la formación de recursos humanos de nivel profesional y posgrado,
especializados en las competencias de las TIC requeridas para abordar los problemas
del GR5.
GR 6. Servicios basados en el conocimiento para el ciudadano: desarrollar modelos,
métodos, procedimientos, teorías y herramientas que permitan diseñar e implementar
sistemas para ofrecer servicios basados en conocimiento al ciudadano mexicano y
atender sus necesidades de información, de acuerdo con su contexto y situación
individual.
122
Con base en este ejercicio colectivo de la comunidad de investigadores mexicanos
de las TIC, y tomando en cuenta la situación actual y perspectivas podemos definir
algunas estrategias para ser desarrolladas en los próximos años:
ESTRATEGIAS
Desarrollo de proyectos de I+D+I interdisciplinarios, centrados en problemas relevantes
para la sociedad mexicana, en donde las TIC sean una componente central. Por ejemplo
los 10 retos de la Agenda Ciudadana de Ciencia, Tecnología e Innovación, consulta de
ámbito nacional en la que la población eligió tres retos que consideró se deben afrontar
prioritariamente con la participación de la ciencia y la tecnología para alcanzar una mejor
calidad de vida en el horizonte del año 2030.
• Asegurar el abasto de agua potable para toda la población
• Desarrollar la capacidad de prevención y adaptación a los efectos del cambio
climático
• Modernizar el sistema educativo con enfoque humanístico, científico y tecnológico
• Contar con un sistema de energía limpia, sustentable eficiente y de bajo costo
• Desarrollar una industria aeroespacial mexicana competitiva y con resultados de
interés para la sociedad
• Recuperar y conservar el medio ambiente para lograr una mejor calidad de vida
• Construir una sociedad informada sobre la diversidad migratoria y sensibilizada con
los derechos de los migrantes
• Integrar la atención de la salud mental y las adicciones a la salud pública
• Conformar un sistema integral de salud de alta calidad para toda la población
• Lograr un campo más productivo y alcanzar la seguridad alimentaria
• Privilegiar los proyectos capaces de desarrollar aplicaciones e innovaciones para el
mercado nacional
• Fortalecer el trabajo de las redes temáticas académicas y de sus interacciones para
articular enfoques interdisciplinarios en la solución de problemas relevantes de
nuestra sociedad
123
INVESTIGACIÓN, EDUCACIÓN Y EMPRENDIMIENTO
EN CIENCIAS DE LA COMPUTACIÓN EN MÉXICO
Edgar Chávez*
ANTECEDENTES
Las disciplinas científicas, especialmente las ciencias naturales, establecen relaciones
simbióticas. En otras palabras, un desarrollo en una demanda de desarrollos en la otra y
viceversa formando un círculo virtuoso. Los ejemplos abundan. Para fijar ideas pensemos
en la física; una propuesta teórica se establece cuando puede ser verificada
experimentalmente y al contrario; observar un fenómeno no explicado demanda la
creación de nueva física. Las propuestas radicales, las que están en la frontera, pueden
ser verificadas cuando hay avances sustanciales en la ingeniería y en la física
experimental. El ejemplo más notorio de nuestro tiempo es el acelerador LHC que
representa un monumental avance en una gran cantidad de áreas de la ingeniería y la
física experimental y permite verificar teorías radicales acerca de la conformación de la
materia. Quizá la actividad académica con más conexiones es la matemática, que sirve de
soporte y le da madurez a las ciencias. Es conocida la posición de que la madurez de una
ciencia se mide por el grado de formalismo matemático que acepta.
Dado que nos ocupamos de la informática en este texto, la pregunta natural es:
¿con cuáles disciplinas establece la informática relaciones simbióticas de una manera
semejante a la descrita? Una vez identificadas estas disciplinas o actividades será
también natural preguntarse: ¿cómo podemos fomentar el círculo virtuoso que se crea en
estas relaciones simbióticas?, y más aún, preguntarnos si en México existen las
condiciones para que esa relación simbiótica y ese círculo virtuoso aparezcan.
Para seguir tomando el contexto planteado, cabe preguntarse primeramente si
podemos considerar a la informática, a las “ciencias de la computación”, como una
ciencia. Esta pregunta fue planteada recientemente por Vinton Cerf, presidente de la
Association for Computing Machinery (ACM) y provocó una gran polémica. Buena parte de
*
124
teóricos de la computación se sintieron ofendidos y dieron multitud de razones por las
cuales se puede considerar como ciencia, las respuestas incluían digresiones formales
acerca del uso de la matemática en los fundamentos de la computación. En este ejercicio
planteamos una respuesta alternativa.
Lo que hay que considerar para responder la pregunta central de si la computación
es una ciencia o no es ver el paralelo con actividades científicas. Es adecuado preguntar
entonces, ¿cuál es el objeto de estudio de la computación?, ¿qué es lo que analiza y
predice?, ¿con que otras disciplinas se interrelaciona? Las respuestas a estas
interrogantes son fundamentales para poder identificar los nichos de oportunidad en la
investigación, identificar las disciplinas con las que se relaciona de manera simbiótica y
establecer un modelo de acción del Estado mexicano para fomentar el crecimiento
económico y el beneficio social de manera última.
El objeto de estudio más natural de las ciencias de la computación es la
información (de ahí viene precisamente el término informática). Interesa procesar,
almacenar, resumir, consumir y sintetizar información en forma de objetos digitales. Estos
objetos pueden ser abstractos o pueden ser representaciones de objetos físicos. Interesa
saber ¿cuándo dos objetos son equivalentes?, ¿cuando son distintos?, ¿cuándo se puede
obtener uno del otro? Incluso son de interés preguntas más generales como: ¿es posible
caracterizar un objeto?, ¿es posible saber si un objeto se puede obtener de otro?, ¿es
posible encontrar una fracción de un objeto dentro de otro?
Muchas de las preguntas anteriores pueden ser respondidas de una manera
completa para ciertas clases de objetos. Algunos otros planteamientos tienen respuestas
parciales, dependiendo del contexto. Algunos ejemplos pueden ayudar. Es interesante
decodificar las funciones de los genes en una cadena de ADN, saber si un teorema se
puede obtener de un conjunto de axiomas, reconocer rostros, imágenes, representaciones
de objetos físicos, almacenar y facilitar el acceso a documentos, hacer reseñas, síntesis,
descubrir intenciones en el discurso, y un largo etcétera que abarca todos los objetos de
estudio de las subdisciplinas de las ciencias de la computación. Es muy relevante notar
que resolver esas preguntas fundamentales tiene implicaciones para la vida diaria. Una
solución total en cualquiera de las subdisciplinas tiene implicaciones económicas,
sociológicas y políticas.
Debido a que en un sentido amplio los seres humanos nos dedicamos a generar,
consumir, procesar, codificar y resumir información, la computación es transversal a las
actividades humanas. Prácticamente cualquier actividad puede tomar ventaja de los
125
avances en ciencias de la computación. Esto coloca a la disciplina en una posición
complicada porque desaparece al ser ubicua. Sucede que usuarios de un sistema están
convencidos de que hacen computación y al contrario, no identifican que existan
problemas que resolver porque “la computadora hace todo”.
La anterior reflexión es relevante para lo que queremos responder en este
ejercicio. A partir de estas concepciones erróneas se forman otras afirmaciones
igualmente falsas; pero que tienen un efecto muy importante en el quehacer científico y
tecnológico de nuestro país. Repasemos algunos hechos.
Hasta hace relativamente poco, unos 15 años, los especialistas en computación
eran mediadores entre las “máquinas” y el público en general. Las necesidades de
tecnologías de la información de organizaciones y personas requerían de un especialista;
inclusive las actividades que ahora se consideran simples, como anunciar publicidad o
una reflexión en la red, no se diga un sistema de nómina o de reservaciones de una línea
aérea. Varias circunstancias provocaron un cambio de paradigma: máquinas más
potentes y baratas, mejoras en las interfaces de usuario, mejores diseños en los
programas de servicio y métodos más intuitivos para introducir información en los
sistemas de cómputo. La conjunción de lo anterior provocó la masificación del uso de
computadoras, primero personales, luego portables, ultraportables, tabletas, teléfonos
inteligentes y lo que viene.
En lo anterior se dio un círculo virtuoso en el que avances en la facilidad del uso
de computadoras y aplicaciones provocaron un mayor número de usuarios, lo que hizo
más baratas las computadoras y las aplicaciones, lo cual provocó a su vez mejores y más
rentables aplicaciones, mayores ventas de computadoras, etcétera.
El papel de México en la masificación del uso de computadoras es
extremadamente modesto. En nuestro país no hay una producción significativa de
tecnología, hubo intentos muy limitados de producción de una computadora “nacional”,
algunos de ustedes recordarán la microSEP que terminó desplazada por las alternativas
comerciales, o el esfuerzo formidable de dotar con equipo multimedia a todas las escuelas
elementales del país con la Enciclomedia. Estos y otros esfuerzos pueden resultar
atractivos en papel y en general son el resultado de una idea monolítica que se vende a
un político o a un comité mediante argumentos convincentes, pero limitados. Siempre es
conveniente mantener el correlativo con las ciencias más antiguas, regresaremos en
breve para hacer un paralelismo con lo que sucede en computación y lo que se observa
en otras ciencias, específicamente en este contexto. Queremos hacer hincapié en que lo
126
que discutiremos a continuación representa sólo un ejercicio, de ningún modo se debe
tomar como una propuesta reduccionista ni una visión pragmática de una ciencia tan
importante.
El ciclo de aceptación de nuevas tecnologías digitales, que incluye su
abaratamiento, es un paralelo adecuado entre ciencias que están en simbiosis; como en
el caso de la matemática, la física teórica y la física experimental. El equivalente en
computación de la validación experimental de una teoría física, tiene el correlativo de una
empresa exitosa. En particular, como ejemplo, podemos pensar en el número de usuarios
de una empresa de tecnologías de la información como el parámetro que establece si una
propuesta tiene éxito. El grado de aceptación de los usuarios a la propuesta se puede
medir con el número de usuarios únicos. Pocos usuarios significan que la propuesta no es
atractiva, o sólo lo es para un nicho reducido. Existen propuestas que llegaron para
quedarse y sin las cuales es difícil entender la vida diaria, los ejemplos abundan. Estas
tecnologías en general son de bajo costo para el usuario, algunas incluso son gratuitas y
las empresas obtienen beneficios mediante publicidad. Esta medida de éxito puede
parecer mercantilista; pero tiene un componente muy importante de análisis y es relevante
para la creación de un ecosistema que permita orientar los esfuerzos del Estado
mexicano para fomentar el avance en informática en nuestro país.
En física hay una multitud de intentos de validación de alguna teoría específica.
Algunos experimentos fallan, otros son exitosos; lo mismo aplica para las teorías: son
modificadas y ajustadas de acuerdo con los resultados experimentales. En computación la
fase de experimentación se da con los emprendimientos tecnológicos. En este momento
de la historia, los emprendimientos no tienen un correlativo científico con la física
experimental. Están en una fase muy parecida a la alquimia, donde unos pocos secretos
son compartidos en un círculo cerrado y la metodología no es pública y se puede dudar
de que en realidad exista alguna. Se entiende que por la importancia económica, los
secretos del éxito no sean compartidos; y se entiende que el entrenamiento en
emprendimientos sea de carácter muy general y cada uno de los emprendedores
descubra el camino adecuado. Desde un punto de vista abstracto, esta metodología no
escala; sería necesario un estudio científico del emprendimiento que lo elevara a la
categoría de la física experimental, guardadas las proporciones.
Regresando al ejemplo que nos ocupa, del papel de México en los ciclos de
masificación de la tecnología, basta observar que en el modelo anterior no cabe realizar
las cosas por decreto. El experimento de la Enciclomedia ilustra perfectamente que no se
127
puede brincar en el proceso. No se sabía si podía ser una buena idea y había muchos
cabos sueltos en los mecanismos de enseñanza tradicionales al ligarlos con la
Enciclomedia. Sólo para hacerlo un poco más obvio, sería como decretar que alguna
teoría física es cierta.
En el esquema planteado, lo que queremos saber es si alguna tecnología es cierta
en el mismo sentido que nos preguntamos si alguna teoría física es cierta. El mecanismo
adecuado es que un emprendimiento tecnológico lo lance al mercado, sufra los altibajos
de la innovación, consiga capital y crezca o perezca de acuerdo con la aceptación que
pueda tener.
Para abundar un poco más, notemos que no necesariamente se trata de éxito
económico, se trata de aceptación. Un ejemplo ilustra este punto. La empresa Netscape
no existe más, sin embargo, la tecnología que propuso ha probado ser verdadera en el
sentido que hemos propuesto. Javascript es la base de millones de aplicaciones y ha
evolucionado en otras formas más sofisticadas de interacción, mucho más lejos de lo que
sus creadores en Netscape anticiparon. Más aún, Mozilla, el motor del navegador
Netscape, descendiente de Mosaic, es de dominio público y es el motor de Firefox y
Chrome. Otro ejemplo, ahora negativo, es la propuesta de Xanadu que antecedió a la
web. Las diferencias son sutiles desde un punto de vista teórico, en Xanadu los
hipervínculos son simétricos y es posible verificar muchas más cosas que en la web. Pese
a las posibles ventajas teóricas, la web fue adaptada con sus hipervínculos
unidireccionales. Existen muchos más ejemplos que valdría la pena analizar y que abonan
a la posición de que la validación de una teoría tecnológica se mide por el grado de
aceptación de los usuarios. Por ahora regresemos a nuestro ejercicio.
Los emprendimientos tecnológicos deben innovar. Deben tener un componente
que los haga únicos, una manera peculiar de resolver alguna de las tareas para las que
fueron diseñados. Esa manera peculiar de resolver el problema generalmente requiere de
algún avance sustancial en la parte teórica de la computación. Puede suceder que el
avance esté ahí, que haya sido publicado con antelación y el emprendedor identifica la
oportunidad. También puede suceder que la solución se encuentre precisamente por
encargo, cuando se genera la interacción entre un teórico y un emprendedor. Si un
emprendimiento no tiene este componente, será muy difícil que prospere. Simplemente
copiar la tecnología siempre limita las posibilidades de éxito de una empresa. Si el
problema a resolver es demasiado trivial, entonces no vale la pena como emprendimiento.
128
Dicho de una manera más simplista, si se puede resolver sólo programando entonces no
es un emprendimiento tecnológico.
Lo anterior es posible siempre y cuando existan las condiciones de desarrollo. Las
ciencias duras tienen como patrocinadores a los gobiernos, los grandes experimentos
sólo son posibles con la cooperación de los gobiernos. Dados los ejemplos negativos que
presentamos antes, no cabría el patrocinio de un gobierno para la generación de
empresas de base tecnológica. Esta situación estaría negando la hipótesis de que el
emprendimiento debe ser masivamente aceptado, sería otra vez probar la verdad por
decreto. El papel de los gobiernos financiando grandes experimentos lo juegan las
empresas de capital ángel. El capital de riesgo apoya sistemáticamente y tiene una tasa
probada de éxito (digamos, uno de cada diez proyectos resulta rentable) que permite
financiar los experimentos de validación. En México el capital de riesgo es prácticamente
inexistente. Los empresarios prefieren usar soluciones probadas o encargar los
desarrollos a empresas extranjeras. Los emprendedores mexicanos muchas veces tienen
éxito fuera de México, simplemente porque pueden encontrar capital ángel.
Para que nuestro país pueda tener un papel relevante en el proceso de creación y
aceptación de nuevas tecnologías digitales, es fundamental crear las condiciones que
permitan el florecimiento del círculo virtuoso de investigación básica, emprendimiento y
masificación. El problema no se arregla, como hemos visto, por decreto ni haciendo el
papel de empresa de capital ángel por parte del gobierno. Pero ciertamente hay acciones
que pueden darse para facilitar las otras partes del proceso de innovación.
Mencionaremos algunas de ellas más adelante.
Analicemos ahora otro nodo del proceso de verificación descrito. Es imposible
saber, sin un experimento de por medio, si una teoría es verdadera. Esto no significa que
uno debe de dejar de hacer hipótesis y teorías. Lo que no resulta coherente es hacer
experimentos sin una teoría detrás. No tiene ningún sentido, por ejemplo, comenzar a
mezclar sustancias para ver si sucede algo interesante, eso lo hacía quien esto escribe y
seguramente todos los que tuvieron un juego de química Mi Alegría. En este contexto, y
dadas las reflexiones anteriores, lanzar empresas de base tecnológica sin una propuesta
teórica muy bien fundada es como hacer experimentos sin teoría detrás. El verdadero
motor de la innovación es la investigación científica básica. Los descubrimientos,
avances, teorías y algoritmos sólo pueden provenir de científicos entrenados, expertos en
la resolución de problemas de su especialidad, capaces de discernir entre buenos
resultados, malos resultados y resultados intrascendentes. Debe existir también un
129
mecanismo de comunicación entre los científicos y los emprendedores, las capacidades
de ambos son complementarias, pero en este caso son simbióticas.
La investigación básica en computación en México ha sido limitada por muchas
razones. Una de las principales es el equiparar la computación con otras áreas de la
ingeniería ignorando sus peculiaridades; pero eso es tópico de otro análisis. Vamos a
finalizar con algunas propuestas generales y algunas más específicas aplicables al
contexto mexicano y sus métodos establecidos para incentivar la producción científica.
ACCIONES
En el contexto global, es necesario encontrar un mecanismo que limite la multitud de foros
en los cuales es posible publicar un resultado científico en ciencias de la computación.
Éste no es un problema de México, es un problema de la comunidad mundial. Hay
ejemplos críticos en donde un artículo enviado por error del sistema a dos editores
distintos en la misma revista, fue aceptado por tres revisores y rechazado por otros tres.
La decisión final de si una propuesta científica en computación es válida, depende de dos
o tres personas. La computación ha encontrado especialmente útil publicar en congresos,
que tienen un formato muy diferente a los congresos de otras disciplinas,
lamentablemente existen multitud de foros que no tienen la calidad requerida. Es
necesario modelar de forma adecuada el proceso de creación de nuevo conocimiento,
mediante mecanismos más certeros de evaluación. En este contexto cobra importancia lo
descubierto en una colaboración abierta de muchas personas, llamada crowd sourcing, y
en la Wikipedia. Quizá vale la pena pensar en un mecanismo de publicación en donde los
artículos son evaluados con todos los lectores, teniendo registro de sus observaciones.
Para la creación de un ambiente de investigación, aun sin haber llegado a la fase
en la que los científicos interaccionan con los emprendedores, es necesario fomentar el
gusto por la ciencia, divulgar los resultados, coordinar esfuerzos y, en general, crear las
condiciones para que sean identificados los líderes de las diversas áreas de la
computación. La investigación básica puede no siempre dar lugar a productos
comerciales, pero incrementa el conocimiento global, entrena a nuevos científicos, da
prestigio y debería servir para que los emprendedores ubiquen a quienes pueden resolver
los problemas que surgen en los emprendimientos, o bien para que los emprendedores
130
identifiquen los problemas ya solucionados y puedan proponer nuevos métodos en el ciclo
de aceptación de la tecnología.
El mecanismo actual de una carrera académica en México no alcanza para
resolver el problema y para crear la masa crítica que se necesita. Las universidades
estatales luchan por sobrevivir con un presupuesto cada vez menor en términos reales,
con problemas de déficit crónico que las hace rehenes de la política local y con una
participación cada vez menor de la federación en su subsidio. Los egresados de los
posgrados nacionales tienen muchas dificultades para emplearse en la academia y por
supuesto dificultades para entrar en la escasa industria nacional en tecnologías de la
información. Esto provocará en un futuro muy próximo un desaliento para seguir un
posgrado y una carrera científica, a menos que se tomen medidas. Es necesario que el
Estado mexicano incremente el gasto en educación mediante la creación de nuevas
plazas en las universidades estatales, el incremento al gasto en investigación apoyando
una mayor cantidad de proyectos de ciencia básica y por montos mayores; manteniendo
siempre la flexibilidad en el uso de los recursos. En proyectos a largo plazo, siempre
pueden cambiar las perspectivas y los objetivos de la investigación.
CÁTEDRAS NACIONALES
Adicionalmente proponemos la creación de las cátedras nacionales. Éstas consisten en
una plaza que pertenece al investigador, independientemente de donde trabaje, y que le
da movilidad para asociarse libremente con las universidades que tengan las mejores
condiciones de trabajo (condiciones no monetarias). De esta manera, un investigador
puede apoyar a grupos de investigación de una manera focalizada, apoyar en la
formación de recursos humanos y mantener independencia. Si las condiciones en un
cierto lugar no son adecuadas, siempre tendrá la opción de cambiar de institución sin
temor a perder la antigüedad o dejar de cotizar para su jubilación. Un investigador podrá
optar por obtener una cátedra nacional y la federación seguirá otorgando el subsidio
correspondiente a la universidad que deja. Una vez con su cátedra, tendrá libertad de
cambiarse a donde las condiciones de trabajo sean más favorables. Hay muchos detalles
por discutir: como el tiempo mínimo de estancia, los incentivos de producción y entre
muchos otros aspectos. Pensamos que es algo que vale la pena proponer. Para
131
redondear la propuesta, sería necesaria la creación del área ocho del SNI, en donde todas
las peculiaridades de las ciencias de la computación y tecnologías de la información
puedan ser tomadas en cuenta. Como una nota al margen, el Conacyt recientemente
lanzó la primera convocatoria para las cátedras nacionales para investigadores jóvenes
en 2014. Es un avance notable en los mecanismos de creación de conocimiento; este
texto fue escrito en 2012.
EL CENTRO NACIONAL DE DATOS
Dado que consideramos que no es papel del Estado financiar el emprendimiento, queda
la pregunta de cómo se puede fomentar esta actividad. Los gastos iniciales de una
empresa de tecnologías de la información corresponden a sueldos de programadores y
renta de infraestructura. Si la propuesta tiene aceptación, si es verdadera en el sentido
planteado con anterioridad, su base de usuarios y el correspondiente escalamiento en la
infraestructura utilizada crecerán de forma exponencial. Llegar a ese punto ya la hace
rentable, o por lo menos la coloca en posición de obtener una segunda o tercera ronda de
financiamiento (mejor tipo de dinero) por parte de una empresa de capital ángel, o bien la
pone en posición de ser adquirida por una empresa más grande. La parte inicial es crítica
porque requiere de financiamiento para un producto que todavía no existe.
Nuestra propuesta es la creación de un centro nacional de datos que ofrezca
hospedaje, servicios en la nube, seguridad y control remoto a sus usuarios. Esta
infraestructura tiene además interés científico, las recetas de las principales empresas
tecnológicas difieren. Los mecanismos de escalabilidad de Amazon son distintos a los de
Google, Facebook o Microsoft y muy diferentes de los que ofrecen las empresas de
hospedaje. Un posible lugar para la instalación de este centro nacional de datos es el
Centro de Investigación Científica y Educación Superior de Ensenada (CICESE). Por su
ubicación geográfica y un acuerdo de cruce transfronterizo de datos, mediante el cual
puede contratar internet a un precio más barato que la oferta nacional, el CICESE tiene las
condiciones para que esta iniciativa se establezca. Este centro, financiado por el Estado
mexicano bajo alguna modalidad, daría hospedaje a los emprendimientos siguiendo
algunos requisitos mínimos; debería estar regulado por un consejo de expertos que
juzgarían la viabilidad de la propuesta y la cantidad de recursos que se necesitarían.
Debería existir algún mecanismo mediante el cual las empresas exitosas regresaran los
132
recursos que les fueron facilitados y en el mediano plazo se podría esperar que este
centro nacional de datos fuera autosuficiente. En el esquema faltaría el pago de nómina
para programadores, pero dada la naturaleza descentralizada de la actividad, podría ser
resuelta mediante becas de pasantía tecnológica con recursos de alguna bolsa con
participación estatal y privada.
RED NACIONAL DE DATOS
Un penúltimo punto sería la creación y operación de una infraestructura de datos propia
del Estado mexicano. Por razones estratégicas y de seguridad nacional, no es
conveniente utilizar las redes públicas de datos para el manejo de transacciones
delicadas, servicios de emergencia, servicios de inteligencia, etcétera. La creación de esta
infraestructura contiene retos que deberían resolverse con el talento mexicano, dentro de
lo posible, en lugar de comprar una solución. Existen propuestas, por parte de
agrupaciones académicas mexicanas, de utilizar la infraestructura ociosa de la Comisión
Federal de Electricidad.
Instituto Mexicano de Ciencia y Tecnología
Finalmente, creemos que es necesaria la creación de un instituto nacional en donde de
manera permanente se realicen reuniones, seminarios y talleres con la participación de
investigadores, estudiantes y emprendedores. El modelo del instituto es uno donde no hay
investigadores permanentes, todos son visitantes y no hay distinción entre investigadores
mexicanos y extranjeros. Un centro de esta naturaleza sólo promueve el intercambio de
ideas y tiene como misión incrementar la colaboración entre pares mexicanos y sus
respectivos grupos de investigación; lo mismo que la colaboración entre investigadores
mexicanos y sus pares en el extranjero. Por ahora no existe un centro de esta naturaleza
en México y toda colaboración pasa a través de proyectos de investigación y fondos de
naturaleza muy rígida. Un instituto nacional como el descrito propiciaría el planteamiento
de retos de investigación relacionados con emprendimientos y la motivación de
133
estudiantes de posgrado para realizar emprendimientos tecnológicos basados en
problemas resueltos en la parte teórica y con interés comercial.
CONCLUSIONES
Consideramos, en suma, que los apoyos del Estado mexicano a las tecnologías de la
información deben darse a la investigación y a la educación y, de manera indirecta a
través de las interacciones, a los emprendimientos tecnológicos. Sería natural esperar
que los estudiantes de posgrado, motivados adecuadamente, comenzaran los
emprendimientos tecnológicos armados de las herramientas científicas necesarias e
insertadas en un contexto académico. De esta manera, el círculo virtuoso de la
investigación, la educación y los emprendimientos florecería para dar paso al proceso de
aceptación de nuevas tecnologías. La comunidad ha comenzado a trabajar como equipo
mediante la formación de la RedTIC, formulando los grandes retos, convocando a
acciones conjuntas. Se debe dar continuidad a estas acciones con un apoyo decisivo del
Estado.
134
LAS TIC COMO CIENCIA EMERGENTE Y HERRAMIENTA PARA EL DESARROLLO DE LA CIENCIA EN MÉXICO
Sergio Carrera Riva Palacio* y Juan Carlos Téllez Mosqueda**
INTRODUCCIÓN
Por sí mismo el nombre de este foro, Hacia dónde va la Ciencia en México, en el que se
inserta esta mesa de perspectiva tecnológica, es un gran reto. No sólo porque hacer
prospectiva encierra grandes dificultades, sino además porque entramos en campos que
en la ciencia normalmente no se abordan por razones metodológicas; y porque determinar
“hacia dónde ir” en aspectos complejos, necesariamente nos lleva a cuestiones
normativas del deber ser y positivos a donde se puede ir. Por supuesto, hay que estudiar
las tendencias para comenzar a pensar y planear una invención antes de que la
tecnología permita que esté disponible en el mercado.
Este artículo se encuadra en una visión más de orden estratégico para ver las
tecnologías de información y comunicación (TIC) como herramienta de orden transversal
de apoyo para el resto de las ciencias; y al mismo tiempo, como una ciencia emergente
que requiere cumplir obligaciones similares al resto de las ciencias, como explicitar los
conceptos en que se basa, y también tener algunos derechos, estudiarse a sí misma, y
convertirse plenamente en un campo de estudio.
Este aspecto va en línea con el nombre de la mesa: “La investigación en
informática para el futuro de México” y su objetivo: plantear algunas áreas de oportunidad
para la investigación y formación de recursos humanos. Después regresaremos al
concepto de informática, que requiere un par de precisiones.
***
135
IMPORTANCIA DE LAS TIC EN LA CIENCIA
Desde que Norbert Weiner propuso en 1949 el concepto de cibernética y Claude Shannon
desarrollara la teoría matemática de la comunicación, creció la importancia del uso de
tecnologías en la ciencia. Por cierto, como muchos saben, Arturo Rosenblueth y Weiner
identificaron la posibilidad de la aplicación de las matemáticas y la teoría de la
comunicación en la fisiología desde esa época.
Ambos “creían que los campos más fructíferos para el desarrollo científico eran
aquéllos que habían quedado desatendidos como tierra de nadie entre las distintas
especialidades” (Quintanilla, 2002). Se requería que cada especialista tuviera un profundo
conocimiento en su campo y una experiencia práctica en el otro campo de conocimiento.
Podríamos decir que parte del desarrollo de las TIC ha obedecido a que se convirtió en
una tecnología de propósito general, como lo fue el vapor y la electricidad. Jovanovic y
Rousseau han mostrado que estas tecnologías fueron clave para la revolución de los
procesos productivos.1
Esta sinergia ha permitido difuminar las fronteras entre distintas disciplinas, para crear
nuevos campos de conocimiento transdisciplinarios, nuevas especialidades y generar
nuevos conocimientos de frontera, como biogenética, biónica, derecho informático,
economía de la información, nanotecnología, robótica, geomática, tecnologías en la
educación, informática forense y múltiples aplicaciones en diversas ciencias.
No obstante la importancia de las TIC, se sigue considerando como una herramienta
técnica. Tal vez ya requiere ocupar en México un lugar dentro de las disciplinas científicas
heredadas desde la Ilustración. Una preocupación que se ha tenido en otras sociedades,
para resolver problemas similares, ha sido un proceso de revisión de la currícula cada vez
de forma más continua de las ciencias de computación. Por ejemplo, en Estados Unidos
estuvo en escrutinio la propuesta de programa 2013 desde el año 2011, donde el papel
que desempeñaron la Association for Computing Machinery (ACM) y el Institute of
Electrical and Electronics Engineers (IEEE) fue fundamental para impulsar su revisión.
1http://www.nyu.edu/econ/user/jovanovi/JovRousseauGPT.pdf.
136
PROBLEMÁTICA GENERAL
El acelerado desarrollo tecnológico, producto de la convergencia de varios campos
(electrónica, materiales, sistemas, comunicación) nos ha mostrado sus grandes
beneficios, sobre todo para aumentar la productividad y el bienestar. Un ejemplo ha sido
el desarrollo de dispositivos móviles que representan una gran integración de diferentes
aplicaciones, y que el mercado y la población, sobre todo joven, las han aceptado por sus
facilidades de uso al ser intuitivas.
Pero también hay que estar conscientes de que esta convergencia tecnológica está
transformando aceleradamente la vida cotidiana y la ciencia con diversas implicaciones.
Señalemos algunos ejemplos en relación con el tema que nos ocupa.
Los procesos de formación tradicionales no se transforman a la velocidad de los
cambios tecnológicos. Existen varios ejemplos de nuevas carreras que se trataron de
estructurar a partir de otras para dar respuesta a las nuevas necesidades, en especial a
los requerimientos de los sectores productivos de tecnología de punta. Sin embargo, esto
no es tan sencillo. La diversidad de nombres de las nuevas carreras no necesariamente
reflejan los contenidos estudiados y la información que requieren los empresarios para
sus procesos de selección de personal.
También existen procesos de exclusión, por ejemplo, en la maestría de ingeniería
biomédica, los egresados de las carreras originales de ingeniería biomédica repudian a
los electrónicos que ingresan. Los primeros se ven a sí mismos como médicos y los
segundos no comprenden cómo esos “cuasi médicos” pueden construir los dispositivos
que se requieren para la medicina. Por ende, los primeros no aceptan a los recién
llegados a la manada, lo que recuerda la crítica de las manadas científicas que realizó
Ray Kurzweil.
Pero en el plano general del uso de estas herramientas en la vida cotidiana, o más bien
en las aplicaciones de esta ciencia emergente, existen muchos campos de actividad en
donde aún no se cuenta con sistemas de cómputo para operar, aun cuando en otros ya se
están aprovechando, por ejemplo las bases de datos no estructuradas. En varios campos
se utilizan equipos dedicados de gran tecnología pero sin estándares interoperables, sus
137
avances proporcionan una ventaja comercial cuasi monopólica para gestionar la
confidencialidad industrial, pero dificultan la obtención y el intercambio de información.
La problemática de los avances tecnológicos también se aplica a internet. Sin acceso y
suficiente banda ancha disponible, las personas y las localidades alejadas de las grandes
urbes quedarán en desventaja. El grado de penetración del uso de internet en diferentes
países nos muestra que existen distintas velocidades de adopción que propician
diferentes niveles de competitividad. En el caso de México, los avances en la materia son
notables, pero insuficientes para converger al menos al promedio de países de la OCDE.
Las consecuencias de generación de la información en la era de internet también
requieren ser estudiadas para evitar aspectos nocivos de este bien intangible. De acuerdo
con algunos trabajos al interior de Infotec se identifican seis consecuencias: aumento de
la brecha social a pesar de la convergencia tecnológica; transformación cultural; la
confiabilidad y credibilidad de las redes sociales; viabilidad económica de las inversiones
en tecnología; costo de la información, y crecimiento de la demanda de energía de los
centros de datos (Téllez, 2012a). Debemos estar conscientes de la gestión del
conocimiento y las TIC.
Respecto al desarrollo del concepto de computación, se requiere considerar que
existen otros conceptos que permiten denominar el campo disciplinar de estudio y
profesional, como informática, y la tecnología de la información y la comunicación.
Permítanme parafrasear a un especialista del tema (Morales, 2008).
" El avance vertiginoso de las TIC requiere una reflexión epistemológica como un
posible enclave disciplinar, sobre todo por la diversidad de campos de conocimiento
que han confluido para favorecer su desarrollo tanto en ciencias duras como
ciencias sociales.
" No existe un consenso pleno sobre la forma en que puede denominarse, por las
diferentes connotaciones de las disciplinas en las que se originó. La informática, si
se toma el antecedente soviético, que ya no es tan reconocido, sería sinónimo de la
ciencia de la información. Mientras que en la tendencia francesa, con mayor
influencia en los países hispanos, el sinónimo es computación, pero con una
connotación técnica.
138
" Otra denominación es la de ciencia de la computación, que se identifica de forma
estrecha con el aspecto tecnológico de las TIC, y que ha sido aceptada en las
escuelas de ingeniería o de ciencias duras. Sin embargo, los estudiosos de las TIC,
cuyos antecedentes sean de las ciencias sociales podrían ser mal llamados
computólogos, como extrapolación de los politólogos, pero su aplicación seguiría
siendo técnica y no social. Otra más es la ciencia de la información, que es una
denominación que se ha propuesto como alternativa para el estudio de las TIC
desde las ciencias sociales. La limitante de dicho término es que también se usa
como sinónimo de ciencias de la comunicación y como referencia al estudio de la
información, que se limita al estudio de las bibliotecas y archivos, pero no a la
información.
" Una opción es el de ciencia y tecnología de la información que se planteó desde la
década de 1960 para hacer referencia al estudio de la información, a partir de la
noción de los términos de ciencia y de tecnológica. Esta denominación busca
conciliar las diversas maneras de estudiar y desarrollar aplicaciones con base en las
TIC, que abarcan un amplio abanico disciplinario. Sin duda, al contar con teorías,
comunidad epistémica, práctica, tecnología y metodología será más fácil construir
programas de investigación, como sugiere Lakatos.
Cuando se dejan más claros los conceptos del campo de estudio, es más fácil
profundizar en las disciplina y lograr contribuciones que ensanchen el entendimiento de la
misma para mejorar la comunicación, incluso con otras ciencias.
DIFERENTES PROBLEMAS
Desde nuestra óptica identificamos varias áreas de oportunidad en donde se debe
avanzar en la investigación y formación de especialistas en esta materia. Trataremos de
ser breves y enmarcarlas de manera temática:
Incentivos insuficientes para la investigación
139
La creación de talento para la investigación requiere de alinear expectativas y costos de
oportunidad para incentivar que los jóvenes encuentren una realización de vida en la
investigación científica, a fin de cultivar desde temprana edad sus vocaciones para
potenciar la curiosidad científica y el desarrollo de conocimientos aplicados en las
distintas localidades del país.
Intérpretes y colaboración
Por definición, la investigación exige especialización y focalización. En el pasado pudo
hacerse en disciplinas singulares, pero hoy es común identificar varios procesos de
“invasión de carriles” disciplinarios, que han producido buenos resultados y han sido de
mucha utilidad, pero también generaron nuevos problemas para reproducir el
conocimiento y, sobre todo, para entenderse entre los distintos campos de conocimiento.
Se puede hablar incluso de varios enfoques o visiones multidisciplinarias,
interdisciplinarias o transdisciplinarias, y no digamos las habilidades que se requieren
para trabajar en equipo. Una de las peticiones más recurrentes de las empresas, cuando
se trabaja en el diseño curricular de las carreras relacionadas con TIC, es que los
egresados puedan desarrollar suficientes habilidades suaves (soft skill) y por supuesto
que sepan escribir y hablar dos idiomas.
Se requiere de más intérpretes entre las disciplinas para construir grandes
soluciones tecnológicas y expandir el campo de conocimiento.
Ámbitos y mercados desvinculados
140
Desde el punto de vista sistémico existen varios ámbitos y mercados desvinculados que
requieren ser estudiados y analizados para mejorar su alineamiento, y evitar los
desequilibrios que hoy existen en los ámbitos de vocación y educativo, en el mercado de
trabajo, en el mercado de bienes y servicios, así como en el ámbito regional. Cada uno
responde a lógicas diferentes y caminan con dinámicas distintas.
Se supone que para crear una nueva carrera profesional se requiere de estudios
del mercado de trabajo para analizar la oferta y demanda de la profesión. Sin embargo, la
problemática no se reduce simplemente a este mercado. Debemos incorporar el análisis
de los diferentes ámbitos y mercados para poder lograr una mejor vinculación con el
mundo productivo y social en las diferentes regiones del país. Cada uno tiene su oferta y
demanda, que al trasladarse de una esfera a otra no necesariamente coinciden. Y si
consideramos el ámbito de la investigación, el problema se vuelve más complejo de
solucionar.
Cuando nos referimos a los motores y/o motivaciones de la investigación, está
claro que puede ser la simple curiosidad, las preferencias y capacidades, las carencias
nacionales, el mercado mismo y las áreas de interés estratégico. Éstos son algunos
elementos para definir hacia dónde puede ir la investigación de una ciencia emergente.
Crisis del software
Este concepto ya tiene por lo menos más de 30 años, y está relacionado con la calidad
con la que se conforman e implementan los sistemas de cómputo. La gran visión de
arquitectura para observar el bosque y al mismo tiempo trabajar con rigor para cuidar los
detalles que permitan la identificación plena de las especificaciones de los requerimientos
para su traducción a código, han generado múltiples metodologías. Muchas de éstas han
generado diferentes estándares, mejores prácticas, e incluso diferentes tipos de
certificación de marca o comerciales, que los estudiantes cuando egresan de las escuelas
no necesariamente han incorporado en su formación, con un costo social adicional que
141
debe ser cubierto, ya sea por las empresas o ellos mismos al invertir más tiempo en una
formación adicional que demanda el mercado.
Las vastas áreas de interés y los diferentes dominios que involucran a las ciencias
y tecnologías de información generan no sólo un campo fértil, también retos de
comunicación que no se solucionan sólo con el uso de lenguajes complejos sino con el
lenguaje natural. No es casualidad que varias metodologías y herramientas den tanta
importancia a la identificación de requerimientos de los usuarios y clientes, y al mismo
tiempo, a la tipificación de campos de aplicación de diferentes dominios. Los programas
tradicionales no producen de manera natural los arquitectos de software que tanto se
requieren. Y los que por sus capacidades naturales resaltan, más bien se dedican
tempranamente a sus propios intereses para desarrollar empresas.
Avances acelerados de la tecnología
El progreso de la tecnología no hubiera sido posible sin la conjunción de varios avances
de las ciencias (semiconductores, desarrollo de materiales, conectividad digital, desarrollo
de internet) con la habilidad, disciplina y visión para su integración. Nos encontramos en
círculos virtuosos que generan una gran masa crítica sinérgica.
Estos avances motivan para seguir adelante, pero es necesario tener claro el ciclo
de vida de las construcciones tecnológicas. Se supone que el motor que mueve los
requerimientos y avances tecnológicos es la demanda del mercado. Sin embargo, algunas
novedades tecnológicas tienen un carácter más de oferta y de creación de necesidades,
por lo que es necesario entender y propiciar los criterios de selección para una adecuada
gestión tecnológica que permita administrar el proceso de cambio, porque el acceso es
caro, y su vigencia puede ser rápida, con el asociado costo de mantenimiento que se
requiere.
142
Innovación y enfoque de mercados
Con la investigación básica se obtienen conocimientos de frontera o de raíz, y con éstos
generalmente no se tiene una aplicación productiva inicial. Por suerte, es consustancial al
proceso de investigación, la solución de problemas o búsqueda de respuestas. La
investigación aplicada permite el desarrollo tecnológico. Pero sin ella, se genera una
dependencia a ésta, y nos volvemos compradores y seguidores de tendencias
tecnológicas.
Llama la atención que del total de los fondos para innovación y sectoriales,
aproximadamente 12% se asigna a proyectos que ofrecen respuesta a los problemas
planteados a partir del uso de las TIC.
Apropiación
Una clave para que se democratice el acceso y uso de las TIC es que los ciudadanos se
apropien de las mismas. En el caso del gobierno electrónico, es que ellos se vuelvan los
vigilantes a través de su uso, y con sus nuevas demandas ayuden a mejorar los servicios.
Sin duda, los avances en las TIC generan mayor bienestar a los ciudadanos y una
mayor competitividad a las organizaciones y países. Proporcionan una mayor eficiencia a
los procesos, pero también pueden producir vasta acumulación de información, que
incluso puede utilizarse para que los gobiernos hagan de sus prácticas cotidianas
procesos permanentes de transparencia. El enfoque de concentración de información se
ha dirigido a una masa indigerible de justificación programática de los procesos
administrativos, y no a generar información estructurada y de fácil acceso a través de
buscadores semánticos que ayuden a procesos sustantivos, como los procesos de
investigación.
143
Soluciones tecnológicas y sus costos
Las soluciones tecnológicas representan diferentes maneras de vencer múltiples retos:
restricción de tiempo, costo y financiamiento, madurez de procesos, regulaciones,
barreras culturales, apoderamiento tecnológico ante la falta de capacidades. Pero en las
soluciones de las tecnologías de la información existen diversos dilemas tecnológicos,
que requieren ser investigados para reducir costos de acceso.
Permítanme comentar uno: la confrontación entre la subcontratación, u
outsourcing, y el desarrollo de capacidades internas. Se argumenta que la primera tiene
menores tiempos de implementación, pero con altos costos de entrada y rentas
tecnológicas, versus el segundo con mayores tiempos de implementación al desarrollar
capacidades internas, con costos permanentes para su mantenimiento, que puede
profundizar en la especificidad de requerimientos, sin desarrollar necesariamente
prácticas estandarizadas para sustituir la rotación natural del personal.
Los desarrollos ad hoc, o a la medida, son en principio más elevados en su costo,
pero también los procesos de instrumentación de soluciones genéricas implican consumo
de tiempo de las personas que están dedicadas a la operación de los procesos, y tiempo
para adecuarse a ello por ser poco flexibles. Es aquí cuando se introduce el concepto de
madurez de las organizaciones, que se desarrolló en la Universidad Carnegie Mellon. La
explicación que nos proporcionan es sencilla: no se pueden sistematizar organizaciones
fácilmente si no están maduras en cuanto a organización.
Por eso es muy importante la revelación de los costos. Entre más explícitos sean
los costos de acceso a la tecnología y su entrada tenga menos restricciones, los usuarios
podrán aquilatar de mejor manera el retorno de sus inversiones, ya que los beneficios son
más evidentes, sobre todo en productividad. Es decir, lograr que el poder esté en los
usuarios y no en los tecnólogos, y menos en las empresas monopólicas.
Éste es el tipo de dilemas que deben estudiarse en la intersección de la
informática y la administración como ciencias.
144
PROPUESTAS
Las propuestas para mejorar el proceso de investigación y formación las vemos en dos
grandes planos, uno de orden general e institucional, otro de manera particular en el
nuevo campo de estudio que se propone.
Papel del sector Conacyt
Si bien el Conacyt no es toda la ciencia en México, es uno de los actores prominentes que
institucionaliza una buena parte de la coordinación y orientación de las instituciones de
investigación. Su papel es fundamental en la administración de los incentivos y apoyos
para los científicos y para los estudiantes que buscan ingresar al mundo de generación de
conocimientos de frontera, donde las certezas son escasas y las incertidumbres son
abundantes. Pero sin duda son un segmento privilegiado de la población, como lo señaló
alguna vez Miguel José Yacaman. Sólo hay que recordar que por definición, la
investigación es especialización y focalización de esfuerzos.
Las orientaciones del Conacyt, a través de sus acciones, son decisivas para influir
positivamente en señalar el norte hacia donde debe ir el desarrollo de la ciencia en
nuestro país. En especial, su apoyo puede contribuir a los procesos de aplicación de la
ciencia para el desarrollo de tecnologías. La investigación aplicada permite el desarrollo
tecnológico y disminuye la dependencia externa, es decir, evita que sólo seamos
compradores y seguidores de tendencias, y al mismo tiempo apoya la competitividad de
las empresas, organizaciones y personas del país.
La transformación institucional del Conacyt, que se delínea es una excelente
oportunidad para proyectar el tipo de institución que se requiere para facilitar el desarrollo
145
y acumulación del talento humano capaz de hacer ciencia e innovación, es útil para
resolver nuestros grandes retos y generar riqueza. Pero para cambiar con sentido, se
requiere reconocer dónde estamos situados y hacia dónde vamos.
El Conacyt se ha convertido en una entidad parecida a la banca de desarrollo. La
disponibilidad de recursos atrae la atención y ocupa la operación fundamental de su
quehacer cotidiano. Sus principales programas están dominados por la agenda de
distribución de fondos (Sistema Nacional de Investigadores, becas, fondos para ciencia y
tecnología). No obstante, este gran papel no ha encontrado un diálogo constructivo entre
las grandes dependencias globalizadoras del país, que por mandato están concentradas
en equilibrio presupuestal y la rendición de cuentas con esquemas tradicionales.
La política científica y tecnológica, y en consecuencia su agenda, no está
orientada a atender los grandes retos nacionales. Estos temas ocupan están en un
segundo término. Estamos más ocupados en la procuración de recursos para atender las
necesidades de subsistencia de proyectos y rendición burocrática de cuentas, que en el
desarrollo de talento y en la concentración de soluciones de los grandes problemas
nacionales. Esto distrae el uso de nuestros activos y merma el potencial de nuestros
científicos y tecnólogos.
Al día de hoy no están a la vista de la sociedad los grandes proyectos que nuestro
sector persigue, ésos que contribuyan a alinear el esfuerzo y obtener grandes saltos en el
conocimiento y la innovación, ésos que harían a los jóvenes imaginar su futuro como
personas exitosas, reconocidas y de amplia solvencia gracias al desarrollo de su talento
científico y creativo.
Tabla 1. Principales objetos y macrofunciones de la Ley de Ciencia y Tecnología.
146
Consideramos que esta situación proviene de la misma Ley de Ciencia y
Tecnología que en términos generales prevé tres grandes objetos: financieros,
coordinación y vinculación, y desarrollo y fomento.
Por estas razones, vemos cuatro facetas del Conacyt que deben ser consideradas
en su proceso de reingeniería funcional
• Prospectivo, como guía de grandes orientaciones
• Reflexivo, a manera de un laboratorio de ideas
• Articulador de esfuerzos, con un papel renovado de la vinculación
• Financiero, que comunique la rentabilidad social y productividad que implica
canalizar recursos escasos a la ciencia y tecnología, que explicite los criterios de
asignación, que mejore los controles administrativos para recibir fondos y que facilite la
rendición de cuentas efectiva
Financieros Coordinación y
vinculación
Desarrollo y fomento
" Regular y determinar los
instrumentos de apoyo
" Establecer los
mecanismos de
coordinación para la
definición de la política
pública
" Determinar las bases de
apoyo para realizar la
investigación científica y
tecnológica y para el
fortalecimiento de la
capacidad institucional
" Vinculación entre la
comunidad científica y
académica y los
sectores productivos y
de servicios
" Fomentar el desarrollo
tecnológico y de innovación
de las empresas en México
en condiciones para producir
nuevas tecnologías e
incrementar su competitividad
147
Propuesta para formación e investigación
En el caso de la formación, nos gustaría señalar algunas propuestas. Es importante
realizar una revisión de todos los planes de estudios de las múltiples carreras que existen
en relación con el tema que nos ocupa, con el objetivo de homologar y especificar los
diferentes campos de estudio. Es conveniente revisar la pertinencia y actualización de los
programas, pero también la forma de nominarlos. No se trata únicamente de crear nuevas
carreras o reagrupar las existentes, se requiere distinguir claramente las bases de
formación y las distintas especialidades desde los estudios de licenciatura. Dar señales
claras al mercado de trabajo para distinguir los diferentes programas relacionados con las
tecnologías de información y comunicaciones. Tal vez realizar una iniciativa nacional para
efectuar una revisión curricular, similar a la que se lleva a cabo cada vez con mayor
periodicidad en Estados Unidos, donde se reconocen claramente sus deficiencias y los
retos.
El crecimiento de la matrícula de las carreras en torno a las TIC fue de 1.8% durante el
periodo 2001-2009, pasando de algo más de 177 mil alumnos a alrededor de 215 mil. Se
estima que la eficiencia terminal nacional en ese periodo osciló entre 51 y 57%, de
acuerdo con la información del Instituto de Nacional de Estadística, Geografía e
Informática (INEGI) y un trabajo reciente que se elaboró en el Infotec (Téllez, 2012b). El
número de egresados osciló en 30 mil, pero no en las especialidades que requiere el
mercado de trabajo, por ejemplo, en sistemas embebidos. No obstante que las carreras
de licenciatura en computación y sistemas se encuentran entre las más populares de la
matrícula, algunos expertos señalan que existe una carencia de profesionistas altamente
capacitados, lo que apunta al factor de la calidad en su formación (Estrada, 2011: 74, 79).
Agregaría también a su pertinencia.
No debemos perder de vista que no se puede formar profesionales únicamente para
demandas puntuales y coyunturales de mercado. Las personas deben contar con el
bagaje necesario para entrar en el mercado de trabajo, pero al mismo tiempo deben
148
contar con la habilidad de aprender a aprender, para enfrentar los cambios bruscos de
ajustes que de vez en cuando realizan los mercados.
De acuerdo con una revisión realizada por uno de nuestros investigadores invitados de
posdoctorado, actualmente existen en México 74 programas de maestría y 59 de
doctorado en computación registrados en el PNPC (Estrada, 2013). Utilizando esta
información dispersa bajo un criterio de algoritmos de agrupamiento (clustering), se
encontró que entre los principales temas de investigación que se abordan destacan por su
interés los siguientes: sistemas, desarrollo, software, algoritmos, redes, aplicaciones,
inteligencia artificial, control, datos y diseño.
Si bien el principal interés de la investigación es en torno al desarrollo de sistemas, se
percibe un relativo envejecimiento temático. Realizando una reagrupación de los temas de
ingeniería de software, existen pocos trabajos en metodologías o calidad. Para el caso de
inteligencia artificial, resaltan los algoritmos, modelos de optimización, inteligencia y
redes.
Existen muchos programas educativos aislados que seguramente están respondiendo
a necesidades específicas. Incluso hay distorsiones como la de los programas
paracurriculares diseñados para ajustarse con mayor velocidad a los cambios del
mercado y de los ámbitos vocacional y regional. Utilizando una sencilla tabla de
frecuencia y normalizando los nombres de los programas y agrupando temas afines,
encontramos los siguientes resultados.
Tabla 2. Programas de maestrías y doctorados de computación en México
Temática Núm. Temática Núm.
Ingeniería de software 19 Administración de proyectos 1
Cómputo 16 Aprendizaje 1
Inteligencia artificial 13 Bioinformática 1
Imágenes 10 Biotecnología 1
Electrónica 5 Tecnología educativa 1
Optimización 5 Geomática 1
Ingeniería computacional 4 Gestión del agua 1
149
Inteligencia 4 Ingeniería industrial 1
Robótica 3 Innovación 1
Administración de conocimiento 2 Investigación de operaciones 1
Automatización 2 Materiales 1
Comunicaciones 2 Mecatrónica 1
Criptografía 2 Planeación 1
Sistema de información 2 Sistemas distribuidos 1
Transporte 2
En relación con las tendencias internacionales tenemos una gran brecha con los temas
que se atienden en México. Se puede comparar la información analizada de los
programas del PNPC con los temas que se generan periódicamente, como es el caso del
estudio de Gartner sobre las tendencias en tecnología para 2013. Es posible ver que no
se corresponden los temas nacionales con los que son relevantes internacionalmente.2 En
pocas palabras, los temas internacionales son prácticamente inexistentes o marginales en
los temas de investigación en México, como cómputo móvil, aplicaciones nativas para la
web, cómputo en la nube, interconexión de utensilios cotidianos, big data y computación
en memoria.
Para profundizar en los aspectos que más se investigan en el plano internacional, se
realizó un ejercicio de identificación de los temas más representativos, considerando el
país de origen, temas, subtemas y temáticas específicas. Se seleccionaron 24 categorías
y se analizaron los 20 artículos más citados para identificar los temas más relevantes en
los últimos cinco años, utilizando el sistema de búsqueda de Google Scholar (Estrada,
2013). Con esta mecánica fue posible procesar una lista de más de 2 mil artículos a
través de las entidades o conceptos nombrados. Los principales hallazgos son los
siguientes:
" El tema de investigación que más se está trabajando en el mundo, de acuerdo con
su frecuencia de aparición en artículos, es el relacionado con redes de
computadoras y comunicaciones.
2http://www.computerworld.com/s/article/9232800/Gartner_s_Top_10_tech_trends_for_2013.
150
" Es interesante observar que le siguen temáticas como biotecnología, bioinformática
e inteligencia artificial, que son tres conceptos altamente relacionados porque las
técnicas de inteligencia artificial se utilizadan precisamente en biotecnología y
bioinformática para análisis semiautomático de información de estos dominios.
" Cuando se efectúa un zoom en subtemas, resaltan nuevamente las comunicaciones
(computación móvil y comunicación inalámbrica), al igual que la biología
computacional. Otros temas relevantes son geociencias y sensores remotos.
" En temas específicos se observa también que el área de comunicación continúa
apareciendo como muy relevante, con temas como Wireless, computación móvil,
protocolos, antenas, redes de sensores y todos los temas relativos a redes de
comunicación. Un aspecto importante es que en esta lista concreta aparecen temas
más genéricos, como análisis de algoritmos, encriptado y complejidad, así como
temas de inteligencia artificial (reconocimiento de rostros, programación genética,
algoritmos evolutivos, traducción estadística de datos, web semántica o redes
neuronales).
" Es interesante observar que son muy pocos los temas de bases de datos o de
ingeniería de software.
" En cuanto a los países líderes en investigación, medidos por número de
publicaciones, se encontró que Estados Unidos es el país que más artículos
relevantes ha generado en los últimos cinco años. Seguido, con una gran diferencia,
por China, Reino Unido, Alemania, Canadá, Suiza, Italia, Francia y España. Si se
suman todos los artículos de los países de la Unión Europea (833), no se comparan
con los 1 250 artículos de Estados Unidos.
" Aun cuando México ha avanzado en publicar investigaciones en revistas
internacionales de prestigio, generalmente esta producción tiene las siguientes
características: no es reciente (más de cino años), no es muy citada en otros
artículos de investigación, y se trabaja en muchas temáticas de investigación.
Es importante mencionar que se requieren más datos para corroborar estos resultados
preliminares, y aclarar que esta selección puede estar sesgada por las diferentes
151
categorías y subtemas utilizados en la desagregación. Sin embargo, en general existe una
convergencia temática con Gartner.
La investigación y la formación en aspectos relacionados con las ciencias y tecnologías
de información también pueden ser agrupadas por el tipo de participación y por el enfoque
de apoyo en tres grandes campos: 1) el de investigación básica de desarrollo teórico y
generación de conocimientos de frontera, con la participación de la academia y la
empresa; 2) el campo de desarrollo de investigación de aplicaciones, que requiere
incorporar en mayor medida el enfoque de mercado y 3) el que estudie los aspectos de
apropiación y mecanismos de compensación, con un enfoque social.
Este último aspecto forma parte de la estrategia de crear medidas compensatorias que
el mercado no siempre puede proporcionar porque no existen condiciones adecuadas de
sustentabilidad, que en un principio deben ser atendidas por el Estado, como es la
educación. Entre las medidas compensatorias están el propiciar que más personas
adquieran habilidades digitales, ampliar la conectividad, aumentar la velocidad de acceso,
que las personas aprendan de forma adecuada las habilidades de lectura compleja, y que
los precios sean económicamente eficientes.
En todo esto subyace una pregunta clave: ¿qué hacer para impulsar más la
investigación en México? Los problemas concretos de orden nacional deben ser los retos
para las ciencias mexicanas, a través de mecanismos concretos: generar conocimientos
de frontera para la solución de problemas, formar nuevos investigadores para disminuir la
edad promedio vigente de los investigadores, crear multiplicadores que desarrollen
nuevos investigadores y emprendedores tecnológicos, proyectar a los investigadores
maduros, y formar equipos transdisciplinarios.
La integración de campos ha permitido grandes aportaciones a la ciencia, por ejemplo
la genética, y la iniciativa que se está planteando para mapear el cerebro. Pero otras tres
áreas que identifico son la biotecnología —los sistemas embebidos o dedicados—, la
economía de la información, y el ámbito del derecho en las TIC.
Quiero hacer una reflexión final. Este tipo de evento nos permite mostrar las distintas
visiones que tenemos para enfrentar los retos que la sociedad demanda a la ciencia y la
tecnología, pero desde mi punto de vista tenemos que acelerar el proceso de
transformación y trabajar en alcanzar la velocidad de difusión de la revolución industrial
que provocó las TIC, como tecnologías de propósito general y al mismo tiempo como una
152
ciencia emergente. Una estrategia para superar el rezago es identificar las intersecciones
de las ciencias para provocar con innovación un salto cuantitativo, así como una política
pública agresiva en la materia, que está por verse si somos capaces de participar en su
articulación e instrumentación en el corto plazo.
REFERENCIAS
Estrada, Ricardo (2011). Profesionistas en vilo, México: Cidac.
Estrada Esquivel, Hugo (2013). Estudio sobre los temas de investigación en computación
que se abordan en México y en el plano internacional, México: Cuadernos de
Trabajo Infotec (en prensa).
Morales, Valentino (2008). La bibliotecología y estudios de la información. Análisis
histórico-conceptual, México: El Colegio de México.
Quintanilla, Susana (2002), Arturo Rosenblueth y Norbert Wiener: dos científicos en la
historiografía de la educación contemporánea. Revista Mexicana de Investigación
Educativa,
Téllez Mosqueda, Juan Carlos (2012a), “¿Se alcanzará la plena información con el
Internet?”, en: Estrategias y metodología para la innovación tecnológica en
municipios. Las diferentes vías al gobierno digital. México: Infotec (en prensa).
Téllez Mosqueda, Juan Carlos (2012b), Estado de la formación en sistemas embebidos.
¿Se pueden crear sin respaldo educativo y sin vinculación empresarial?, México:
Cuadernos de Trabajo Infotec.
153
HACIA DÓNDE VA LA INVESTIGACIÓN EN COMPUTACIÓN EN MÉXICO
Carlos A. Coello Coello*
INTRODUCCIÓN
La ciencia de la computación ha tenido un desarrollo un tanto tardío en nuestro
país, aunque ha mejorado considerablemente en los últimos 10 años. Para ilustrar
esto, basta decir que en 1994 se estimaba que había unos 50 doctores en
computación en todo el país (Estivill-Castro, 1995); para 1999, el Consejo Nacional
de Ciencia y Tecnología (Conacyt) indicaba que había unos 150, lo cual era
todavía un número muy bajo. Para poner esta cifra en el contexto debido, baste
decir que esta cantidad era inferior al número de doctores en computación que en
ese entonces tenía Singapur, cuyo territorio ocupa apenas 697 km2 (más o menos
una sexta parte de la superficie que ocupa el estado de Tlaxcala). Actualmente,
estimo que hay unos 600 doctores en computación laborando en México, uso
como referencia el número de computólogos con que cuenta ahora el Sistema
Nacional de Investigadores (SNI) en el área VII (unos 400) y el padrón elaborado
por la Red Mexicana de Investigación y Desarrollo en Computación (Remidec).1
Otro problema que ha tenido la ciencia de la computación en nuestro país
es que, como disciplina, ha sido confundida y entremezclada con áreas
puramente tecnológicas. En México se ofrecen diversas licenciaturas con perfil
altamente tecnológico que tienen muy poco (o incluso ningún) contenido
relacionado con la ciencia de la computación. Tener conocimientos en esta área
va más allá de saber programar en C/C++, o saber cómo colocar el disco duro de
*
1 http://turing.iimas.unam.mx/~remidec/investigadores.pdf (consultada el 18 de abril de
2014).
154
una computadora de escritorio; implica tener conocimientos sobre los fundamentos
teóricos de la ciencia de la computación (por ejemplo, sobre teoría de autómatas,
análisis de algoritmos, computabilidad y álgebra relacional, entre muchos otros
temas). Sin embargo, el ineludible nexo tecnológico que ha tenido históricamente
la ciencia de la computación ha dificultado ubicarla en las taxonomías científicas
de nuestro país y hace difícil que incluso otros científicos entiendan nuestra labor y
el tipo de investigación que realizamos. En este artículo se presenta una visión
muy personal del estado actual de la investigación en computación en México,
incluyendo algunas reflexiones sobre el futuro de la misma.
VISIBILIDAD DE LA COMUNIDAD DE COMPUTACIÓN EN EL ÁMBITO NACIONAL
La comunidad de computólogos ha tenido poca visibilidad en nuestro país, lo cual
evidentemente incide en las (todavía escasas) políticas científicas del mismo.
Resulta particularmente preocupante la falta de computólogos en órganos muy
importantes para la toma de decisiones en el ámbito científico, como el Conacyt y
la Secretaría de Educación Pública.
A pesar de esto, es importante reconocer que la comunidad de
computación, en general, ha resultado beneficiada con un número importante de
becas que han permitido (y continúan haciéndolo) que un gran número de
estudiantes cursen estudios de posgrado en ciencia de la computación en México
y el extranjero.
En cuanto a apoyos a la investigación, cabe mencionar que, aunque el
primer proyecto de investigación básica en ciencia de la computación se aprobó
hace apenas 20 años (en 1994), hoy en día un número importante de
computólogos han obtenido fondos a través proyectos de investigación básica y de
otras convocatorias del Conacyt (por ejemplo, proyectos bilaterales y de fondos
mixtos y sectoriales). También ha habido un número importante de computólogos
en los comités de evaluación de proyectos de investigación del Conacyt desde
finales de los años noventa. De tal forma, no creo que sea adecuado considerar a
la computación como una disciplina particularmente desfavorecida en el renglón
155
de financiamiento a la investigación, si bien conseguir un proyecto de investigación
básica del Conacyt se ha tornado una tarea muy difícil en los últimos 10 años.
Lo que sí representa un problema importante en el ámbito nacional es la
escasez de fondos para la investigación básica, así como de plazas para
investigadores recién doctorados, si bien dicho problema, al igual que el escaso
financiamiento a la investigación básica en nuestro país, no es exclusivo de esta
disciplina.
CALIDAD DE LA INVESTIGACIÓN EN COMPUTACIÓN REALIZADA EN MÉXICO
A pesar de la juventud de la ciencia de la computación en México y el mundo, así
como de sus evidentes limitantes, considero que en nuestro país se hace
investigación y formación de recursos humanos de muy buen nivel. Esto se puede
evidenciar con diversos indicadores. Por ejemplo, existen varios programas de
posgrado (maestría y doctorado) en computación en nuestro país que están
considerados como “consolidados” y/o como “competentes a nivel internacional”
en el Padrón Nacional de Programas de Calidad del Conacyt. Algunas de las
instituciones que imparten estos programas de posgrado de calidad son: la
Universidad Nacional Autónoma de México (UNAM), el Centro de Investigación y
Estudios Avanzados del Instituto Politécnico Nacional (Cinvestav-IPN), el Centro de
Investigación en Matemáticas (Cimat), el Centro de Investigación en Computación
del Instituto Politécnico Nacional (CIC-IPN NAM), el Instituto Nacional de Astrofísica,
Óptica y Electrónica (INAOE) y el Centro de Investigación Científica y de Educación
Superior de Ensenada (CICESE), entre otras.
También existe ya una cantidad importante de computólogos que cuentan
con nombramiento de investigadores niveles II y III (40 y 13, respectivamente) en el
Sistema Nacional de Investigadores (SNI), lo cual refleja una madurez creciente de
la comunidad de computólogos en nuestro país. Adicionalmente, este indicador de
membresía en el SNI está correlacionado con la generación de un número
importante de publicaciones indizadas (requisito para obtener y mantener dichos
nombramientos) y con una formación importante de recursos humanos de
156
posgrado (maestría y doctorado). Sin embargo, este rubro es en el que hace falta
una mayor consolidación, pues eso permitirá tener mayor participación de los
computólogos en las comisiones dictaminadoras del SNI, así como en otros
comités del Conacyt.
ALGUNAS REFLEXIONES
A 56 años de la llegada de la primera computadora a México,2 creo que es
momento de detenerse por un instante para reflexionar en torno a esta disciplina y
a la dirección hacia la cual queremos llevarla en los años venideros. A ese
respecto, proporciono a continuación algunas reflexiones, muy personales, sobre
temas que son de mi particular interés:
• Usos y costumbres de la comunidad de computación. Muchos colegas se
han quejado de los sistemas de evaluación en México (particularmente, del
Sistema Nacional de Investigadores), que tienden a desfavorecer las
publicaciones en extenso en congresos internacionales, sin importar el
prestigio de éstos. De hecho, los congresos de élite en varias áreas de
computación tienen porcentajes de aceptación mucho más bajos que
cualquier revista de alto impacto en computación y áreas afines.
Adicionalmente, existen áreas dentro de la ciencia de la computación en las
que resulta en especial difícil publicar en revistas (por ejemplo, la
criptografía) y en las que excluir las publicaciones en congresos de calidad
las desfavorece particularmente, si bien eso no ha impedido a varios
criptógrafos poder pertenecer al SNI. Comparto mi preocupación por este
problema, aunque hasta cierto punto entiendo también (si bien no lo
justifico) que las publicaciones en congresos generen desconfianza entre
2 http://www.cs.cinvestav.mx/SemanaComputoCINVESTAV/Computo.html (consultada el 18 de
abril de 2014).
157
colegas pertenecientes a otras disciplinas, en las cuales los congresos sólo
se publican resúmenes de sus trabajos o publican trabajos en extenso que
no se someten a un arbitraje estricto. En una actitud simplista, dichos
colegas llegan a pensar que todas las disciplinas siguen procedimientos
similares para sus publicaciones en congresos. Evidentemente, tales
colegas no se percatan de que la ciencia de la computación es una
disciplina que, por su naturaleza, requiere de mecanismos dinámicos de
publicación y, de hecho, por esta misma razón, muchos artículos publicados
en congresos son citados con más frecuencia que los publicados en
revistas indizadas. Claro que tal vez nos ha faltado adicionar algún
indicador de calidad a las publicaciones en congresos (como el porcentaje
de aceptación de los artículos) para ser más convincentes, y también
tendríamos que evitar caer en los abusos de esta figura (como ocurrió con
los Lecture Notes in Computer Science en el tiempo en que estuvieron
indizados en el ISI Web of Science). No obstante, en lo personal me
preocupa más el fenómeno que se ha producido a raíz de estas políticas de
evaluación. Hoy en día, existen, por ejemplo, varios investigadores que han
optado por publicar artículos de manera masiva en revistas de calidad
cuestionable, en aras de poder ascender rápidamente en el SNI o, incluso,
para mantener su nombramiento. Esto es, sin duda, un efecto colateral
indeseable del SNI, el cual resulta difícil de controlar, a menos que se
establezcan políticas claras de calidad, las cuales no son fáciles de definir e
implementar. Si bien el SNI considera ciertos mecanismos de control que le
resultarán difíciles de satisfacer a quien publica sistemáticamente trabajo de
baja calidad (como el conteo de citas o la evidencia de reconocimiento
internacional), conviene cuestionarnos como comunidad qué tipo de
indicadores son los que valdría la pena medir en la productividad científica
de un computólogo, de manera que se privilegie la calidad. Hoy en día,
podría decirse que el SNI ha promovido que los computólogos publiquen
más que antes, pero eso no significa que publiquen trabajos de mejor
calidad. Aquí mi reflexión es: ¿estamos listos como comunidad científica (y
158
aquí no me refiero sólo a la ciencia de la computación, sino a la comunidad
científica en general) para movernos de los sistemas de evaluación que
miden la cantidad a otros que opten mejor por medir la calidad? ¿No sería
mejor, por ejemplo, que el SNI pidiera menos artículos en cada periodo de
evaluación, pero de mejor calidad (como en revistas con mayor factor de
impacto)?
• ¿Hacia dónde vamos como científicos? Ésta puede parecer una pregunta
retórica, pero no es así. En los años que llevo trabajando como científico en
México he podido constatar que existen muchos computólogos que no
parecen tener muy claro lo que significa ser un “investigador consolidado”,
si bien aspiran claramente a convertirse en uno. Por ejemplo, me ha tocado
evaluar expedientes en el SNI de investigadores que no saben elaborar
correctamente un reporte de citas (hay quienes simplemente copian el
resumen de su conteo de citas del ISI Web of Science, en vez de incluir las
fichas bibliográficas completas de las citas a cada uno de sus artículos).
Otros, incluyen sólo autocitas en sus reportes. Algunos tampoco parecen
tener clara su propia línea de investigación, pues proporcionan
descripciones ambiguas o vagas que engloban un gran número de
subdisciplinas, con lo cual resulta difícil argumentar liderazgo en alguna de
ellas. Hay también quienes no tienen claro qué tipo de evidencia debe
proporcionarse para documentar reconocimiento internacional (por ejemplo,
pertenencia a comités editoriales de revistas internacionales indizadas, el
haber sido invitado a fungir como conferencista plenario o magistral a
congresos internacionales de prestigio, el haber recibido premios
internacionales, etcétera). Imaginemos por un momento que alguien nos
pregunta, ¿cuál ha sido nuestra contribución científica más importante?
¿Podemos dar una respuesta clara y contundente a esta pregunta? Aquí mi
reflexión es: ¿sabemos a qué aspiramos como científicos o tenemos
siquiera metas claras al respecto? ¿Nos interesa ser realmente líderes
mundiales en nuestra área? ¿Es realista esta meta?
159
• Hacia una comunidad mejor organizada. Creo que algo que nos ha faltado a
los computólogos mexicanos es organizarnos mejor como comunidad. Si
bien existen dos sociedades que son bien conocidas por nuestra
comunidad (la Sociedad Mexicana de Ciencias de la Computación y la
Sociedad Mexicana de Inteligencia Artificial), éstas han servido
fundamentalmente para dotar de una mejor estructura a la organización de
dos congresos (el Encuentro Nacional de Computación y la Mexican
International Conference on Artificial Intelligence, respectivamente), pero no
han cumplido la función de actuar como interlocutoras ante instancias como
el Conacyt y el gobierno federal durante el proceso de toma de decisiones
relacionadas con políticas científicas. En ese sentido, los esfuerzos que
realiza actualmente el doctor Luis Alberto Pineda Cortés para crear la
Academia Mexicana de Computación son sumamente importantes, y
espero que puedan dar pie a un organismo que nos dé una mayor
visibilidad como comunidad científica y una mejor interlocución con los
órganos federales responsables de las políticas científicas de este país.
Aquí mi reflexión es: ¿hacia dónde queremos que se dirijan las políticas
científicas de nuestro país, particularmente en lo concerniente a la
investigación en ciencia de la computación?
• El trabajo multidisciplinario. En la actualidad vivimos en un mundo que
demanda, cada vez más, la interacción de varias disciplinas científicas para
poder lograr avances importantes, y la ciencia de la computación no es
ajena a esta tendencia. Disciplinas como la bioinformática son ejemplos
palpables de lo que la ciencia de la computación puede lograr para apoyar
el desarrollo científico. Y éste no es un caso aislado, pues actualmente
existen, por ejemplo, innumerables aplicaciones del cómputo científico y el
paralelismo en disciplinas como la física y la química. Claro que tampoco se
trata de que sirvamos de programadores a colegas de otras disciplinas.
Evidentemente, lo que buscamos es abordar problemas de otras
disciplinas, los cuales planteen retos relevantes para los computólogos
(como problemas en los que un mejor diseño algorítmico o el uso de
160
técnicas sofisticadas de paralelización traerían grandes beneficios). Aquí mi
reflexión es: ¿estamos dispuestos los computólogos a realizar trabajo
multidisciplinario de frontera con colegas que se especialicen en otras
áreas? ¿Será este tipo de trabajo interdisciplinario el futuro de la
investigación científica en nuestro país y el mundo?
• Apoyos a la investigación. Claramente, todas las comunidades científicas
piden todo el tiempo más apoyo financiero para sus disciplinas respectivas,
a través de proyectos de investigación, plazas para investigadores jóvenes
e infraestructura. Los computólogos pedimos un poco más, pues para
empezar queremos que nuestra disciplina reciba el reconocimiento debido
del Conacyt, del SIN, así como de muchas otras entidades, como la
Academia Mexicana de Ciencias. Resulta claro que hace falta crear más
centros de investigación básica y aplicada enfocados a la ciencia de la
computación (la misma UNAM, que cuenta con institutos para disciplinas
como física, química y matemáticas, no cuenta a la fecha con uno
exclusivamente para la ciencia de la computación, siendo lo más cercano el
Instituto de Investigaciones en Matemáticas Aplicadas y Sistemas (IIMAS), el
cual cuenta con un departamento de computación). Es evidente la
necesidad de crear más centros de investigación orientados exclusivamente
a la investigación en ciencia de la computación. Aquí mi reflexión es:
¿estamos preparados para crear centros de investigación en áreas
específicas de la ciencia de la computación en las cuales podamos ser
líderes en el ámbito mundial? ¿Podemos siquiera aspirar a dicho liderazgo
en el corto o mediano plazos?
A MANERA DE CONCLUSIONES
Considero que actualmente la investigación en computación en México
experimenta los “dolores del crecimiento”. Creo que nos movemos
paulatinamente de una disciplina que fue incipiente durante varios años,
161
hacia un nivel cada vez más claro de consolidación científica, que varía
según el área que analicemos. Nuestra disciplina es claramente diferente
de otras, pero eso no quiere decir que no podamos contar con una
comunidad científica madura y con liderazgo en el ámbito internacional, y
ése es ciertamente el futuro que me gustaría que tuviese la computación en
nuestro país.
Hoy también tenemos un país muy distinto del que nos tocó ver a los
que regresamos del extranjero hace 15 años o más. Actualmente el nivel de
competencia para ocupar una plaza como investigador en un departamento
de computación de prestigio es mucho más difícil que hace 15 o más años.
Hoy no basta con tener un doctorado en computación, sino que se buscan
investigadores jóvenes que cuenten ya con publicaciones en revistas
internacionales indizadas y que muestren indicios de que podrán realizar
investigación independiente de calidad.
No obstante, soy optimista y me resulta claro que nuestra comunidad
se encuentra en un evidente proceso de consolidación y que seguiremos
avanzando en esta dirección. Sin embargo, no por eso debemos confiarnos,
pues falta todavía mucho por lograr, particularmente en torno a obtener
mayor visibilidad dentro de la comunidad científica en nuestro país, así
como en lo concerniente a adquirir un mayor liderazgo internacional. Si no
pensamos en grande, no podemos aspirar a ser grandes científicos, así que
a este respecto es todavía mucho lo que nos falta por lograr, pero creo que,
como comunidad, no lo hemos hecho tan mal hasta ahora.
BIBLIOGRAFÍA
Estivill-Castro, Vladimir (1995). Computer Science Research in Mexico. Computer, 28(8),
56-62.
162
SEMBLANZA DE LOS AUTORES
Sergio Carrera
Es licenciado en economía por la UNAM y maestro en administración por el Instituto
Tecnológico y de Estudios Superiores de Monterrey (ITESM). Cuenta con estudios de
posgrado en dirección de entidades públicas y finanzas públicas por el Instituto Nacional de
Administración Pública (INAP), así como en diseño y administración de sistemas de
franquicias por el (ITESM). Cuenta con más de 30 años de experiencia en cargos
administrativos, gerenciales y directivos para diferentes dependencias del gobierno federal,
como las secretarías de Economía, Hacienda y Crédito Público y Programación y
Presupuesto. Ha recibido distinciones como el Premio Nacional de Logística 2009; en
diferentes épocas ha formado parte de comités y consejos directivos para organismos como
el Conacyt, el Sistema Nacional e-México, Tiendas ISSSTE, Fonacot y Diconsa. El maestro
Carrera ha sido responsable del diseño e instrumentación de políticas y programas
exitosos, con alcance nacional e internacional, en el sector de las TIC, como la Estrategia de
Economía Digital del gobierno federal y Prosoft, méritos por los que fue nombrado
vicepresidente de asuntos gubernamentales de la Asociación Mexicana de Internet (AMIPCI)
durante 2008. Desde el 2010 es director ejecutivo de Infotec, centro público de
investigación, innovación y desarrollo tecnológico, donde impulsa la vinculación de los
sectores público, privado y de investigación para apoyar el desarrollo y uso de las TIC en
México.
Eduardo Alberto Castañón Cruz
Nació en Pánuco, Veracruz, el 27 de julio de 1949. En su ciudad natal hizo sus estudios
primarios y secundarios. Posteriormente ingresó al Instituto Politécnico Nacional donde en
1971 obtuvo el título de ingeniero en comunicaciones y electrónica en la Escuela Superior
de Ingeniería Mecánica y Eléctrica (ESIME). En 1972-1973 estuvo becado por la Secretaría
de Comunicaciones y Transportes (SCT) y el gobierno francés. Hizo una estancia de
especialización en transmisión digital en el Centre National d’études des Telecom-
munications, en París y Lannion, Francia. Siendo ya ingeniero, fue becado por la SCT, el
163
Conacyt y el gobierno francés, y de 1974 a 1977 hizo los estudios correspondientes para
obtener el diploma de ingeniero civil en telecomunicaciones en la École Nationale
Superieure des Telecommunications (ENST) de París, siendo el primer mexicano en
obtener ese diploma. Y enseguida, de 1977 a 1979 obtuvo el título de doctor en ingeniería
de telecomunicaciones en la ENST, la cual es una de las grandes escuelas francesas de
ingenieros conocidas como de aplicación de la École Polytechnique. Desde que era
estudiante y hasta 1981 fue funcionario en la Dirección General de Telecomunicaciones
de la SCT, donde coordinó el proyecto para implantar la primera red pública de transmisión
de datos Telepac. Más tarde, de 1981 a 1987 ocupó la gerencia de telecomunicaciones
en Nacional Financiera, SNC. Posteriormente, de 1987 a 1991 fue subdirector de redes de
datos en Sistemas Ericsson, S. A.; y director general de Pentamex, S. A. de C. V. De
1992 hasta la fecha es empresario independiente y es presidente y director general de
Inred, S. A. de C. V; y consultor en telecomunicaciones de varias empresas mexicanas y
extranjeras. Entre los proyectos más relevantes que ha dirigido se encuentran la Red
Pública de Transmisión de Datos Telepac; la red nacional de telecomunicaciones de
Nafinsa y del Banco Internacional; la primera red nacional electoral del Programa de
Resultados Electorales Preliminares (PREP) contratada por el Instituto Federal Electoral
(IFE) en 1994 para dar los resultados la misma noche de la elección; la red nacional de
microondas de Ferrocarriles Nacionales de México; la red de transmisión de datos X.25
para el Grupo Cifra; el sistema de correo electrónico de imágenes para la Secretaría de la
Defensa Nacional (Sedena); así como la implantación de diversas redes satelitales, de
fibra óptica y de microondas para la SCT, Pemex, la CFE, Telmex, Iusacell y Telcel, entre
otros. Durante varios años ha sido profesor de distintas materias y director de tesis en la
Escuela Nacional de Telecomunicaciones, en la ESIME, en el Centro de Investigación y
Estudios Avanzados del IPN y en la Escuela Militar de Ingenieros de la Sedena. Ha escrito
y presentado más de 40 artículos, ponencias y conferencias en materia de
telecomunicaciones tanto en México como en el extranjero. En el aspecto gremial,
pertenece a la Asociación Mexicana de Ingenieros en Comunicaciones y Electrónica, a la
Sociedad de ex Alumnos de la ESIME, a la Sociedad de ex alumnos de la ENST francesa, al
Institute of Electrical and Electronic Engineers (IEEE), a la Société Française d’Electricians
et Radio-electricians, al Colegio de Ingenieros Mecánicos y Electricistas, en donde de
1988 a 1990 fue presidente del XXII Consejo Directivo Nacional y desde 1981 es
académico titular en la Academia de Ingeniería. Es perito en telecomunicaciones,
investigador titular (en receso) del Sistema Nacional de Investigadores. En 1980 obtuvo el
164
Premio Nacional de Telecomunicaciones otorgado por la empresa Indetel (hoy Alcatel-
Lucent). Actualmente es presidente de la Comisión de Especialidad de Ingeniería en
Comunicaciones y Electrónica de la Academia de Ingeniería; miembro del grupo Amigos
de los Viernes del Club de Industriales y del Consejo Técnico de la Sociedad Mexicana
de Ingenieros del Partido Revolucionario Institucional (PRI), en donde participó en la
elaboración de la plataforma de gobierno del partido, en el área de telecomunicaciones.
Édgar Chávez
Es investigador titular en el CICESE. Obtuvo su doctorado en 1999 en ciencias de la
computación en el CIMAT. Ha sido presidente de la Sociedad Mexicana de Ciencias de la
Computación; actualmente es presidente del Similarity Search and Applications, una
iniciativa académica internacional sin afanes de lucro en el área de ciencia de datos. En
2009 obtuvo el premio Thompson Reuters por ser el autor del artículo científico mas citado
en ciencias de la computación en México. Tiene mas de 70 contribuciones técnicas
internacionales, ha graduado a seis doctores en computación, 14 maestros en ciencias y 10
licenciados en México, Argentina y Chile. Ha sido presidente del comité de programa de
diversos congresos internacionales en las áreas de sus intereses académicos, los cuales
incluyen ciencia de datos, reconocimiento de patrones escalables, algoritmos y estructuras
de datos, y matemáticas discretas.
Carlos Artemio Coello Coello
Obtuvo el doctorado en ciencias de la computación por la Universidad Tulane (Estados
Unidos), en 1996. Actualmente es investigador titular en el Departamento de Computación
del Cinvestav-IPN. Ha sido pionero en un área que hoy se conoce como “optimización
evolutiva multiobjetivo”, en la que ha trabajado principalmente en torno al diseño de
algoritmos. A la fecha cuenta con más de 350 publicaciones, las cuales reportan más de 21
000 citas en Google Scholar. Ha dirigido 58 tesis (entre ellas, 15 de doctorado), varias de
las cuales han recibido premios. Es editor asociado y miembro del comité editorial de varias
revistas internacionales, incluidas las dos más importantes de su área. Es miembro del
Sistema Nacional de Investigadores (nivel III) y del Consejo Consultivo de Ciencias de la
Presidencia de la República. Ha obtenido varios reconocimientos, entre los que destacan el
165
Premio Nacional de Investigación 2007 en ciencias exactas de la Academia Mexicana de
Ciencias, el Premio Nacional de Ciencias y Artes 2012 en el área de Ciencias Físico-
Matemáticas y Naturales, y el 2013 IEEE Kiyo Tomiyasu Award
Fabián García Nocetti
Es investigador titular en la UNAM; es investigador nacional, nivel II, en el SNI, adcrito al
Instituto de Investigaciones en Matemáticas Aplicadas y Sistemas de la UNAM, donde fue
jefe del Departamento de Ingeniería de Sistemas Computacionales y Automatización de
1994 a 2000; y director de este Instituto de 2004 a 2012. Es egresado de la licenciatura en
ingeniería mecánica y eléctrica-electrónica de la Facultad de Ingeniería de la UNAM.
Obtuvo la maestría y el doctorado en ingeniería de sistemas de cómputo paralelo en la
Universidad de Gales, Gran Bretaña, en 1988 y 1991, respectivamente. Es profesor del
posgrado en ciencia e ingeniería de la computación y del posgrado en ingeniería de la
UNAM. Sus líneas de investigación incluyen arquitecturas y algoritmos para cómputo de
alto desempeño, procesamiento de señales, imágenes y control en tiempo real. Ha dirigido
23 trabajos de tesis de licenciatura, maestría y doctorado. Tiene más de 30 publicaciones
en revistas y más de 100 en memorias de congresos arbitradas de circulación
internacional. Ha publicado dos libros y un capítulo de libro sobre la especialidad de
cómputo de alto desempeño en control digital.
Adolfo Guzmán Arenas
Es profesor-investigador de computación en el Centro de Investigación en Computación
(CIC) del Instituto Politécnico Nacional (IPN), México, del cual fue director fundador. Es
ingeniero en comunicaciones y electrónica por la ESIME-IPN, y doctor en computación por
el MIT, donde también fue profesor asistente en en el Departamento de Ingeniería
Eléctrica. Es doctor honoris causa del INAOE. Es Fellow of the ACM, Fellow del IEEE,
miembro del Consejo Educacional del MIT, de la Academia de Ingeniería, Academia
Nacional de Ciencias (México) y del Consejo Consultivo de Ciencias de la Presidencia de
la República. Del presidente de México recibió el Premio Banamex, Rama Agropecuaria
(1977, mención honorífica), el Premio Nacional de Ciencia y Tecnología (1996) y la
Presea Lázaro Cárdenas (1997). Trabaja en el CIC en procesamiento semántico y manejo
166
de texto, a menudo combinando técnicas de inteligencia artificial con sistemas distribuidos
y minería de datos. Más en http://alum.mit.edu/www/aguzman.
David Muñoz Rodríguez
El doctor David Muñoz Rodríguez es actualmente director del Centro de Electrónica y
Comunicaciones del ITESM, en Monterrey. Obtuvo su doctorado por la Universidad de
Essex (Inglaterra) en 1979. Ha sido investigador en el Cinvestav del IPN, en los
Laboratorios Bell Northern Research, Nortel Networks y en la Universidad de Texas, en
Dallas. Ha recibido el Premio Nacional de Tecnología Ericcson y la Cátedra Nortel de
Telecomunicaciones. Por sus contribuciones, la compañía Bell Northern Research y
Nortel Networks le han nombrado Distinguished Professor in Telecommunications en 1993
y 1999, respectivamente. Ha dirigido más de 60 tesis de maestría y doctorado. Ha
publicado más de 80 trabajos en revistas internacionales arbitradas y dos libros. Posee
patentes en Estados Unidos y ha participado en diversos trabajos y proyectos de carácter
práctico y tecnológico para compañías y entidades como Motorola, Telmex, Pemex, Arthur
D. Little, Bell Northern Research, Nortel Networks, la Secretaría de Comunicaciones y
Transportes y la Cofetel. Es Senior Member del IEEE, y es Investigador Nacional nivel III.
Larry Smarr
Es el director fundador del California Institute for Telecommunications and Information
Technology (Calit2), una asociación entre la University of California, San Diego, y la
University of California, Irvine; tiene la cátedra Harry E. Gruber en el Departamento de
Computer Science and Engineering (CSE) de la Escuela Jabos de Ingeniería de la UCSD. Es
miembro de la Academia Nacional de Ingeniería en Estados Unidos y Fellow de la American
Physical Society y de la American Academy of Arts and Sciences. En 2006 recibió el premio
IEEE Computer Society Tsutomu Kanai por sus logros profesionales en el área de sistemas
distribuidos. Forma parte del Consejo Asesor de la NASA, del Consejo de Políticas EsNet del
DOE, y preside el Comité Asesor en Ciberinfraestructura de la NSF. Durante ocho años ha
sido miembro del Comité Asesor del Director del NIH. Ha sido investigador principal en el
proyecto OptIPuter de la NSF durante los últimos siete años y del repositorio global Camera
167
de metagenómica microbiológica, de la Fundación Moore. Sus intereses personales
incluyen cultivar orquídeas, bucear en arrecifes de coral y la cuantificación del estado de su
cuerpo.
Horacio Soto
En 1984 obtuvo el título de ingeniero biomédico por la Universidad Autónoma Metropolitana;
en 1987 obtuvo una maestría en ciencias en electrónica y telecomunicaciones en el CICESE.
Posteriormente, la Escuela Nacional Superior de Telecomunicaciones, de París, le otorgó la
maestría y el doctorado en ciencias con especialidad en optoelectrónca en 1992 y 1996,
respectivamente. Ha trabajado como ingeniero de diseño en empresas de alta tecnología,
como Sintec Electrónica y Augen Wecken; y como investigador en instituciones como el
Centro de Aplicaciones Tecnológicas y Desarrollo Tecnológico de la Secretaría de Salud, en
el Instituto de Investigaciones Eléctricas, la Escuela Nacional Superior de
Telecomunicaciones de París, y en el CICESE, donde fue director de la División de Física
Aplicada de 2002 a 2010. Actualmente es el responsable del grupo de funciones
optoelectrónicas del CICESE y del Laboratorio de Redes Fotónicas. Es investigador nacional,
nivel II, del SNI. Ha sido distinguido por Thomson Reuters como el autor de la contribución
más citada en ingeniería escrita por un mexicano. Sus intereses primordiales son: diseño e
implementación de funciones completamente ópticas para sistemas de comunicaciones
fotónicos de tercera generación, optoelectrónica, comunicaciones ópticas, óptica no lineal,
guías de onda activas y estado sólido.
Luis Enrique Sucar Succar
Es doctor en computación por el Imperial College, de Londres, Inglaterra; maestro en
ciencias en ingeniería eléctrica por la Stanford University, California, e ingeniero en
electrónica y comunicaciones por el ITESM, Monterrey. Tiene experiencia como
investigador y profesor en el Instituto de Investigaciones Eléctricas, del Tecnológico de
Monterrey, y en el INAOE. Ha realizado estancias de investigación en el Imperial College,
en la Universidad de British Columbia, Canadá, y en el INRIA, Francia. El doctor Sucar es
miembro del Sistema Nacional de Investigadores, nivel III, y de la Academia Mexicana de
Ciencias. Ha sido presidente de la Sociedad Mexicana de Inteligencia Artificial, miembro
168
del Comité Asesor del IJCAI, es Senior Member de la IEEE y es editor asociado en la
revista Computación y Sistemas y en la Revista Iberoamericana de Inteligencia Artificial.
Tiene más de 150 contribuciones en revistas y conferencias, y ha dirigido 16 tesis
doctorales. Su investigación se centra en inteligencia artificial (principalmente en el
desarrollo de modelos gráficos probabilistas y su aplicación en visión computacional),
robótica, sistemas tutores inteligentes y en biomedicina. Ha sido pionero en el desarrollo
de las redes bayesianas en México y el mundo, donde sus aportaciones han destacado
en el modelado de visión de alto nivel basado con redes bayesianas, y en el desarrollo de
nuevos modelos y técnicas para representaciones temporales, validación de información,
análisis de confiabilidad, reconocimiento de ademanes y modelado del estudiante en
sistemas tutores. Recientemente ha desarrollado un sistema de apoyo a la rehabilitación
para personas que han sufrido embolias cerebrales.
169
LÍNEAS DE ACCIÓN PARA EL FUTURO DE
las Telecomunicaciones y la Computación
170
PROPUESTA SOBRE TELECOMUNICACIONES Y COMPUTACIÓN
Adolfo Guzmán Arenas*
Jesús Favela Vara**
Creación de varios centros de investigación
En colaboración con instituciones educativas, gobiernos estatales, empresas
privadas y secretarías de gobierno, se deben establecer varios centros de
investigación dedicados a aplicaciones de las comunicaciones y la computación.
Proponemos apoyo federal para la creación de centros de investigación orientados
a áreas aplicadas del saber humano. Los matemáticos tienen el CIMAT, los
astrofísicos el INAOE, ¿y los computólogos?, ¿y los de comunicaciones eléctricas?
Costo: 100 millones de pesos (inversión y sueldos por un año) para el de
computación y 125 millones para el de comunicaciones (el equipo es más caro:
laboratorio de RF, cámara anecoica…), sin contar el costo del edificio.
Justificación: las áreas de sistemas inteligentes y telecomunicaciones son
áreas estratégicas cuyo planteamiento no corresponde a una moda circunstancial,
sino que están bien identificadas como disciplinas vinculadas fuertemente con el
desarrollo económico y educativo del país.
Instituto de investigación en sistemas inteligentes
*[email protected].**[email protected].
171
Misión: realizar investigación, desarrollo, innovación y formación de recursos
humanos para avanzar el estado del arte y la práctica en sistemas inteligentes y
áreas afines, orientados a resolver los grandes problemas nacionales.
Justificación: los conocimientos y técnicas de inteligencia artificial son clave
para desarrollar los sistemas complejos que permitan resolver los grandes retos
nacionales y mundiales, como: seguridad, salud, atención a la tercera edad,
educación, energía e información. Aunque existen algunos institutos y
universidades en México donde se hace investigación en sistemas inteligentes,
éstos son grupos pequeños; por lo que se requiere un centro que conjunte la masa
crítica para tener un verdadero efecto en el desarrollo y aplicación de estas
tecnologías, claves para el desarrollo futuro del país.
Estructura: se plantea organizar el centro alrededor de grupos
interdisciplinarios orientados a resolver los grandes retos; es decir, con base en
proyectos, en lugar de la estructura tradicional de departamentos o laboratorios.
Normalmente, los grandes retos requieren de especialistas en diferentes
disciplinas, lo que se favorece con esta estructura. Por otro lado, esto permite una
estructura más dinámica, ya que al ir avanzando los desarrollos y cambiando los
retos, se pueden ir modificando los proyectos del instituto (este modelo está
inspirado en el del INRIA en Francia y Media Lab del MIT).
Proyectos: inicialmente, sistemas biomédicos inteligentes, sistemas
inteligentes de vigilancia, sistemas educativos inteligentes, sistemas de búsqueda
y análisis de información, robots de servicio, y cerebro artificial.
Número de investigadores: entre 20 y 30.
Áreas a desarrollar: procesamiento semántico (análisis de texto, análisis de
opiniones, análisis de tendencias, predicción del comportamiento de la multitud —
en Twitter, por ejemplo— sobre cierto tema, a partir de la situación actual,
dinámica de los acontecimientos). Ontologías y representación del conocimiento,
para resolver problemas específicos que ocurren, o potencialmente suceden, en el
sector productivo; adquisición de conocimiento para tomar o recomendar acciones
Minería de datos para el análisis de grandes cantidades de datos, para buscar
172
anomalías, desviaciones, tendencias, situaciones interesantes; combina bien con
inteligencia de negocios. Robótica aplicada en la que no sólo se hagan estudios
teóricos, sino también aplicaciones, por ejemplo, en la industria petrolera (revisión
de los ductos bajo plataformas submarinas, robots que se insertan en el oleoducto
para “ver su estado” o fugas). Gobierno digital (e-gobierno), firma electrónica,
remplazo de papel por documentos digitales, trámites que fluyen. Uso de salidas y
entradas georeferenciadas, despliegue en mapas, captura basada en dispositivos
móviles que tienen GPS (posicionamiento satelital). Uso de dispositivos móviles
(tabletas, teléfonos, teléfonos inteligentes) para capturar información y
proporcionar resultados; la coordinación de varios “agentes” (personas más
software) vía estos dispositivos, para lograr acciones concertadas; toma de
decisiones por grupos.
Centro de investigación en telecomunicaciones y sistemas distribuidos
Misión: crear un centro de investigación en telecomunicaciones con grupos
interdisciplinarios orientados a desarrollar y aplicar las técnicas que ayuden (en
combinación con otras disciplinas) a resolver los grandes problemas nacionales.
Entre otras áreas, enfatizar redes inalámbricas y cómputo móvil.
Justificación: el país no tiene un centro público especializado en esta vital
área. Existía el Instituto Mexicano de Comunicaciones. La convergencia digital que
en años recientes ha integrado la telefonía, la televisión y el cómputo ha
ocasionado que desde el año 2010 el tráfico de datos sea mayor que el tráfico de
voz. Esto ha dado pie a una creciente demanda de aplicaciones distribuidas
basadas en aplicaciones ligeras en dispositivos heterogéneos (celulares, tabletas,
etcétera), apoyadas por servicios almacenados en la nube que ofrece alto
desempeño y elasticidad. Las telecomunicaciones y la computación han entrado
en una relación simbiótica que conviene capitalizar.
Estructura: entre 20 y 30 investigadores más un líder de prestigio, buen
administrador y que congenie con el resto de colegas y competidores.
173
Proyectos iniciales: plataforma nacional de telemedicina (expediente
electrónico nacional; seguridad informática y seguridad nacional; fomento al
desarrollo de aplicaciones que usen datos públicos generados por distintas
instancias de gobierno que ofrezcan soluciones útiles a los ciudadanos.
Áreas a desarrollar: redes inalámbricas y cómputo móvil (comunicaciones
inalámbricas, redes vehiculares, redes ad hoc y oportunistas, seguridad en redes,
cómputo móvil, computación ubicua, redes de sensores, cómputo consciente del
contexto, interconexión de utensilios cotidianos, administración de redes;
optimización en redes, green computing, computación en la nube, escalabilidad de
sistemas en red). Teoría de la información y procesos estocásticos.
Radiocomunicaciones de nueva generación. Propagación y antenas.
Comunicaciones satelitales. Comunicaciones ópticas y optoelectrónica.
Electrónica avanzada, microelectrónica. Derecho y economía de las
telecomunicaciones. Regulación y normatividad internacional. Tecnologías de
información y comunicación de datos. Internet de alta velocidad y su efecto en las
redes sociales. Telefonía de nueva generación y acústica. Telemedicina,
telebanking y e-gobierno.
Sugerencias de políticas generales
El 5% del monto anual de los contratos de los grandes compradores del gobierno
(Pemex, Secretaría de Educación Pública, etcétera) deberá destinarse a adquirir
bienes y servicios de los centros de investigación e instituciones de enseñanza
superior (CIIES), así como de las PYME que estén aliadas a tales centros e
instituciones. Justificación: así se apoya directamente a estos organismos que
hacen innovación. En Estados Unidos existe una política similar para apoyar a
empresas minoritarias y pequeñas.
De preferencia, las instituciones gubernamentales deben usar software
libre. Se entiende por “instituciones gubernamentales” aquéllas cuyo presupuesto
174
venga substancialmente de los gobiernos federal, estatal o municipal.
Implementación: todo desarrollo o compra de software que no esté formado por
software libre, deberá ser validado por una autoridad informática en la que
participarán representantes de los CIIES. Justificación: ahorro de inversiones en
informática y fomento de software libre.
Se recomienda que las instituciones gubernamentales usen software
nacional. Implementación: todo desarrollo o compra de software que no provenga
de instituciones o empresas nacionales, deberá ser validado por una autoridad
informática en que participarán representantes de los CIIES. Justificación: apoyo
efectivo al desarrollo de software nacional.
Invertir en infraestructura de comunicaciones para crear enlaces de alta
velocidad. Justificación: estos enlaces entre centros de investigación y
universidades mexicanas permiten acceso a repositorios mundiales de datos
científicos y a clusters de cómputo para procesarlos. Al mismo tiempo, esta
infraestructura permitirá compartir datos científicos generados en México con otros
laboratorios en el ámbito mundial, fomentando con ello colaboraciones científicas.
Establecer programas agresivos de posdoctorado. Justificación: fortalecer
los grupos de investigación existentes y ayudar a nuevos doctores. El programa
actual de posdoctorados del Conacyt está orientado al fortalecimiento del
posgrado, lo que es inconsistente con el trabajo que se espera de un
posdoctorado.
Simplificar los trámites administrativos para la adquisición de insumos de
investigación. En particular eliminar la política de no permitir a centros públicos de
investigación la compra de equipo de cómputo. Justificación: la política actual es
absurda.
Crear un área VIII en el SNI para las áreas de computación y
telecomunicaciones que establezca criterios más acordes con la naturaleza de la
investigación en esta área.
Dar continuidad e impulso a la Red Temática de Investigación y Desarrollo
en Tecnologías de Información y Comunicaciones del Conacyt, cuya creación ha
representado un esfuerzo importante por parte de investigadores e instituciones.
175
Implementación: utilizar procedimientos más ágiles de gestión que desde su
creación han dificultado la operación de dicha red.
El Conacyt debe activamente definir la agenda nacional en la solución de
los grandes problemas. Implementación: debe pasar de administrador de los
incentivos y apoyos a investigadores y estudiantes, a tomar un rol más activo en la
definición de una agenda nacional que concentre el talento en la solución de los
grandes problemas nacionales. Debe asumir un papel prospectivo y articulador de
esfuerzos de investigadores e instituciones.
Revisar los planes de estudios de las carreras y posgrados en computación.
Justificación: para homologar planes de estudios y alinearlos con las tendencias
internacionales y con los requerimientos de la industria a mediano y largo plazos.
El Conacyt debe definir un grupo relativamente pequeño de proyectos
interdisciplinarios, con efecto social y de mediano plazo, que requieran de la
participación de varias especialidades de computación y telecomunicaciones e
involucren la generación de nuevo conocimiento. Justificación: fomentar la
interdisciplina en proyectos aplicados importantes. Financiamiento: estos
proyectos serían financiados en una primera etapa por el sector público.
Crear nuevos centros de investigación en computación y comunicaciones.
Justificación: son áreas prioritarias no atendidas o atendidas parcialmente, y que
son de alta aplicabilidad.
Cambiar los planes de estudios de los niveles medio y medio superior en
computación. Justificación: los planes actuales sólo enseñan ofimática
(paquetería). Acción: deben enseñarse los principios de computación, como
representación y solución de problemas, abstracción, diseño de algoritmos,
etcétera (conocido como pensamiento computacional). Importancia: fundamental
para la formación de los jóvenes que seguramente utilizarán la computación en
cualquier disciplina.
176
LINEAS DE ACCIÓN PARA EL FUTURO DE
las Telecomunicaciones y la Computación en México
177
Programa interinstitucional de investigación y desarrollo sobre sistemas inteligentes
Propósito Constituir una alianza entre instituciones y grupos de investigación sobre inteligencia artificial y sistemas inteligentes para atender necesidades y oportunidades en campos de aplicación específicos, que derivaría en la creación de un instituto nacional.
Antecedentes Diversas instituciones, incluidas algunas empresas, han desarrollado de forma aislada aplicaciones para resolver problemas concretos, sirviéndose de conocimientos a su alcance disponibles en fuentes diversas. Esto ha dado lugar a la formación de capacidades significativas, a partir de las cuales podría integrarse un núcleo fuerte con proyección internacional.
Descripción • Se propone partir de una reunión preliminar entre representantes de los grupos (dos o tres) que han desarrollado mayor actividad y, por acuerdo entre ellos, levantar un inventario de experiencias reportadas y de capacidades instaladas.
• Simultáneamente se podría proceder a organizar una reunión de trabajo con expertos, cuyo producto final sería la selección de campos en los que convendría explorar aplicaciones de interés para mejorar la oferta de servicios públicos a partir de sistemas inteligentes.
• Con estos elementos se procedería a elaborar una cartera de proyectos que, si bien estaría dirigida a aplicaciones, contaría además con el respaldo de capacidades y proyectos de investigación científica según las necesidades.
• Finalmente se evaluaría la capacidad instalada existente en comparación con las necesidades identificadas, y se trazaría un Plan de Desarrollo conjunto tanto de infraestructura como de personal de investigación que, al ser acordado entre las instituciones participantes, constituiría la semilla de un Instituto de Investigación y Desarrollo sobre Sistemas Inteligentes orientado a investigación, desarrollo, innovación y formación de recursos humanos.
• Se procurarían recursos para apoyar la formación de capacidad, distribuida a lo largo del país.
178
Efecto potencial • Se fortalecerían grupos de investigación existentes y se apoyaría el desarrollo de nuevos grupos.
• Se establecerían prioridades de investigación en función de demandas y necesidades establecidas, y se desarrollarían aplicaciones concretas a partir de ellas.
• Se constituiría una capacidad combinada considerable que podría, en un futuro, dar lugar a un consorcio tecnológico con proyección internacional.
Instituciones participantes
Universidades y centros de investigación públicos y privados, empresas estatales y privadas interesadas en los productos y servicios que se vayan generando.
Tiempo estimado Las actividades preliminares dirigidas a la elaboración de la cartera original de proyectos requerirían unos seis meses; la evaluación de la capacidad instalada en relación con ellos tomaría dos meses más y desembocaría en un conjunto de proyectos de inversión en desarrollo de capacidad, que se pondrían a consideración de las instituciones interesadas en apropiárselos, lo que podría requerir hasta cuatro meses más, para un total de un año.
Simultáneamente con este ciclo de instalación, las instituciones participantes trazarían un primer Programa de Investigación y Desarrollo para ser emprendido conjuntamente.
Recursos necesarios El proceso inicial de registro y estudios tanto de capacidad instalada como de aplicaciones o mercados potenciales, requeriría sobre todo la intervención de uno o dos especialistas adscritos a algunas de las unidades con mayor experiencia en la materia, las cuales se esperaría que los comisionaran durante el tiempo necesario.
Las reuniones de trabajo a las que se diera lugar podrían ser financiadas por el Conacyt, a petición suya.
Para los proyectos de infraestructura y formación de capacidad se promoverían convenios de coinversión entre las instituciones interesadas y el Conacyt, en el entendido de que la operación futura del programa se financiaría principalmente a través de contratos con las entidades interesadas en las aplicaciones.
179
180
Centro de Investigación en Telecomunicaciones y Sistemas Distribuidos
Propósito Crear una instancia y un espacio para la búsqueda de soluciones a problemas del país, a partir de la cooperación entre especialistas, instituciones y disciplinas ligados al desarrollo de las telecomunicaciones y la computación.
Antecedentes México cuenta con capacidades significativas en computación y telecomunicaciones distribuidas a lo largo del territorio que, dadas las características de estos campos del conocimiento, dan lugar a numerosas aplicaciones originales puntuales cuyo efecto, sin embargo, ha sido menos extenso de lo que podría ser, ya que además del fortalecimiento de los sistemas de comunicación como tales, es notorio el crecimiento de la demanda de aplicaciones distribuidas en dispositivos heterogéneos con apoyo en la nube.
Descripción • Se propone el establecimiento de un Centro de Investigación en Telecomunicaciones y Sistemas Distribuidos, respaldado por grupos con masa crítica en especialidades básicas y dotado de infraestructura avanzada y suficiente para propiciar el desarrollo de productos, dispositivos y sistemas. Además de un programa propio de investigación y desarrollo, debería estar abierto a apoyar la realización, en espacios físicos aislables exclusivos, de proyectos de desarrollo tecnológico para instituciones o empresas que requieran el respaldo de su infraestructura de investigación.
• En principio sería aplicable el esquema de Laboratorios Nacionales previsto por el Conacyt, que los caracteriza como “laboratorios sin paredes” para ilustrar su intención de estimular la cooperación interinstitucional en campos relevantes para el desarrollo del país.
• Como primer paso habría que establecer un grupo de trabajo integrado por las instituciones que participarían en su constitución, el cual se haría cargo del diseño preliminar de su organización y de la elaboración de su Plan de Desarrollo, incluyendo el Programa de Inversiones en Infraestructura y Formación de Capacidad.
• Puesto que de acuerdo con las reglas de operación del
181
Conacyt sus aportaciones serían complementarias de las procedentes de las organizaciones que operarían el Laboratorio, esto implicaría compromisos de parte de ellas aproximadamente por las mismas cantidades de recursos que solicitaran. Afortunadamente, dado el alto valor estratégico que se derivaría para el sector de comunicaciones y transportes, podría esperarse que la Secretaría del ramo, e incluso inversionistas privados, aportasen una parte.
Efecto potencial • Se concentrarían en una sola unidad capacidades hasta ahora más bien dispersas, las cuales se orientarían a aplicaciones prioritarias para el país.
• Se contaría con instalaciones costosas, abiertas a su utilización por investigadores y especialistas de diversas instituciones y empresas que de otra manera requerirían subcontratarse, incluso internacionalmente.
• Las empresas podrían utilizar temporalmente espacios próximos a las instalaciones experimentales con secrecía garantizada.
Instituciones participantes
Centros públicos de investigación (en especial el Cinvestav, el CICESE y el Infotec) e instituciones de educación superior, como la UNAM y el IPN).
Tiempo estimado La integración del grupo de trabajo, las negociaciones entre las partes y la elaboración del Plan de Desarrollo podrían tomar hasta un año. El proceso de aportación de los recursos por las partes involucradas requeriría de tres a seis meses más.
Recursos necesarios El costo del proceso de diseño podría alcanzar entre cinco y seis millones de pesos: una parte podría ser aportada en especie por las instituciones promotoras de la iniciativa mediante tiempo de personal comisionado al proyecto; el resto podría solicitarse al Conacyt.
Los fondos necesarios para el proyecto ejecutivo se obtendrían, como queda dicho, de la Secretaría de Comunicaciones y Transportes, el Conacyt y las propias instituciones participantes.
182
183
Desarrollo y consolidación de capacidad en ciencias y tecnologías para la información y la comunicación
Propósito Articular entre sí capacidades existentes en instituciones de educación superior y de investigación del país para constituir un sistema capaz de definir proyectos guía de mediano y largo plazos en el área de tecnologías de información y de telecomunicaciones, no sólo en términos de producción de conocimientos y tecnologías, sino también de educación y formación de capacidad.
Antecedentes Existe un número considerable de grupos y unidades, principalmente académicas pero no sólo, con capacidad para desarrollar fuentes o sistemas de información de utilidad para los propósitos más diversos. Sin embargo, sólo en casos más bien excepcionales hay colaboración reiterada o siquiera intercambio entre ellos. Así, lo que podría representar una gran riqueza en conjunto acaba por reducirse a estudios o desarrollos dispersos y yuxtapuestos.
Descripción • Se propone poner en marcha una alianza de cooperación interinstitucional en investigación, formación de personal de alto nivel, desarrollo y transferencia de tecnología centrada en un programa de mediano plazo acordado entre sus integrantes.
• Se partiría de un acuerdo inicial de cooperación entre los grupos hasta ahora más adelantados y productivos en materia de tecnologías de información y telecomunicaciones, pero se podrían ir agregando otros más en el futuro.
• Las instituciones integrantes del acuerdo inicial constituirían un grupo de trabajo con un representante de cada una, que se reuniría para intercambiar presentaciones de sus programas, capacidades y expectativas de desarrollo y establecería los lineamientos y reglas generales propuestos como plataforma para su cooperación, incluyendo, además de algunos proyectos específicos, los términos que regirían sus intercambios, el uso compartido de infraestructura y la selección de nuevos proyectos en el futuro.
184
• Procederían entonces a elaborar un primer programa de actividades conjuntas, subdividido en proyectos específicos de interés para todos y en la negociación de los fondos necesarios para su realización, tanto los que sus propias instituciones hubieren comprometido como los que se solicitarían al Conacyt, la Secretaría de Economía y otros organismos, incluso empresariales.
Efecto potencial • La acción coordinada de las principales instituciones con capacidad se traduciría en un mejor aprovechamiento de los recursos y, sobre todo, en un direccionamiento más concentrado de sus resultados y efectos.
• Específicamente, sería posible negociar en grupo no sólo con empresas interesadas una a una, sino también con agrupaciones (clusters), lo que podría derivar en constituir capacidades visibles internacionalmente, por ejemplo en diseño de software, entre otros.
Instituciones participantes
Centros públicos de investigación (en especial el Cinvestav, el CICESE y el Infotec) e instituciones de educación superior, como la UNAM y el IPN).
Tiempo estimado Las acciones preliminares para la integración de la alianza podrían concluirse en no más de cuatro o cinco meses; la formalización del acuerdo y el diseño del programa compartido inicial, probablemente otro tanto.
Recursos necesarios El proceso de gestación de la iniciativa podría requerir varias reuniones de los interesados y la asistencia de uno o dos funcionarios para coordinar las actividades y formular los documentos que se vayan presentando, lo que podría costar hasta un millón de pesos.
Para el financiamiento de la cartera de proyectos (de investigación y de formación de personal) resultantes se solicitaría el apoyo del Conacyt a través de los diversos instrumentos que ya tiene establecidos.
Además se podría promoverse un apoyo especial, dadas las características de la alianza y el programa.
185
186
Incubación de negocios de alto valor agregado en tecnologías de información
Propósito Identificar oportunidades de negocios basados en conocimientos y tecnologías de información, jerarquizarlas en función de su potencial de aportación de valor económico, acercarles recursos y apoyos para propiciar y facilitar su explotación.
Antecedentes Numerosas instituciones de educación superior o de investigación cuentan con capacidades significativas para el diseño de software o desarrollo de dispositivos innovadores en atención a aplicaciones específicas, sea en sus propias instalaciones u organizaciones o a petición de sus clientes o usuarios. Esta actividad da lugar a la creación, directa o indirectamente, de nuevos productos que pueden representar oportunidades de negocios.
Descripción • Se propone constituir un grupo iniciador de oportunidades de negocios integrado por empresarios y profesionales con experiencia en innovación comercial, desarrollo y financiamiento de empresas, para que se haga cargo de diseñar y lanzar una convocatoria a investigadores y profesionales autores o promotores de desarrollos en tecnologías de información de interés potencial para su puesta en el mercado.
• Utilizando una metodología de evaluación acordada entre ellos, el grupo evaluador analizaría las ofertas recibidas, las jerarquizaría en orden decreciente de su contribución potencial de valor y haría una primera selección de las de mayor interés, a las cuales proporcionaría fondos suficientes para la elaboración de planes de negocios preliminares de cuya comparación, en una segunda etapa, ya resultarían iniciativas de inversión.
• Estas últimas se presentarían a uno o varios inversionistas o fondos de inversión dispuestos a financiar la etapa de afinación de los paquetes tecnológicos y las estrategias de negocios, con quienes se negociarían términos preliminares relativos tanto a la aportación de capital iniciador como a los derechos de explotación industrial.
• En los casos en que se concrete el establecimiento de la
187
empresa, los inversionistas participantes en esta etapa gozarían del derecho de primera negativa al entrar en la fase de constitución de su capital social.
• En cada uno de los casos de nuevas empresas que se constituyan, el grupo evaluador recibiría como compensación un porcentaje previamente acordado de su capital social o el valor correspondiente en dinero, que se podría reinvertir en la creación de nuevos negocios.
Efecto potencial Además de la generación de nuevas empresas de base tecnológica derivadas de actividades de investigación y desarrollo, se daría lugar a una fórmula organizacional novedosa que con el tiempo podría replicarse en otros campos.
Instituciones participantes
Universidades y centros de investigación públicos y privados con productos tecnológicos de alto valor agregado, empresas y gremios empresariales interesados, inversionistas y fondos de inversión de capital.
Tiempo estimado La constitución del grupo iniciador, el diseño de sus instrumentos de evaluación y el levantamiento de propuestas de la primera convocatoria y la primera selección de casos relevantes podría requerir hasta un año en total, dependiendo del interés que se despierte entre inventores y especialistas.
A lo largo de ese intervalo, sin embargo, se podrían ir concertando acuerdos concretos e inclusive poner en operación alguno de los negocios recién constituidos.
Recursos necesarios Se requeriría un capital inicial (quizá unos 10 millones de pesos) para financiar la elaboración de planes de negocios, que podría ser aportado por el Conacyt o la Secretaría de Economía a través de un fideicomiso cuyo comité técnico operaría como grupo iniciador. Éste, a su vez, negociaría la aportación (temporal) de una parte del capital de riesgo para asegurar la inversión de los socios de los negocios en ciernes, apoyándose en fondos de inversión establecidos.
A partir de la plusvalía de las acciones otorgadas por las empresas apoyadas, recuperaría progresivamente una parte creciente de los recursos invertidos, los cuales reinvertiría en proyectos futuros.
188
189
Plan de Desarrollo para el establecimiento de un Centro Nacional de Datos
Propósito Elaborar un anteproyecto para el establecimiento de un Centro Nacional de Datos dirigido a la prestación de servicios en la nube, hospedaje, seguridad y control remoto de usuarios interesados en el desarrollo de nuevas empresas de base tecnológica.
Antecedentes La difusión extensiva de capacidades en ciencias y tecnologías de información tanto en instituciones de investigación superior como en empresas, ha dado lugar a un número considerable de iniciativas para la creación de sistemas dirigidos a muy diversos propósitos de aplicación. Algunos se utilizan con éxito en las instituciones en que se originaron, pero hay muchos que podrían extenderse a otras organizaciones o a la sociedad en general a través de su transformación en proyectos y servicios con valor económico.
Descripción • Se propone la creación de un espacio virtual que facilite a los creadores de nuevas iniciativas la transformación de sus desarrollos tecnológicos en negocios de alto valor agregado.
• El punto de partida sería el dimensionamiento de la oportunidad mediante un inventario de iniciativas que permitiera caracterizar los servicios que se prestarían y también apreciar el volumen de actividad al que darían lugar.
• A partir de ella, se podría hacer una primera definición de objetivos y funciones y constituir un grupo iniciador para desarrollar el modelo conceptual e institucional que se seguiría.
• Sería necesario avanzar principalmente en dos vertientes: los requerimientos de infraestructura física y el diseño de los servicios, tanto de orientación empresarial como informáticos, que se pondrían a disposición de los usuarios.
• Para los de orientación empresarial se diseñaría e instrumentaría una red de asesores distribuida en el territorio nacional; para los informáticos se ha propuesto, en principio, una localización fronteriza para facilitar
190
vínculos con instituciones afines en Estados Unidos.
• La elaboración del Plan de Desarrollo quedaría a cargo de un grupo iniciador integrado por personal de instituciones interesadas en impulsarlo. Una vez concluida la versión preliminar, se presentaría para su discusión ante un conjunto mayor de instituciones abiertas a afiliarse y se incorporarían las nuevas aportaciones obtenidas.
• La versión final se presentaría para buscar financiamiento ante las autoridades responsables.
Efecto potencial • Los interesados en desarrollar negocios basados en tecnologías de información contarían con respaldo para la etapa de desarrollo final e introducción a partir de servicios especializados compartidos.
• La inversión en infraestructura también se compartiría.
• La red de asesores a la que se daría lugar ensancharía su alcance y reforzaría capacidades locales.
Instituciones participantes
Universidades y centros de investigación públicos y privados con productos tecnológicos de alto valor agregado, empresas y gremios empresariales interesados, inversionistas y fondos de inversión de capital.
Tiempo estimado Se podría requerir un total aproximado de doce meses: seis para el levantamiento e interpretación de la encuesta y los seis restantes para el diseño del Centro de Datos, incluida la consulta final.
Recursos necesarios El costo total del ciclo de diseño podría alcanzar unos dos millones de pesos, de los cuales las instituciones promotoras podrían aportar la mitad en especie (a través de la participación de su personal) y el resto se solicitaría al Conacyt.
191
192
Ciencia Química
193
de la colección Hacia dónde va la ciencia en México,
se terminó de imprimir en abril de 2014 en los talleres
de Asesoría Gráfica, Cerro San Andrés 164,
Col. Campestre Churubusco, Coyoacán, México, D.F.
El tiraje consta de 3,500 ejemplares.
En su composición se utilizaron tipos de la familias
Myriad y Warnock y se utilizó papel couché de 135 grs.
Cuidaron esta edición:
Ana del Río y Rigoberto Aranda.
Top Related