Posts Tagged ‘tecnologia’

h1

Trabajadores de Estado Sólido: ¿Qué pasará cuando los robots hagan todo el trabajo?

02/15/2017

SciBook [Icon By Buuf]
 Ciencia y Tecnología.

Es el cambio, el cambio continuo, el cambio inevitable, el factor dominante en la sociedad actual. Ya no se puede tomar una decisión sensata sin tener en cuenta no sólo el mundo tal como es, sino el mundo tal como será.

Isaac Asimov (1920 – 1992). Bioquímico, escritor de ciencia ficción y divulgador científico ruso-estadounidense.

Hace poco más de un año, explicábamos aquí que las tecnologías emergentes – incluyendo la internet móvil, la Nube, Big Data y la Internet de las Cosas (IoT) – resultarán en efecto devastador sobre la seguridad laboral de una importante variedad de empleos; específicamente los relacionados a la manufactura, la construcción y labores administrativas, afectando no sólo a los trabajadores de la clase obrera, sino que esto también significará el principio del fin para muchos profesionistas de las áreas de servicios, así como ejecutivos de nivel medio y bajo.

Empecemos con un malentendido común, resultante de los hechos alternativos que actualmente permean la política estadounidense: el presidente de los Estados Unidos ha venido acusando a México y China de “robar” trabajos de manufactura debido a desequilibrios en la balanza comercial con estos países; ya que esto resonó muy bien entre el electorado norteamericano, ésta es una de las razones por las que este individuo obtuvo la presidencia. El problema es que, independientemente de la presión ejercida por el actual POTUS a las organizaciones individuales, así como a los vecinos y socios comerciales de los Estados Unidos, los empleos en la industria manufacturera no volverán, porque desde un principio, éstos se extinguieron debido a la adopción de tecnologías que aumentan la productividad de los trabajadores, a costa de un mayor desempleo:

Pic: U.S. manufacturing jobs (1945-2015), in millions
Empleo en la industria manufacturera estadounidense (1945-2015), en millones de puestos de trabajo. Después de la Segunda Guerra Mundial, la manufactura norteamericana creció en poco más de 1% anual hasta su máximo histórico, en 1979. Sin embargo, a partir de Junio de aquél año, inició el declive de ésta, auspiciado por la expansión de los servicios, así como el surgimiento de nuevas tecnologías, como la computadora personal.

Para 1994, cuando el Tratado de Libre Comercio de América del Norte (TLCAN) dio inicio, la manufactura ya había sufrido un declive de más del 12% con respecto al máximo histórico. De hecho, el TLCAN estabilizó esta caída por casi 7 años, hasta que China ingresó a la Organización Mundial de Comercio, la burbuja del dot-com había reventado y por supuesto, los atentados del 11 de Septiembre ocurrieron a finales de 2001.

Una vez que las transnacionales estadounidenses aprovecharon al máximo la ventaja competitiva obtenida al trasladar su producción hacia el Sureste de Asia, la manufactura se mantuvo cayendo en más de 2% anual, hasta un mínimo alcanzado en 2010, cuando los efectos de la crisis financiera de 2008 todavía causaban estragos en la economía mundial.

(Fuente de la imagen: U.S. Department of Labor)


Sin embargo, esto es tan sólo el inicio de lo que en pocos años se extenderá al resto del mundo: la completa automatización de las cadenas productivas, que van desde el diseño asistido por sistemas expertos y la manufactura realizada por robots, hasta la logística, la que para 2022-2024 será llevada a cabo en su totalidad por vehículos autónomos. Un ejemplo concreto es el caso de una compañía china, que al seguir la iniciativa Hecho en China 2025, ha sustituido al 90% de su fuerza laboral por robots; esto dio como resultado un aumento del 250% en la producción y una disminución en la tasa de defectos de 25% a sólo 5%:

De acuerdo a Monetary Watch, la Changying Precision Technology Company se centra en la producción de teléfonos móviles y utiliza líneas de producción automatizadas. La fábrica contaba con 650 empleados, pero ahora sólo 60 personas realizan todo el trabajo, mientras los robots se encargan del resto. Luo Weiqiang, el gerente general, dice que el número de empleados requeridos caerá a tan sólo 20 en algún punto. A pesar de esta reducción del personal, no sólo la fábrica produce más equipo (un aumento de 250%), sino que también asegura una mejor calidad.


Incluso el supermercado tradicional desaparecerá eventualmente, pues siguiendo el ejemplo de retailers como Amazon, es mucho más práctico utilizar portales online para recibir pedidos que serán surtidos por drones diseñados para entrega automática – como el Amazon Prime Air. Y para aquellas compañías que aún necesitan tiendas físicas para establecer presencia en sus respectivas áreas geográficas, en pocos años será posible abrir tiendas totalmente automatizadas que requieran un mínimo de personal para su operación:

Amazon ya abrió una de sus revolucionarias tiendas “Go” de abarrotes como parte de una prueba. Si se perdieron el lanzamiento ocurrido a finales del año pasado, es un lugar en el que sólo necesitas entrar, tomar lo que necesitas, y dejas la tienda. No hay líneas ni cajeros. Sólo escoge, toma y, bueno, ve [“Go”].

La tecnología, basada en sensores “Just Walk Out” [que de acuerdo al propio Amazon, es una combinación de reconocimiento de imágenes y IoT], detecta cuando tomas algo del estante. Y cuando dejas la tienda, ésta carga todos los artículos a tu cuenta.

Este supermercado podría cubrir un espacio de hasta 3,700 metros cuadrados y además de los robots, contará con entre 3 y 10 empleados.

Dicha instalación se compone de dos pisos; con el primero ofreciendo alrededor de 4,000 “mercancías que los compradores suelen tocar, como las frutas y hortalizas frescas, huevos, carnes y quesos, así como artículos que puedes tomar cuando estás de paso, como la cerveza y el vino”. El segundo piso tendría un ejército de robots seleccionando y embalando una gama más grande de artículos – hasta 20,000 productos diferentes – surtiendo órdenes en línea hechas por los compradores en la planta de abajo, o de los clientes en línea que llegarán más adelante a la tienda para recoger los artículos.


Por supuesto, esta tendencia a la automatización no se limita a la manufactura, logística o retail; los proveedores de servicios como bibliotecas y hoteles ya están siguiendo este camino.

Los peligros de la automatización…

Esto abre interesantes preguntas, pues claramente las tecnologías emergentes que mayores consecuencias tendrán en nuestra sociedad y economía son la inteligencia artificial (IA) y la robótica: entre las principales preocupaciones están los millones de empleos perdidos a causa de éstas. Por ejemplo, si un chef robótico se convierte en una adquisición común de los cafés y restaurantes de todo el mundo, ¿llegaremos al punto en que los chefs, como el japonés Masaharu Morimoto o el mexicano Enrique Olvera, sean innecesarios? Aunque de momento profesiones tan creativas como chef de alta cocina son difícilmente reemplazables, la adopción de estas tecnologías en la industria de la comida rápida significaría el despido de millones de personas de cadenas tales como Subway, McDonald’s y KFC.

Por otro lado, también será necesario definir cómo deben actuar estas inteligencias artificiales ante problemas de ética: Por ejemplo, si un vehículo autónomo tiene la opción de atropellar una persona cruzando la calle, o chocar contra una pared, lesionando o posiblemente matando a sus pasajeros, ¿cuál es la decisión que deberá tomar, en tan sólo una fracción de segundo? Para ser honestos, estos escenarios suenan como algo soñado por un profesor de filosofía, por lo que hacer que el software calcule el valor de la vida humana es en sí misma, una cuestión de ética.

Otro problema derivado de la adopción de estas tecnologías tiene que ver con el factor humano. A final de cuentas, los seres humanos somos irracionales e inconsistentes, así como computacionalmente limitados. Para todos aquellos que hemos trabajado en la industria del software, sabemos que ningún software es 100% libre de defectos, lo que se verá reflejado en el desempeño de estos sistemas: En cualquier sistema complejo y caótico, incluyendo las implementaciones de inteligencia artificial, los peligros potenciales incluyen una mala administración, vulnerabilidades del diseño, accidentes y ocurrencias imprevistas. Todos estos problemas plantean serios desafíos para garantizar la seguridad de las personas, gobiernos y empresas: si bien un bug que bloquee una aplicación de teléfono móvil o malinterprete una solicitud de compra puede ser tolerado, si un sistema armamentístico o un sistema de navegación autónomo poseen errores, los resultados podrían ser fatales, con posibles consecuencias en una escala global.

Pic: 18 Products Famous Brands Must Not Have Thought Of Yet (Amazon) - Cracked
Entrega preventiva Amazon – sabemos que no has ordenado esto todavía. Pero sabemos que lo harás.

Aunque las implementaciones actuales de inteligencia artificial todavía no pueden proyectar lo que compraremos en el futuro, desde hace algún tiempo ha existido software predictivo usado por las corporaciones policiales de los Estados Unidos, reduciendo la tasa de homicidios al predecir qué ex-reclusos tienen una mayor probabilidad de cometer un asesinato, y por lo tanto deben recibir una supervisión más estricta por parte de sus oficiales de libertad condicional.

La inteligencia artificial tiene un gran potencial para mejorar la toma de decisiones humanas, al contrarrestar nuestros sesgos cognitivos y dar sentido a conjuntos de datos extremadamente grandes. La eliminación gradual de la supervisión humana puede aumentar la eficiencia, y es incluso requerida para algunas aplicaciones, como los vehículos autónomos. Sin embargo, hay peligros al depender enteramente de las decisiones de los sistemas de IA cuando no entendemos completamente cómo éstos están tomando dichas decisiones. En el ejemplo mostrado, nos resultaría divertido recibir docenas si no cientos de paquetes de Amazon al mismo tiempo. Sin embargo, no nos causaría ninguna gracia si durante esta misma operación, Amazon nos hace un cargo a nuestra tarjeta de crédito por varias decenas de miles de dólares.

(Fuente de la imagen: Cracked.com)


Finalmente, académicos, futuristas y entusiastas de la tecnología creen que pronto veremos el surgimiento de una inteligencia artificial fuerte (IAF), estimando su advenimiento entre el 2025 y el 2035. Sin embargo, dada la posibilidad de que una IAF se convierta en una superinteligencia, es necesario considerar escenarios potencialmente factibles y cómo evitar amenazas existenciales a la humanidad. Hoy por hoy, ya existen esfuerzos serios para definir marcos de referencia ética – tales como OpenAI por Elon Musk, o las políticas de control, seguridad y pruebas para vehículos autónomos, emitidas, por el USDOT – con el objetivo de producir una inteligencia artificial amigable a los intereses humanos. Por ejemplo, algunos expertos proponen que los sistemas de IA más avanzados deberían funcionar en un “sandbox”, que equivale a un espacio experimental desconectado de los sistemas externos.

… y sus beneficios

Dejando de lado estos rompecabezas éticos, los beneficios de la automatización serán enormes. Por ejemplo, cuando los vehículos autónomos se conviertan en una realidad del mercado, adicionalmente a reducir accidentes debidos al error humano, también podrán disminuir el tráfico en nuestras ciudades, ya que los vehículos robotizados serán capaces de viajar a mayor velocidad y más cerca de otros vehículos sin tener que preocuparse por distracciones o tiempos de reacción lentos. Esto a la larga disminuirá la cantidad de tiempo que las personas pasan viajando, al tiempo que aumenta nuestra productividad, pues ya no tendremos que conducir.

Porcentaje de Adopción 10% 50% 90%
Vidas salvadas 1,100 9,600 21,700
Ahorro en costos de seguro (millones de dólares) $5,500 $48,800 $109,700
Ahorro por tiempo en tráfico (millones de horas) 756 1,680 2,772
Ahorro en consumo de combustible (millones de litros) 386 848 2,741
Beneficios contra porcentaje de adopción de vehículos autónomos (Estados Unidos). Estimación anual. (Fuente: Eno Center of Transportation)


Sin embargo, ¿qué pasará con los millones de empleos amenazados debido a ésta? Paradójicamente, los países en desarrollo, en los que las crisis económicas han sido relativamente constantes, están mejor preparados para esta eventualidad, debido principalmente, a que mucha de su población no calificada tiende a ocuparse en oficios, buscan métodos alternativos de pago como el trueque, o forman parte de la economía informal: los oficios son una industria bastante robusta, ya que siempre habrá una casa que se está construyendo, o que necesita un sistema de cableado, o una tubería de agua que requiere reparación, o un sistema de calefacción que necesita reemplazo. Los oficios también tienen un menor riesgo de ser absorbidos por la inteligencia artificial, debido a los elementos de interacción social, así como las amplias habilidades necesarias para el trabajo que se está llevando a cabo. De hecho, existen oficios que tienen una paga equivalente a la de un profesionista con título universitario.

Ya que la siguiente ola de automatización terminará por golpear a los profesionistas también, el punto clave para sobrevivir esta transición es la capacitación y entrenamiento en nuevas habilidades para seguir siendo productivos:

Pic: The technical potential for automation in the U.S. - Fortune.com
Las máquinas están cambiando la manera en que hacemos nuestro trabajo, pero no le arrebatarán por completo el control a los seres humanos. La viabilidad técnica de la automatización se analiza mejor si se examinan no las ocupaciones en su conjunto, sino la cantidad de tiempo dedicado a tareas individuales y el grado en que éstas pueden automatizarse utilizando la tecnología existente y cómo ésta se le adapta a estas tareas. En general, sólo alrededor del 5% de las ocupaciones podrían ser completamente automatizadas mediante la adaptación de la tecnología actual. Sin embargo, las tecnologías de hoy podrían automatizar el 45% de las actividades encontradas a través de todas las ocupaciones. Inversamente, alrededor del 60% de todas las ocupaciones podrían ver automatizadas el 30% o más de sus actividades de trabajo.

(Fuente de imagen y pie de página: Fortune.com)

Las profesiones menos vulnerables tienden a ser aquellas relacionadas a la interacción con clientes, gestión y servicios profesionales, de salud y de tecnologías de información; los más vulnerables tienen que ver con labor intensiva predecible (agricultura, ensamblado de autopartes o embalaje, por ejemplo). Los primeros podrían beneficiarse de un aumento en la demanda de más tareas cognitivas, ya que las tareas de rutina son reemplazadas por máquinas. Asimismo, los trabajadores de baja y mediana calificación pueden obtener alivio de las tareas monótonas y pueden encontrar oportunidades para un empleo más creativo, pero es un hecho que tarde o temprano, las ocupaciones tradicionales terminarán por desaparecer.

Conclusiones

En estos complicados tiempos en los que muchos de nosotros miramos hacia el futuro, existe una posibilidad que ha sido ignorada continuamente: no deberíamos tenerle miedo a los robots, sino a los seres humanos que los adoptan y los intereses económicos que los rigen. Poniéndole ciertos candados regulatorios a las empresas es posible construir los cimientos de un mundo futuro en el que la tecnología funcione para todos nosotros, y no sólo para los pocos privilegiados: los robots podrían mejorar drásticamente nuestra calidad de vida, eliminando las posiciones aburridas, repetitivas y agotadoras. Al eliminar las tareas monótonas, podríamos enfocarnos en lo que realmente nos hace humanos. Claro que, la posibilidad más terrible de todo esto, es que al final nos demos cuenta que lo que realmente nos hace humanos, es nuestro trabajo.

Por otro lado, tendremos que cambiar la manera en la que operan nuestros gobiernos e instituciones. Cuando se automatiza un trabajo, la productividad tiende a subir, debido a que aquél puede terminarse en menor tiempo y con menos costos. Así, la automatización aumentará la productividad total de la economía, incrementando el ingreso per cápita. El problema entonces, se vuelve un tema de mejor distribución del ingreso: tendremos que hacer cambios regulatorios para asegurar que la distribución sea justa y socialmente responsable, incluyendo un impuesto negativo sobre la renta (INR), más derechos y prestaciones laborales, así como una renta básica universal (RBI), semanas de trabajo más cortas y la adquisición de acciones por parte de todos los trabajadores, para que así todos seamos dueños de las máquinas que producen la riqueza y todos podamos disfrutar de sus dividendos.

La realidad, es que nadie puede estar 100% seguro de los cambios sociales por venir como resultado de este salto tecnológico. El problema principal de esta situación no sólo es el evento en sí, sino también el tiempo que está tomando en llevarse a cabo: si los cambios fueran graduales, los legisladores tendrían más tiempo para debatir y redactar leyes que protejan a los trabajadores, mientras los trabajadores tendrían más tiempo para aprender nuevas habilidades. La automatización no es una fuerza aplicada gradualmente: el cambio vendrá con algunas pequeñas señales aquí y allá; y de pronto, nos encontraremos en un mundo que va más allá de nuestra comprensión.

h1

El auge y caída de BlackBerry

10/21/2016

Moneydoc [Icon By Buuf]
 Economía y finanzas.

Yo uso un BlackBerry. Estoy tan atrasado en la tecnología de comunicación móvil, que creo que un smartwatch puede ser un salto demasiado lejos para mi.

Derek Blasberg (n. 1982). Escritor, autor fashionista y editor de origen norteamericano.

Para aquellos que desconozcan acerca de BlackBerry, ésta es (¿fue?) una extraordinariamente innovadora empresa canadiense de dispositivos electrónicos, que experimentó un auge entre los años 2010 y 2012, pero que en la actualidad, está a punto de desaparecer. Fundada como Research In Motion o RIM en 1995, los teléfonos celulares diseñados por esta compañía eran considerados el non-plus-ultra de la tecnología móvil, debido a su gran versatilidad y una serie de aplicaciones que, en su momento, fueron revolucionarias, como el correo electrónico, el navegador y la mensajería instantánea. De hecho, su principal característica era un teclado físico, cuyas teclas eran como las drupas de una zarzamora (Ingles: blackberry). Por ello, la compañía y sus productos tenían tal renombre, que no era poco común encontrar a los altos ejecutivos y políticos de la época – tales como la Secretaria de Estado norteamericana Hillary Clinton y el CEO de Google, Erick Schmidt – usando estos dispositivos.

Pic: BlackBerry Quark 6210 (2003)
El BlackBerry Quark 6210, lanzado a la venta en 2003, fue uno de los primeros teléfonos celulares que contenían las aplicaciones de un PDA (Personal Digital Assistant), incluyendo calendario, lista de contactos, bloc de notas y agenda electrónica: la era del smartphone había comenzado. (Fuente: ZEITmagazin Online)

Gracias a estas ideas, el gigante tecnológico pasó de tener 534,000 usuarios en 2003 hasta la impresionante suma de 80 millones en 2012, alcanzando una participación de poco más del 20% en el mercado global de celulares. Sin embargo, nada dura para siempre: hoy en día, BlackBerry se ha convertido en el sotanero de los fabricantes de teléfonos inteligentes, con un insignificante 0.1% del mercado, o no más de 4 millones de usuarios a nivel global. ¿Qué pasó? La organización dejó de innovar, mientras participaba en un mercado de tecnología de consumo que se mueve a pasos agigantados. Así, mientras los canadienses se dormían en sus laureles, sus principales competidores – Apple y Google – invertían enormes sumas de dinero en investigación y desarrollo para eventualmente, apropiarse del mercado de comunicación móvil: Apple se enfocó en la pantalla táctil, ergonomía y facilidad de uso, mientras Google perfeccionaba el núcleo de Linux hasta convertirlo en el poderoso sistema operativo Android, usado por casi todos los demás proveedores de telefonía celular, como Samsung, Huawei y HTC. Como referencia, hace algunas semanas fue lanzado a la venta el nuevo iPhone 7; durante el primer minuto que este dispositivo estuvo disponible al público, Apple ya había vendido un récord de 20,000 unidades.

Pic: The Rise and Fall of BlackBerry ~ Business Insider


Ventas de smartphones BlackBerry, en millones de dispositivos.
(Fuente de la imagen: Business Insider)
¿Qué mató a BlackBerry? De acuerdo al Time Magazine, la debacle se debió a una falta de visión y fallas en su estrategia corporativa:

En primer lugar, después de crecer hasta dominar el mercado corporativo, BlackBerry fue incapaz de entender que los consumidores finales – no los clientes de negocios – conducirían la revolución del teléfono inteligente.

En segundo lugar, BlackBerry se mostró indiferente ante la aparición de la “economía de las aplicaciones” (App Economy), la que habría llevado a la adopción masiva de los dispositivos basados en iOS y Android mediante sus respectivas app stores.

En tercer lugar, BlackBerry no se dio cuenta que los teléfonos inteligentes podrían evolucionar más allá de simples dispositivos de comunicación hasta convertirse en centros de entretenimiento móvil, que incluyen juegos, audio y video.

Finalmente, BlackBerry insistió en la producción de teléfonos con teclados, incluso después de que quedara claro que los usuarios prefieren las pantallas táctiles, las cuales permiten una mejor visualización de vídeo y navegación en la Web. Cuando BlackBerry se decidió a lanzar un dispositivo de pantalla táctil, ya era demasiado tarde, pues fue visto como una mala imitación del iPhone. El último clavo del ataúd consistió en el lanzamiento del Priv, un smartphone basado en Android, en vez de alguno de sus sistemas operativos propietarios (BlackBerry 10, BlackBerry OS).

Es así como el pasado 20 de Septiembre, John Chen, actual CEO de BlackBerry, anunció que esta compañía dejará de producir teléfonos celulares, dejando el desarrollo de hardware en manos de terceros. De ahora en adelante esta empresa, que alguna vez fue vista como uno de los iconos del mundo de los gadgets, se convertirá solamente en un vendedor de soluciones de software para movilidad empresarial. Aunque de momento a BlackBerry le está yendo muy bien en este nicho de mercado – con un ingreso de US$334 millones y un crecimiento de 89% anual – todavía está por verse qué tan competitiva es a largo plazo, ya que como bien sabemos aquellos que tenemos varios años en esta industria, a veces no importa qué tan capitalizada está una organización, un pequeño startup puede aplastarte si posee una idea lo suficientemente innovadora. Así que, la compañía tendrá que reinventarse, no olvidarse de los geeks y convencernos a todos de que sus productos siguen siendo buenos, bonitos y baratos. De lo contrario, BlackBerry seguirá el destino de empresas como Yahoo, otro gigante de la tecnología con un triste destino que ha alcanzado niveles de meme:

1998: Yahoo se niega a comprar Google por 1 millón de dólares.

2002: Yahoo se da cuenta de su error y trata de comprar a Google por 3 billones de dólares; Google dice “dame 5 billones”. Yahoo dice NO.

2008: Yahoo se niega a ser comprado por Microsoft en 40 billones de dólares.

2016: Yahoo es comprado por Verizon en 4.6 billones de dólares. Google vale US$82.5 billones.

h1

Es oficial: vamos a Marte

10/01/2016

Space [Icon By Buuf]
 Astronomía y exploración del espacio.

Existen vistas celestes mucho más deslumbrantes y espectáculos que inspiran más asombro; pero para el observador reflexivo que tiene el privilegio de verlos correctamente, en el cielo no hay nada tan profundamente impresionante como los canales de Marte: líneas finas y filamentos pequeños que se entrecruzan sobre la superficie marciana, capturando nuestra mente a través de millones de millas de vacío.

Percival Lowell (1855 – 1916). Astrónomo, empresario y matemático estadounidense.

En primer lugar, una pregunta para reflexionar: si existiera aunque sea una remota posibilidad, ¿dejarías atrás todo lo que tienes en este mundo, para tomar un pasaje sólo de ida a Marte?

Desde hace algún tiempo, la idea de que los seres humanos debemos iniciar la colonización de nuestro sistema solar ha estado cobrando fuerza: la humanidad necesita de intrépidos exploradores dispuestos a ir “a donde ningún hombre ha ido antes”, para asegurar la preservación de nuestra especie. No, éstos ya no sólo son “sueños guajiros“: nuestro planeta ha entrado de lleno en el Antropoceno, una nueva era geológica dominada por el impacto global que las actividades humanas están teniendo sobre los ecosistemas terrestres, que puede traer como consecuencia un colapso ecológico cuyos efectos pueden alcanzar niveles catastróficos en tan sólo tres generaciones. De hecho, se proyecta que durante los próximos cien años, se extinguirá más del 50% de las especies animales y vegetales alrededor del mundo; una situación que ya es denominada como la sexta extinción masiva de la vida en la Tierra. Por ello, ahora más que nunca, la colonización del espacio es un tema relevante, porque además de mantenernos a salvo de la extinción, el proceso mismo para lograrlo puede proporcionarnos los medios y tecnologías necesarias para salvar lo que queda de nuestro mundo… y a nosotros mismos.

Pic: Urban Algae Farm
Prototipo de una granja urbana de algas. El mecanismo de escala completa, de más de 10 metros de longitud, podrá generar el oxígeno equivalente a cuatro hectáreas de bosque y cerca de 150 Kg de biomasa por día, de las cuales 60% son proteínas vegetales que pueden consumirse como alimento. (Fuente: ecologicstudio.com)

Así, durante las últimas dos semanas ocurrieron dos hitos importantes en este respecto. El primero, aunque poco espectacular, se trata del nuevo presupuesto de 19.5 miles de millones de dólares que le será otorgado a la agencia espacial estadounidense para 2017, el cual será independiente del presidente electo en las próximas elecciones de Noviembre:

Cada vez que se tiene un cambio en la administración, hemos visto el caos causado por la cancelación de los programas de mayor importancia: ya sea la cancelación del programa Constelación; ya sea la cancelación del transbordador espacial, el impacto en términos de puestos de trabajo perdidos, el impacto en términos de dinero desperdiciado, ha sido significativo.

Y [este proyecto de ley] va a encaminar a la NASA, no sólo a continuar con el desarrollo del Sistema de Lanzamiento Espacial [SLS] y Orión, sino también considerará a la exploración humana de Marte como un objetivo estatutario, soportado por el Congreso y el presidente.

Bipartisan Cruz-Nelson NASA Reauthorization Bill Unanimously Passed by Senate Commerce Committee. Press Office. (Official homepage of Senator Ted Cruz of Texas, Sep. 21, 2016).

El proyecto de ley exige a la NASA como objetivo primordial, colocar a un ser humano en la superficie de Marte dentro de los próximos 25 años, por lo que si éste es aprobado por el senado estadounidense, los Estados Unidos habrán dado un gran paso para conquistar “la última frontera”.

Haciendo de los humanos una especie multiplanetaria

En 2002, el genio, inventor y empresario sudafricano Elon Musk fundó la compañía aeroespacial SpaceX, con el objetivo de mejorar el coste y fiabilidad de los viajes espaciales. Para sorpresa de muchos, Musk declaró en 2011 que la visión a largo plazo de SpaceX es el desarrollo de tecnologías y medios necesarios para la colonización de Marte. Aunque en un inicio este objetivo fue considerado una locura, la compañía ha logrado alcanzar los hitos necesarios para que esto se haga realidad: con un precio de US$2,200 para colocar un kilogramo de carga en la órbita baja terrestre (40% menos que su competidor más cercano), SpaceX ha puesto a la industria aeroespacial en jaque: es tal la disrupción causada en el mercado, que la competencia se enfrenta a una importante reestructuración o la quiebra. A este ritmo, si el costo ofertado alcanza un monto menor a US$500 por kilogramo, finalmente será posible colocar estaciones espaciales privadas en órbita, comenzar la explotación minera de la Luna y establecer puestos de avanzada en Marte.

Es así como el Martes pasado, durante el 67º Congreso Astronáutico Internacional, llevado a cabo en la ciudad mexicana de Guadalajara, Musk reveló cómo planea llevar un millón (!) de colonos a Marte durante las próximas décadas. En una conferencia magistral, apropiadamente titulada “Haciendo de los humanos una especie multiplanetaria”, Musk presentó su plan para iniciar la colonización del planeta rojo, tan pronto como el 2024:


El fundador y CEO de SpaceX, Elon Musk, develó el Sistema de Transporte Interplanetario (ITS) que nos llevará a Marte. Para lograrlo, Musk busca combinar el cohete más poderoso jamás construido – que posee cuatro veces la potencia del Saturno V que nos llevó a la Luna – con una nave espacial diseñada para llevar hasta 100 personas por vuelo. (Fuente: treehugger.com)

Por razones de disminución de costos, el transporte sería bidireccional y reutilizable, por lo que Musk planea construir una planta generadora de combustible en Marte, usando el dióxido de carbono y hielo encontrados en la atmósfera y subsuelo marcianos, para generar el metano y oxígeno utilizados por el ITS durante el viaje de regreso. Si todo resulta de acuerdo al plan, el ITS permitirá a la humanidad establecer una colonia permanente y autosuficiente en Marte dentro de los próximos 40 a 100 años, mediante viajes con una duración de 80 a 120 días y un costo de transportación de US$200,000 por persona.

Hola… Tierra llamando a Musk

Sin embargo, por el bien del argumento, Musk tiene una solución extraordinaria para resolver un problema que, si bien no es trivial, es sólo uno de múltiples obstáculos que es necesario abordar para establecer una colonia permanente en Marte. Usando la metáfora de la conquista de América, SpaceX nos está vendiendo la mejor versión de La Niña, La Pinta y La Santa María, cuando no tenemos ni idea de cómo construir un asentamiento en el “Nuevo Mundo”, o cómo podremos sobrevivir una vez que lleguemos allí: hasta la fecha, nadie ha propuesto soluciones integrales que incluyan el suministro continuo de oxígeno, agua, energía, calor y refugio para toda la colonia, quedando sólo en conceptos artísticos o diseños y prototipos muy rudimentarios. Ya que Musk es serio, es esencial disponer de todas estas tecnologías, plenamente desarrolladas, dentro de los próximos 10 años. Así, pronto tendremos los medios para llegar hasta ahí, pero de momento toda la tecnología, necesaria para establecernos permanentemente fuera de la Tierra, sigue permaneciendo inmadura.

Pic: Mars Colony - Screenshot of Videogame 'Sol 0' by Chondrite Games
Si bien existen diseños y conceptos artísticos de hábitats espaciales desde la década de 1950, estas ideas no han sido puestas en práctica, más allá de prototipos sencillos. Si queremos llegar “al infinito y más allá”, es indispensable contar con modelos funcionales, que puedan operar de manera continua por décadas en un medio tan hostil como el espacio exterior, al mismo tiempo que proporcionan soporte vital y comodidad a los futuros colonizadores. En la imagen, una captura de pantalla del videojuego Sol 0, de Chondrite Games. (Fuente: greatbitblog.com)

Por otra parte, para iniciar un esfuerzo significativo de colonización, sería indispensable invertir miles de millones de dólares en transporte, personal y equipo, porque más allá de los materiales de construcción y compuestos volátiles (nitrógeno, hidrógeno y oxígeno), todo lo demás tendría que ser importado. Por lo tanto, todo el equipo de alta tecnología, alimentos, ropa y hasta los utensilios de cocina, tendrían que ser traídos desde la Tierra. Así pues, ¿no sería más práctico iniciar la colonización de nuestro propio satélite natural? Aunque la Luna es menos glamorosa que Marte, ésta posee una gran riqueza de recursos naturales, está mucho más cerca de la Tierra y en última instancia, lo que funcione en la Luna puede servir como prueba de concepto para otros asentamientos a lo largo del sistema solar.

¿Será posible llevar a cabo esta fantástica iniciativa? Ciertamente: tal vez no ocurra en 10 o 15 años como promete Musk, pero eventualmente será realizable. La verdad es que este hombre siempre ha tenido algún as bajo la manga: sin excepción, todas las empresas fundadas por Musk – SpaceX, Hyperloop One, Tesla, SolarCity – han logrado revolucionar sus respectivas industrias. No en vano, la mayoría de los expertos advierten que es muy malo para los negocios apostar en contra de Elon Musk. Sin embargo, éste será un camino arduo y tortuoso, y éste requerirá hacer sacrificios: el propio Musk dice que le gustaría morir en Marte; sólo que no durante el impacto.

h1

E.T. nos dio la Wi-Fi: ¿Es posible adoptar tecnología extraterrestre?

06/24/2016

Space [Icon By Buuf]
 SETI.

Toda tecnología lo suficientemente avanzada es indistinguible de la magia.

Arthur C. Clarke (1907 – 2008). Escritor británico de divulgación científica y ciencia ficción.

Justo el día de hoy, la secuela del aclamado filme de ciencia ficción, Independence Day (1996), se estrenó en Hispanoamérica. Titulada como Independence Day: Resurgence, esta nueva entrega nos cuenta lo que ocurre 20 años después de la fallida invasión extraterrestre mostrada en la primera película. El argumento se centra en qué ocurre cuando los alienígenas remanentes en la Tierra logran enviar una señal de auxilio al resto de su flota, esparcida por el resto de la galaxia. Así como las demás producciones de su tipo, seremos testigos de un ejemplo clásico del Blockbuster Hollywoodense, que usualmente cuenta con una relativa simplicidad de guión, uno o dos personajes memorables y unos extraordinarios efectos visuales.

Sin embargo, un punto peculiar del filme consiste en que los humanos han logrado recuperar, estudiar y aplicar tecnología extraterrestre. ¿Es esto realmente posible? Porque si bien infinidad de series y películas de ciencia ficción muestran cómo la humanidad logra prevalecer o congeniar con otras civilizaciones debido a que las diferencias tecnológicas se reducen a “ametralladoras frente a láseres”, la realidad es que muy pocas historias explican cómo nuestros valientes científicos e ingenieros estudian estos “campos de fuerza”, para posteriormente copiarlos y colocarles el sello de “Hecho en la Tierra”.

Cualquier tecnología extraterrestre a nuestro alcance no puede ser el resultado de una invasión, ya que de manera realista, si un imperio galáctico quiere deshacerse de los terrícolas, éste no requiere de contacto alguno con nosotros. Con algo tan burdo como un asteroide de hierro de unos 10 Km de diámetro, viajando al 90% de la velocidad de la luz, es posible desintegrar el planeta – y con sólo una milésima parte de esa velocidad, es posible eliminar a casi toda la vida en la Tierra. Por lo tanto, para tener algo recuperable y vivir para contarlo, cualquiera de los siguientes escenarios debería ocurrir:

• Un accidente en cualquiera de los planetas o lunas de nuestro sistema solar, que por lo menos permita la recuperación parcial de los restos. Por ejemplo, un choque a menos del 0.01% de la velocidad de la luz, o unos 30 Km/s. Dichas velocidades son ciertamente catastróficas para los tripulantes y el planeta huésped (equivalentes a una explosión nuclear de miles o millones de megatones, como el que extinguió a los dinosaurios hace 65 millones de años), pero debido a los requerimientos técnicos necesarios para el viaje interestelar, es posible que quede algo qué rescatar.

• Descubrimiento de instalaciones o artefactos alienígenas abandonados en nuestro sistema solar. De acuerdo a la Paradoja de Fermi, de existir vida extraterrestre, la Tierra sería visitada una vez cada 2 millones de años, por lo que es probable que hayan dejado algo atrás, pero es muy difícil de detectar: debido a las fuerzas erosivas y geológicas de nuestro mundo, tales dispositivos deberían haber sido destruidos desde hace mucho tiempo – no así para los lugares con atmósfera inexistente y órbitas estables, como algunos asteroides, lunas y planetoides del sistema solar.

Pic: 300 Million-year UFO Gear! (Not really)


Un artefacto metálico que parece ser parte de un engrane, encontrado en un depósito de carbón de 300 millones de años de antigüedad en la región de Jakasia, Rusia Meridional. Manteniendo una postura de escepticismo, esto también puede ser un cristal de ferrita, un fósil de crinoideo o una parte del equipo de minería que pudo haberse roto durante la extracción del carbón. (Fuentes: The Huffington Post y Doubtful News)

¿Es posible descifrar su operación y funcionamiento?

Lamentablemente, a diferencia de un mensaje desde las estrellas, cualquier maquinaria extraterrestre encontrada de esta manera estaría incompleta o en un terrible estado de deterioro: recordemos que para copiar un mecanismo, es necesario verlo en funcionamiento; de lo contrario sólo podremos hacer conjeturas acerca de su operación. Un ejemplo de esto es el Mecanismo de Anticitera, recuperado del fondo del Mar Mediterráneo en 1900.

Por mucho tiempo, dicho mecanismo fue considerado como la prueba absoluta de visitantes extraterrestres, pues se creía que era tecnológicamente demasiado complejo como para haber sido construido por seres humanos. Cabe mencionar que su fecha de ensamblado se estimó en base a los sedimentos formados alrededor del mecanismo, así como otras piezas de arqueología encontradas en el mismo lugar de su descubrimiento: entre el 150 y el 100 antes de nuestra era. No fue sino hasta finales del 2006 que se encontró su verdadera función: ésta es una computadora análoga usada para predecir posiciones astronómicas y eclipses con fines calendáricos y astrológicos. Es decir, se requirieron más de 100 años para descubrir que un mecanismo incompleto de engranes de cobre fue construido por humanos para algo tan pedestre como saber cuándo se jugarían los Juegos Olímpicos.

Por otro lado, es necesario considerar que cuando se trata de tecnología avanzada, es muy probable que el gobierno o fabricante original haya incluido algunas salvaguardas para evitar que su tecnología sea replicada. Esto hace mayor sentido con desarrollos gubernamentales – como una sonda interestelar probablemente lo sería – ya que viéndolo desde el punto de vista de un terrícola, muchos grupos a lo largo de nuestra historia han tratado de robarse o copiar la tecnología de los demás, desde que un homínido se dio cuenta que un hueso podría ser una eficiente herramienta de cacería, o una poderosa arma para tomar el abrevadero de la tribu vecina.

El problema del costo

Hay una relación inversa entre la existencia y adopción de una tecnología determinada y su coste unitario; mientras más instancias de ella se implementan, más se aprende cómo producirla de manera barata y eficiente, lo que significa que su costo al público puede ser reducido sin disminuir el margen de ganancia. Así, tecnologías recientemente desarrolladas que no han tenido el tiempo suficiente para dejar que esta relación tenga efecto, tienden a ser muy costosas de adquirir y difíciles de mantener. Un ejemplo de esto son los automóviles eléctricos: en 2003, el Tony Stark/Iron Man de la vida real, Elon Musk, fundó Tesla Motors con el objetivo de revolucionar la industria automovilística; a sabiendas de que esta tecnología era demasiado costosa, su estrategia se centró en primero ingresar al mercado con un modelo caro, apto sólo para clientes VIP: en 2008 inició la producción del Tesla Roadster, por un precio de US$109,000. Conforme los volúmenes de venta han aumentado, los modelos han evolucionado de la misma manera: hoy por hoy, existe el Modelo 3, revelado al público en 2016 con un costo de US$35,000. Se espera que en dos o tres años más, se terminará el desarrollo del modelo Gen 4, con un precio asequible para la mayoría de la población.

Así, la adquisición de tecnología avanzada requeriría no sólo de entenderla y replicarla, sino que también implicaría la creación de nuevas industrias, procesos y modelos de negocio para que pueda ser adoptada por todos. Esto conllevaría considerable tiempo y una enorme inversión, por lo que lamentablemente, a veces tarda mucho o no termina de suceder debido al statu quo: no fue sino hasta que Tesla demostró un éxito sostenido, que otras compañías automotrices se han unido de mala gana a esta corriente.

Por supuesto, cualquier argumento en contra de los costes de producción pierde su validez en cuanto a la tecnología militar se refiere. Sólo tenemos que superar algunas “pequeñas” limitaciones técnicas, para las que todavía no hemos descifrado completamente la solución…

El problema del software

Para los que tienen un mínimo conocimiento en TI: ¿alguna vez vieron precisamente, Independence Day? ¿Cuál es la escena más atroz que llegaron a ver en dicha película?

Pic: A PowerBook communicating with an alien computer


Precisamente. (Fuente: Reddit)

La mera idea de que una Mac, ensamblada hace 20 años, sea compatible con el sistema operativo de una nave extraterrestre de más de 500 kilómetros de diámetro, miles de años más avanzada de lo que la humanidad jamás ha creado, y lo suficientemente sofisticada como para darle soporte vital a toda una civilización extraterrestre, es considerado por cualquier ingeniero de software como una de las peores representaciones de la informática en la historia del cine. Si tomamos en cuenta que la última laptop ofertada por Apple tiene mil veces la cantidad de memoria RAM de la laptop mostrada en la película, sería realmente chusco ver a alguien intentar conectarlas; incluso más si consideramos que ambas son del mismo fabricante.

Ahora bien, una de las realidades de la vida moderna es que el futuro casi no consistirá de materiales nuevos, sino que estará basado en cómo combinar materiales ya conocidos y hacerlos funcionar. Un celular está compuesto de plástico y algunos metales (oro, cobre, plata y litio); pero lo que realmente lo hace útil es el complejo software que le permite funcionar: con él, es posible usar 4G para navegar por internet, llamar a otros dispositivos celulares, o sincronizar la información contenida en el dispositivo con un wearable o aplicaciones en la nube.

Intentar extraer y decodificar este software es posiblemente uno de los mayores obstáculos para aplicar ingeniería inversa a un artefacto extraterrestre, ya que sería indispensable conectarse a dicho dispositivo y descargar el sistema operativo para descifrar sus rutinas. Por supuesto, si bien esto es muy difícil, no es imposible: incluso hoy existe gente alrededor del mundo cuyo hobby consiste en descargar el software de sus propios automóviles para hackearlos y optimizar su desempeño. Hacer lo mismo con un dispositivo cuya arquitectura, lenguaje de programación y abstracciones son desconocidas, podría tomar décadas y considerable poder de procesamiento, pero de lograrse, eventualmente obtendríamos las llaves del reino.

El problema de la energía

Desde la década de 1990 aparecieron experimentos científicos que demuestran la posibilidad de crear ventanas de plasma, que separan el vacío del espacio exterior, del interior de una nave espacial. También, ya existen en la actualidad diseños que permitirían enviar sondas a Alfa Centauro en tan sólo cinco años o a Marte en apenas 7 minutos. ¿Que es lo que impide que estas fantásticas tecnologías se hagan realidad, aparte de los elevados costos?

El traje de Iron Man es un extraordinario exoesqueleto que permite entre otras cosas, cargar objetos de varias toneladas de peso, volar a la misma velocidad que un avión caza y disparar ráfagas de plasma. Su potencia estimada es de 4 millones de caballos de fuerza, o 2.98 Gigawatts/hora, equivalentes a 2.2 veces la energía generada por una planta nuclear como Laguna Verde, México. Lamentablemente, hoy por hoy no contamos con una fuente de energía del tamaño del reactor arc (un reactor de fusión fría del tamaño de una mano) mostrado en los comics y las películas.

Así entonces, la miniaturización de fuentes de energía es otro problema al que se enfrentan los ingenieros, y por el que no pueden pasar de pequeños experimentos en el laboratorio: para hacer funcionar estos increíbles gadgets, es necesario crear y almacenar enormes cantidades de energía en un espacio muy reducido. Algunos materiales tienen la densidad de energía necesaria (por ejemplo, para el traje de Iron Man bastan 133 gramos de uranio en un reactor reproductor), pero entonces, nos enfrentaríamos al obstáculo final para la adopción de tecnología extraterrestre: nuestra propia biología.

El problema de la biología terrestre

Todos hemos soñado alguna vez con tener un auto volador desde que éramos niños. Y cuando aprendimos a manejar, llegó algún momento en que incluso de adultos, hemos dejado correr la imaginación: si estamos atorados en el tráfico pesado de la hora pico, nos imaginamos despegando en modo vertical para volar a casa o al trabajo dejando atrás el smog, el ruido y la incomodidad. Excepto que esto es imposible.

Incluso en la actualidad, existen “carreteras” por el aire que todo piloto de avión debe seguir, y si llega a darse tráfico aéreo pesado, deben volar sin cesar en un patrón de círculo hasta que haya un lugar disponible en la pista de aterrizaje. Entonces imaginémonos no sólo una hilera de automóviles enfrente y atrás de nosotros durante la hora pico, sino varios niveles arriba y abajo también. Si ocurre una descompostura o un choque en el aire, no podremos detenernos en el acotamiento para llamar a la compañía de seguros, sino que caeremos por varios cientos o miles de metros hacia abajo, llevándonos a una muerte segura a todos los que estén circulando debajo de nosotros en ese momento, y a los que estén a nivel del suelo también.

El punto es que nuestra tecnología también viene de la mano de características de seguridad: si bien es posible crear reactores nucleares del tamaño de una batería de automóvil, o sondas que viajen a Marte en 7 minutos, nuestros cuerpos no están a la par de estas tecnologías, por lo que sufriríamos de daños irreparables o una horrible muerte; ya sea por la radiación, altas velocidades o exposición al frío y calor extremos. Con decir que el simple hecho de estar en una nave espacial, es mortal para los seres humanos.

Posiblemente, para adoptar cualquier clase de tecnología futura (y no sólo la extraterrestre) tendremos que cambiar nosotros mismos también. Con mejoras genéticas y cibernéticas, eventualmente será posible salir allá afuera. Pero de momento, adaptar o crear tecnología que hoy es indistinguible de la magia, dependerá enteramente de qué tan segura es para formas de vida basadas en carbono con una baja resistencia a la variación de temperatura, presión o fuerzas centrífugas. Como elocuentemente menciona uno de los personajes de la serie de televisión Battlestar Galactica (2004):

¡No quiero ser humano! Quiero ver los rayos gamma. Quiero poder escuchar los rayos X. Y quiero – quiero oler la materia oscura. ¿Ves lo absurda de mi existencia? ¡Ni siquiera puedo expresar estas cosas correctamente, ya que tengo que – tengo que conceptualizar ideas complejas en este estúpidamente limitado lenguaje hablado! Pero sé que quiero alcanzar con algo más que estas patas prensiles. Y sentir el viento solar de una supernova fluyendo sobre mí. ¡Soy una máquina! ¡Y puedo saber mucho más! Puedo experimentar mucho más. ¡Pero estoy atrapado en este cuerpo absurdo!

— John Cavil/Número Uno. Battlestar Galactica (2004).

Conclusiones

Algunas de las historias de ciencia ficción más entretenidas tienen que ver con la adopción de tecnología extraterrestre, principalmente para que el conflicto no se convierta en una lucha sin esperanza para los seres humanos. Incluso algunas historias expresan la jocosa idea de que nuestra tecnología moderna, como el velcro, los hornos de microondas o la liposucción, es producto de ingeniería inversa aplicada a platillos voladores. Sin embargo, suponiendo que tenemos acceso a dicha tecnología para estudiarla, esta tarea requeriría un esfuerzo titánico, por decir lo menos. Un ejemplo de la vida real: en la década de los 1960, la NASA creó los Saturno V, unos cohetes que nos permitieron llegar a la Luna, y son considerados una de las más impresionantes hazañas de ingeniería de todos los tiempos. En 2004, la agencia espacial norteamericana buscó replicar su potencia como parte del Proyecto Constelación, pero no fue posible hacerlo, debido a que la infraestructura con la que se construyeron estos cohetes ya no existe. Se estima que se necesitarían dieciséis mil millones de dólares (US$16,000,000,000) para recrear las industrias y procesos requeridos por el Saturno, más quinientos cincuenta millones de dólares (US$550,000,000) por lanzamiento. Por esos precios, es mucho más sencillo crear desde cero versiones que sean igualmente potentes, aunque más ligeras, fuertes y hasta reutilizables – algo que de hecho, están tratando de lograr empresas como Blue Origin y SpaceX.

Así entonces, la ciencia ficción eventualmente se volverá realidad, haciendo innecesario importar tecnología de “hombrecillos verdes”. El problema principal es el tiempo que nos tomará llegar hasta ahí, debido a la interacción de factores como la continua evolución de la ciencia, cuáles son sus costos de implementación y qué tan segura o deseable puede llegar a ser. Después de todo:

Sólo aquellos que intentan lo absurdo alcanzarán lo imposible.

M. C. Escher (1898 – 1972). Dibujante y litógrafo holandés.

h1

Qué tan rápido se puede viajar en 1914, 2016… y el 2036

02/05/2016

Travel [Icon By Buuf]  Viajes.

El mundo es un libro, y quienes no viajan, leen sólo una página.

San Agustín de Hipona (354 – 430), teólogo y filósofo Romano, obispo de la Iglesia Católica.

Aunque la mayoría de nosotros no viaja más allá de un centenar de kilómetros al día, podemos sentirnos afortunados, ya que hace cien años, viajar entre dos puntos que hoy nos parecerían a tiro de piedra, se convertía en un verdadero tormento. De acuerdo al mapa isócrono publicado por la revista Intelligent Life, en 1914 los tiempos de viaje se medían en días, no en horas:

Pic: Isochronic Distances Map - 1914


Mapa isócrono que muestra cuánto tiempo se requería para viajar de la ciudad de Londres (Reino Unido) a cualquier otro punto del planeta, en 1914 (cada tono representa 5 días de viaje). Debido al alto desarrollo del continente Europeo, a principios del siglo pasado viajar de Londres a digamos, Moscú (Rusia) tomaba alrededor de 5 días; viajar de Londres a la mayoría de las capitales de Latinoamérica tomaba entre 10 y 20 días y llegar a lugares que si bien eran cercanos, pero no contaban con infraestructura de transporte alguna, como África o Asia Central, tomaba 40 días o más de recorrido.

Lo interesante es que en aquél entonces, el ferrocarril era el medio de transporte de mayor rapidez, el cual disminuía considerablemente el tiempo de viaje: así podemos explicar cómo en 1914, viajar de las Islas Británicas, que en aquél entonces eran consideradas la capital económica, política y cultural del mundo, a Vladivostok en Rusia Oriental, tomaba tan sólo 5-10 días, gracias al Ferrocarril Transiberiano. Por el contrario, lugares con poca infraestructura ferroviaria como el Amazonas o el corazón de África, podía literalmente, tomar meses de recorrido.

A principios del siglo 21, el medio de transporte más veloz y de mayor uso para viajar estas distancias es el avión comercial. Así, es posible trasladarse a cualquier lugar del mundo en un máximo de 2 o 3 días. Conservando el mismo estilo cartográfico, el sitio de viajes Rome2rio publicó los tiempos necesarios para ir desde Londres a cualquier punto de la Tierra:

Pic: Isochronic Distances Map - 2016


Mapa isócrono que muestra cuánto tiempo toma viajar de la ciudad de Londres a cualquier otro punto del planeta, en 2016 (cada tono representa alrededor de 8 horas). Gracias al avión, viajar del Aeropuerto de Londres-Heathrow a cualquier lugar del mundo toma en promedio, 6 a 12 horas. Por ejemplo, de Londres a Buenos Aires (11,102 kilómetros) tomaría alrededor de 14 horas en un vuelo directo, mientras hace 100 años, este viaje habría requerido de 20 a 30 días para completarse.


(Fuente: rome2rio.com)

Por lo tanto, en nuestra época actual, el mundo está más conectado que nunca: ahora es posible alcanzar destinos tan exóticos como Turquía desde Monterrey (México) en 17 horas, o Irán desde Buenos Aires (Argentina) en tan sólo 22 horas, cuando hace cien años podría habernos tomado un par de meses e incontables rutas por mar y tierra, incluyendo literalmente, aquellas caravanas de camellos que llegamos a ver en las películas.

Sin embargo, este no es el final de la historia. Gracias a visionarios como Richard Branson y John Carmack, dueños de las compañías Virgin Galactic y Armadillo Aerospace respectivamente, dentro de algunos años se perfeccionará el vuelo suborbital comercial, reduciendo los tiempos hasta en un 90% del tiempo actual. Así, dentro de un par de décadas, el viaje de Londres a Nueva York se llevará a cabo en tan sólo 50 minutos (hoy por hoy toma casi 8 horas en vuelos sin escala), convirtiendo éste en un mundo cada vez más pequeño e interconectado, en el que viajar al otro lado de la Tierra – por ejemplo, de Bogotá (Colombia) a su antípoda, Yakarta (Indonesia) – tomará no más de 4 horas. Aunque de momento el costo es prohibitivamente elevado en USD 250,000 por un boleto sencillo, la tecnología ya existe, por lo que seguramente el avance tecnológico y las demandas del mercado terminarán por “democratizar” este nuevo modo de viajar. Sólo como referencia, el mapa de más arriba se generó justo cuando aparecía el primer vuelo comercial del mundo, entre San Petersburgo y Tampa (Florida), el 1o. de Enero de 1914 por un costo aproximado de USD 4,936 a precios actuales.

Si recordamos que para la década de 1920 ya existían varias decenas de aerolíneas comerciales en todo el mundo – incluyendo Colombia, México y Brasil – basándose en una tecnología de apenas 17 años de existencia, no es muy difícil pensar que para la década de los 2030s exista una adopción generalizada del vuelo suborbital, aunque sea para la gente pudiente. Así como algunos de nosotros llegamos a darnos nuestra escapadita en avión a centros vacacionales “cerca de casa” (por ejemplo, Cancún, Los Cabos u Orlando desde la Ciudad de México), es probable que los nietos tengan la posibilidad de darse sus escapaditas a Sídney, Dubái o Macao. Después de todo, los automóviles, los aviones y los cruceros también eran algo que hace apenas unas décadas, sólo los ricos podían pagar.

h1

El futuro del trabajo: el robopocalipsis laboral

01/22/2016

Scibook [Icon By Buuf]  Ciencia y Tecnología.

La automatización es como Voldemort: aquella aterradora fuerza que nadie está dispuesto a nombrar.

Jerry Michalski, analista y consultor estadounidense, fundador del Relationship Economy eXpedition (REX), instituto de investigación dedicado a la adopción del cambio tecnológico y social.

Hace ya algún tiempo, publiqué un post relacionado a los soft-skills, o habilidades que forman parte de nuestra personalidad, requeridos para poder sobresalir en un mercado laboral cada vez más competitivo debido a la inexorable marcha de la globalización. Entre ellos destacaba el pensamiento crítico, conocimientos acerca de software colaborativo, así como inteligencia emocional, pues éstos nos ayudarían a navegar a través de los fuertes cambios que se avecinan.

Aparentemente, el destino ya nos ha alcanzado. De acuerdo a un reporte publicado por el Foro Económico Mundial (Inglés: World Economic Forum o WEF), debido a los avances en la robótica, inteligencia artificial, impresión en 3D y otras tecnologías emergentes, es muy probable que para el 2020, la así denominada Cuarta Revolución Industrial tendrá como resultado una pérdida neta de 5.1 millones de empleos alrededor del mundo. Puede no ser mucho, pero este es el “inicio del fin” para muchos tipos de profesión gracias a una mayor automatización y adopción de nuevas tecnologías.

De acuerdo al reporte, las cifras obtenidas se basan en encuestas y datos proporcionados por las áreas de recursos humanos de 371 empresas alrededor del mundo, cuya fuerza de trabajo combinada incluye alrededor de 13 millones de empleados, localizados en 15 economías del primer mundo y de los mercados emergentes – los países asiáticos miembros del ASEAN, Australia, Brasil, China, Francia, los países árabes miembros del CCEAG, Alemania, India, Italia, Japón, México, Sudáfrica, Turquía, Reino Unido y los Estados Unidos. Los resultados son impactantes:

Pic: Job variance in number of positions by economic activity (2015 vs. 2020)


Variación en miles de empleos por actividad económica (2015 vs. 2020). Según el Foro Económico Mundial, las tecnologías emergentes afectarán directamente nuestras perspectivas de trabajo, incluyendo compensación, seguridad de empleo y equilibrio entre la vida laboral y la personal. De hecho, algunas industrias como el entretenimiento y los medios de comunicación, ya están siendo muy golpeadas.

Los trabajadores más afectados negativamente serán aquellos que tengan empleos de oficina tradicionales (el proverbial Godínez, de acuerdo al argot mexicano), perdiendo un total de 4.7 millones de puestos de trabajo. Le siguen los trabajadores de la manufactura y producción con 1.6 millones, y los de la construcción y extracción de recursos con 0.49 millones. Todo esto, debido a una mayor explotación de herramientas que mejoran la productividad de los empleados, haciendo redundantes muchas posiciones de trabajo. En total, se espera que para el 2020, alrededor de 7.17 millones de personas perderán su puesto debido a la adopción de nuevas tecnologías. Sin embargo, no todo está perdido: 2.02 millones de posiciones nuevas se crearán precisamente, gracias a nuevos procesos, herramientas y paradigmas: las áreas de negocio y financieras, gestión, TI, matemáticas, arquitectura e ingeniería serán las de mayor crecimiento durante el próximo lustro.

La Revolución de las Máquinas

De acuerdo al reporte, la internet móvil, la Nube, Big Data y la Internet de las Cosas serán las tecnologías que mayor disrupción ocasionarán en el mercado laboral durante los próximos años; así mismo, se espera la adopción definitiva del modelo de trabajo flexible, un mayor crecimiento de la clase media en los mercados emergentes y los cada vez más inquietantes efectos del calentamiento global.

En el caso puntual de los trabajadores de las tecnologías de información, existirá un boom de oportunidades; con un crecimiento de alrededor de 1.74% a nivel global, las especialidades de mayor demanda tendrán que ver con el desarrollo de software y aplicaciones, así como la instalación y mantenimiento de bases de datos y redes. Las habilidades más buscadas incluyen la resolución de problemas complejos, pensamiento crítico y creatividad; soft-skills que incluso hoy, son indispensables para encontrar y mantener un trabajo bien pagado en la industria, y que difícilmente, serán reemplazados por máquinas en el corto o mediano plazo.

Pic: Top 10 skills demanded by recruiters (2015 vs. 2020)


Top 10 de habilidades requeridas por los reclutadores (2015 vs. 2020). La solución a problemas complejos, coordinación con otras personas y gestión de personal, son las habilidades más buscadas por los reclutadores de hoy. Dentro de cinco años, además de éstos, el pensamiento crítico y la creatividad se harán indispensables para obtener y conservar un buen empleo.

El problema es que hasta ahora, la automatización tan sólo había afectado a la clase trabajadora; esta nueva ola de cambios amenaza con golpear a los profesionistas también. Lamentablemente, muchos de nosotros no estamos preparados para estos cambios: nuestros sistemas educativos no están capacitándonos para estos trabajos del futuro, por lo que una gran mayoría de los desplazados terminará en empleos mal pagados de la industria de servicios y en un peor escenario, con subempleo o desempleo permanente. Por ello, el Foro Económico Mundial ofrece una amplia gama de recomendaciones para prepararse ante lo que eventualmente conoceremos como el robopocalipsis laboral:

Los gobiernos y las empresas tendrán que cambiar profundamente su enfoque en la educación, las habilidades y el empleo, así como la manera en que colaboran unos con otros. Las empresas tendrán que poner el desarrollo del talento y estrategia de fuerza de trabajo futura, al frente de su estrategia de crecimiento.

Las organizaciones ya no pueden ser consumidores pasivos de capital humano ya formado; requieren una nueva mentalidad para satisfacer sus necesidades de talento y optimizar los resultados sociales.

Los gobiernos tendrán que reconsiderar de manera fundamental los modelos educativos de hoy. Y conforme el tema se vuelva cada vez más urgente, los gobiernos tendrán que mostrar un liderazgo más audaz, al incluir cambios en la regulación de los planes de estudio y mercado laboral, que en algunas economías, sufren un retraso de décadas.

The Future of Jobs. (World Economic Forum, January 18, 2016).

Siendo así las cosas, los trabajos profesionales que gozan de una relativa seguridad son aquellos que requieren un esfuerzo mental de alto nivel (trabajos creativos, coordinación de personal) o fuertes interacciones humanas (ventas, servicios de salud). Todo lo demás terminará por ser automatizado. Para darnos una idea de cómo cambian las cosas en un plazo tan corto, encontramos un pequeño artículo publicado por el Pew Research Center, describiendo algunos puestos de trabajo relacionados a la tecnología que ni siquiera existían hace 15 años:

• Para 2013, aproximadamente 165,100 estadounidenses trabajaban como especialistas en soporte de redes de computadoras, 141,270 como arquitectos de redes informáticas, y 78,020 como analistas de seguridad de la información. Ninguno de estos puestos existía en 1999.

• Así mismo, para 2013 existían alrededor de 112,820 web developers, incluso si recordamos que en 1999 ya se encontraba en pleno auge la burbuja del punto com, que en su momento fue llevada a cabo principalmente por programadores en CGI y PHP en conjunto con diseñadores gráficos.

• No sólo las telecomunicaciones han generado nuevos puestos de trabajo, gracias a la creciente importancia de las fuentes de energía renovables. Para 2013, ya existían 4,130 instaladores de paneles fotovoltaicos solares, así como 3,290 técnicos de mantenimiento de aerogeneradores.

• Con paradigmas como just-in-time, cadenas de suministro globales y comunicación distribuida, es cada vez más necesario el rol de logista. Para 2013 ya existían 120,340 estadounidenses trabajando en este campo de la logística.

Por ello, sin caer presas del pánico, tenemos que prepararnos para lo que viene, para que no nos convirtamos en víctimas de la tecnología. Poniéndolo de forma elegante, “crustáceo decápodo que pierde su estado de vigilia… será arrastrado por el ímpetu marino.

h1

¿Qué es la estrategia TI Bimodal (Bimodal IT) y cómo podemos implementarla?

01/08/2016

Wizdoc [Icon By Buuf]  Tips & Tricks.

No importa qué tan lento vayas, siempre y cuando no te detengas.

Confucio (551 – 479 AC). Profesor, editor, político y filósofo chino.

Hace un par de semanas tuvimos una reunión con cliente relacionada a su estrategia TI y cómo piensa crecer durante el próximo año fiscal. Durante la junta salieron a relucir algunas palabras clave como innovación o implementación ágil. Sin embargo, la frase que nos dio la respuesta a lo que realmente está buscando, se resume en dos palabras: estrategia bimodal. ¿De qué se trata? ¿Por qué algunos la están considerando como la nueva panacea que asegurará la competitividad de las organizaciones TI? ¿Y cuáles son los riesgos encontrados durante su adopción?

Durante el Simposio/ITxpo llevado a cabo por la firma de consultoría e investigación de mercado Gartner en Octubre de 2014, el vicepresidente senior y jefe global de investigación, Peter Sondergaard, señaló que mientras los CIOs no sean capaces de transformar sus departamentos TI de manera que sean más ágiles y competitivos, podrán convertir sus organizaciones mediante un modelo TI Bimodal; de hecho, según Gartner, para el 2017, el 75% de las organizaciones de TI tendrá una capacidad bimodal. Este modelo se describe como “La práctica de gestionar dos modos distintos y coherentes de ejecución de TI, uno centrado en la estabilidad y el otro en la agilidad. El Modo 1 es tradicional y secuencial, haciendo hincapié en la seguridad y precisión. El Modo 2 es exploratorio y no lineal, con énfasis en la agilidad y rapidez.” Así, la organización tendrá dos maneras de llevar a cabo sus iniciativas TI:

Modo 1

• Involucra a proyectos relacionados con el mantenimiento de los sistemas centrales (core systems) – usualmente las bases de datos y sistemas legados.
• Se centra en proporcionar estabilidad y eficiencia, respetando los ciclos de desarrollo más tradicionales, como cascada.

Modo 2

• Involucra a los proyectos que ofrecen innovación y agilidad para el negocio.
• El foco está en la respuesta rápida, mientras trabaja en liberaciones frecuentes (básicamente, desarrollo ágil de software).

No tan rápido

Sin embargo, el problema que intenta atacar Gartner no es nuevo (agilidad vs. estabilidad); por el contrario, si no se lleva a cabo de manera adecuada, el modelo bimodal puede degenerar en una lucha de poder entre las dos áreas, ya que es indispensable una colaboración transparente entre ambas con el afán de agregar valor de negocio. Las consecuencias, descritas en la revista CIO Insight, se enumeran a continuación:

• La primera y de mayor impacto sería la creación de silos artificiales para productos, procesos y personas. Esta es la dirección opuesta a toda tendencia organizacional saludable de TI desde que el término “síndrome del silo funcional” fue acuñado por Phil Ensor en 1988. TI Bimodal en silos significa lanzarse al ruedo precipitadamente, ignorando numerosos estudios publicados durante los últimos cuatro decenios.

• Estancamiento del Modo 1: El enfoque bimodal propone aplicar una curita sobre la herida que representan las plataformas tradicionales, pero no hace nada por detener la hemorragia. Este modelo institucionaliza el estancamiento, al desalentar la innovación en plataformas legadas bajo el pretexto de que “si no está roto, no lo arregles”.

• Rigidez del Modo 2: En palabras de Gartner, “el Modo 2 requiere un enfoque riguroso y disciplinado”, así que el modelo bimodal prescribe un flujo de proceso definido, previsible y lógico en torno a lo que en esencia, es un proceso impredecible para la experimentación y el descubrimiento. Algo así como “Pintura por números para la obra de Jackson Pollock.”

• Sobre-simplificación de procesos: Las nuevas aplicaciones se acuñarán en torno a uno de dos modos y serán siempre encerradas en un modus operandi que sin duda resultará ser inadecuado a largo plazo. TI Bimodal cierra las puertas a las aplicaciones legadas del Modo 1 para evolucionar a las ofertas ágiles del Modo 2; por el contrario se endurecerán las condiciones para que un prototipo ágil del Modo 2 pueda convertirse en una oferta de servicio más estable de acuerdo al Modo 1.

¿Cómo implementarla?

Aunque TI Bimodal suena bastante razonable sobre el papel, en la práctica los principales retos a sortear incluyen la priorización de los proyectos, la distribución de recursos entre ambos modos, integración o intercepción de proyectos (ya que por ejemplo, una aplicación móvil no es nada sin un back-end estable que la soporte) y cómo mantener a la organización, proveedores y socios de negocios apegados a esta visión. En pocas palabras, para alcanzar la meta planteada, es fundamental definir un gobierno TI o governance adecuado. Aunque la definición completa de un gobierno TI no es el objetivo de este post, baste decir que éste debe incluir los siguientes puntos:

• La alineación entre la estrategia de la organización y las TI.

• Obtención de valor que las TI generan para la organización.

• Mecanismos que permitan mediciones apropiadas para poder valorar las TI en su conjunto y poder tomar decisiones respecto a su gobierno.

• Gestión del riesgo que en un momento dado pueda afectar e impactar negativamente en las actividades y procesos de la organización.

• Gestión de los recursos TI y la utilización óptima de los mismos.

El gobierno TI debe facilitar un modelo transparente en el que todos los interesados tengan visibilidad sobre el día a día de las operaciones y el avance del programa estratégico. Asimismo, el modelo debe proveer una comunicación y priorización claras, que ayuden en la detección y resolución de problemas más rápidamente. Por ello, el proceso de gobierno debe abordar los siguientes tres niveles de revisión:

1. Estratégico: Cuando a un nivel de dirección ejecutiva, los diferentes grupos de interés puedan mantener y hacer crecer la relación (evitando caer en luchas de poder), resolviendo asuntos importantes, manteniendo la dirección establecida y aprobando los cambios estratégicos y el plan para el futuro.

2. Táctico: Donde a través de reuniones periódicas de los grupos de interés, éstos son capaces de asegurar que se está avanzando de acuerdo a los objetivos generales del programa.

3. Operacional: Cuando todos son capaces de trabajar sobre una base del día a día para ofrecer los servicios y entregables TI, respondiendo a peticiones, problemas y consultas, en línea con los objetivos del programa.

Pic: Bimodal IT Governance Example


Para que TI Bimodal – o cualquier otra estrategia de TI – tenga éxito, la visión tiene que ser compartida por todos los niveles de la organización: la alta dirección, proveedores, socios de negocio, gerentes de proyecto y equipos de trabajo por igual. Además, el éxito se mide no sólo por la entrega de valor a la organización de TI, sino por el valor del negocio; es decir, que la estrategia TI beneficia al negocio de una manera cuantificable. El éxito del programa, por lo tanto, debe ser comunicada a todos los niveles de la organización.

Parafraseando a George Orwell, aunque los tres niveles de revisión son igualmente importantes, algunos son más iguales que otros: el nivel estratégico tiene como principal responsabilidad mantener alienada la estrategia con los objetivos de negocio, monitoreando el desempeño de las demás áreas y detectando y resolviendo cualquier riesgo de alto nivel que se llegue a presentar; por otro lado, el nivel operativo lleva a cabo los proyectos individuales, reportando su progreso y asegurándose que las métricas impuestas por los otros dos niveles se cumplan. Sin embargo, el nivel que es crucial durante la implementación es el nivel táctico (la Oficina de Gestión de Proyectos o PMO, así como el Centro de Excelencia o CoE) ya que tiene por principal responsabilidad:

• Generar estándares y procesos, así como seleccionar las herramientas y tecnologías que usará el resto de la organización.

• Revisar el rendimiento y apego a normas de desempeño acordados para todos los grupos.

• Desarrollar el programa de implementación de la estrategia.

• Llevar a cabo el presupuesto, planeación y asignación de recursos.

• Asegurarse de que todas las políticas, planes, normas, etc. permean a los equipos de la organización.

• Resolver problemas tácticos escalados con el Comité de Gobierno estratégico (Steering Committee) y

• Escalar problemas al Comité de Gobierno cuando sea apropiado (por ejemplo, asuntos contractuales).

Algunos tips durante la adopción de este modelo

La gran ventaja de Bimodal es que la organización ya debería poseer un área de operaciones/desarrollo relativamente madura trabajando en Modo 1; esta madurez es precisamente la que asegura una implementación ordenada y estable, pero impide que iniciativas “para ayer” se concreten eficazmente. Por lo tanto, el proceso de adopción debe enfocarse a la creación del Modo 2 y cómo sus equipos deben interactuar y coordinarse eficientemente con los equipos del Modo 1. Por lo tanto, una adopción debe considerar entre otros, los siguientes puntos dentro del programa de implementación de estrategia:

• Una evaluación de la capacidad (readiness assessment) para convertir un segmento de la organización al Modo 2 de operación. Esto permitirá saber qué equipos y proyectos pueden generar el mayor valor de negocio en el menor tiempo posible. Por ejemplo, los proyectos más apropiados para llevarse a cabo en el Modo 2 son aquellos que poseen 1) fechas de entrega muy agresivas, 2) un alto grado de complejidad, y 3) un alto grado de innovación.

• Identificar uno o varios coaches versados en el Modo 2 de operación – Scrum, Lean, Kanban, V-Model, etcétera – que puedan resolver las dudas durante la implementación. Éstos por supuesto, deben ir de la mano con el Centro de Excelencia para definir los procesos, herramientas y entregables de gestión y desarrollo ágil que adoptará la organización.

• En caso de que los equipos del Modo 2 se hayan integrado con el personal original de la organización, es indispensable enfocarse en el cambio cultural. Si bien las prácticas y herramientas ágiles son importantes, establecer una mentalidad ágil es indispensable. Esto implica creer firmemente en el empowerment, liderazgo subordinado o equipos multidisciplinarios. El beneficio es que aseguramos una mentalidad de colaboración y urgencia para satisfacer las cambiantes demandas del negocio.

• Para el momento en que se inicie el delivery de equipos en el Modo 2, ya se debe haber seleccionado una herramienta de planeación (por ejemplo, JIRA o VersionOne), se debe haber proporcionado el entrenamiento adecuado a los equipos y se deben haber definido las métricas mínimas para que de manera periódica, pueda existir una rendición de cuentas al Comité de Gobierno.

• Finalmente, una vez que se han dado los primeros pilotos de adopción del Modo 2 y se ha establecido la manera en que ambos tipos de equipo estarán colaborando, es indispensable generar un proceso de mejora continua para perfeccionar la integración de todos los interesados. Para este momento, iniciar la estandarización – por ejemplo, certificar los proyectos corriendo en Modo 1 en CMMi-5 y los proyectos ejecutados en Modo 2 en CMMi-3 – ya es posible.

Conclusiones

La estrategia Bimodal NO es la bala de plata. Es tan sólo un paso intermedio hacia la introducción de prácticas como DevOps. A final de cuentas, lo que cualquier organización debe buscar, es la convergencia para actualizar sus procesos e infraestructura a la realidad del mercado. Hace algún tiempo, el analista independiente Jason Bloomberg dio su propio punto de vista al respecto de lo que él llamó una “receta para el desastre” de Gartner, añadiendo su propia recomendación: … para que la transformación digital tenga éxito, debe ser de extremo a extremo – con los clientes en un extremo y los sistemas legados del otro. TI tradicional, por supuesto, sigue siendo responsable de los sistemas legados.

Así, el enfoque debe ser el de empresas exitosas como Apple, Amazon o Google:

• ¿Cómo podemos deleitar a los clientes con nuevos productos y un mejor servicio?

• ¿Cómo se puede mejorar continuamente nuestro negocio con pequeños incrementos?

• ¿Cómo podemos optimizar la cadena de valor?

• ¿Cómo nos aseguramos de que el negocio impulsa el cambio y no el departamento de TI o marketing?

La clave reside en contestar estas preguntas honestamente y trabajar en ello… o formar parte del registro fósil de empresas fallidas, junto a anti-ejemplos tales como Eastman Kodak, PanAm y Compaq.