Flight-Deck Automation: Something is wrong

Something is wrong with automation. If we can find diagnostics performed more than 20 years ago and the conclusions are still current…something is wrong.

Some examples:

Of course, we could extend the examples to books like Information Processing and Human-Machine Interaction: An Approach to Cognitive Engineering published by Rasmussen in 1986, Safeware written by Leveson in 1995, Normal Accidents by Perrow in 1999, The Human Interface by Raskin in 2000 and many others.

None of these resources is new but all of them can be read by someone with interest in what is happening NOW. Perhaps there is a problem in the basics that is not still properly addressed.

 Certainly, once a decision is made, going back is extremely expensive and manufacturers will try to defend their solutions. An example that I have used more than once is the fact that modern planes have processors so old that the manufacturer does not make them anymore. Since the lifetime of a plane is longer than the lifetime of some key parts, they have to stock those parts since they cannot ask the manufacturers to send them.

The obvious solution should be renewal but this should be so expensive that they prefer having brand-new planes with old-fashioned parts to avoid new certification processes. Nothing to oppose to this practice. It’s only a sample of a more general practice: Keeping attached to a design and defend it against any doubt –even if the doubt is reasonable- about its adequacy.

 However, this rationale can be applied to products already in the market. What about the new ones? Why the same problems appear once and again instead of being finally solved?

 Perhaps, a Human Factors approach could be useful to identify the root problem and help to fix it. Let’s speak about Psychology:

 The first psychologist that won a Nobel Prize was Daniel Kahnemann. He was one of the founders of the Behavioral Economics concept showing how we use heuristics that usually works but we can be misguided in some situations by heuristics. To show that, he and many followers designed interesting experiments that make clear that we all share some “software-bugs” that can drive us to commit a mistake. In other words, heuristics should be understood as a quick-and-dirty approach, valid for many situations but useless if not harming in others.

 Many engineers and designers would be willing to buy this approach and, of course, their products should be designed in a way that would enforce a formal rational model.

 The most qualified opposition to this model comes from Gigerenzer. He explains that heuristics is not a quick-and-dirty approach but the only possible if we have constraints of time or processing possibilities. Furthermore, for Gigerenzer people extracts intelligence from context while the experiments of Kahnemann and others are made in strange situations and designed to misguide the subject of the experiment.

An example, used by Kahnemann and Tversky is this one:

Linda is 31 years old, single, outspoken, and very bright. She majored in philosophy. As a student, she was deeply concerned with issues of discrimination and social justice, and also participated in anti-nuclear demonstrations.

 Which is more probable?

  •  Linda is a bank teller.
  • Linda is a bank teller and is active in the feminist movement.

The experiment tries to show the conjunction fallacy, that is, how many people should choose the second alternative while the first one is not only wider but comprises the second one.

The analysis of Gigerenzer is different: Suppose that all the information about Linda is the first sentence Linda is 31 years old. Furthermore, suppose you don’t give information and simply makes the questions…we could expect that the conjunction fallacy should not appear. It appears because the experimenter provides information and, since the subject is given information, he supposes that this is RELEVANT…otherwise, why is the subject fed with this information?

In real life, relevance is a clue. If someone tells us something, we understand that it has a meaning and that this information is not included to deceive us. That’s why Gigerenzer criticizes the Behavioral Economics approach, which can be shared by many designers.

For Gigerenzer, we decide about how good a model is comparing it with an ideal model –the rational one- but if, instead, we decide about which is the best model looking at the results, we could find some surprises. That’s what he did at Simple Heuristics that Make Us Smart, that is, comparing complex decision models with others that, in theory, should get a worse performance and finding that, in many cases, the “bad” model could get better results than the sophisticated one.

Let’s go back to automation design. Perhaps we are making the wrong questions at the beginning. Instead of “What information would you like to have?”  getting a Santa Claus letter as an answer, we should ask what are the cues that you use to know that this specific event is happening?

FAA, in its 1996 study, complained about the fact that some major failures as an engine-stop can be masked by a bunch of warnings about different systems failing, making hard to discern that all of them came from a common root, that is, the engine stop. What if we ask “Tell me one fact –exceptionally I would admit two- that should tell you in a clear and fast way that one of the engines is stopped.”

We have a nice example from QF32 case. Pilots started to distrust the system when they got information that was clearly false. It was a single fact but enough to distrust. What if, instead of deciding this way jumping to the conclusion from a single fact, they should have been “rational” trying to assign probabilities in different scenarios? Probably, the plane should not have fuel enough to allow this approach.

Rasmussen suggested one approach –a good one- where the operator should be able to run cognitively the program that the system was performing. The approach is good but something is still missing: How long should it take for the operator to replicate the functional model of the system?

In real life situations, especially if they have to deal with uncertainty –not calculated risk- people use very few indicators easy and fast to obtain. Many of us remember the BMI-092 case. Pilots were using an indicator to know which engine had the problem…unfortunately, they came from a former generation of B737 and they did not know that the one they were flying had air bleeding in both engines instead of only one. The key used to determine the wrong engine should have been correct in an older plane.

Knowing the cues used by pilots, planes could be designed in a human-centered approach instead of creating an environment that does not fit with the ways used by people to perform real tasks in real environments.

When new flight-deck designs appeared, manufacturers and regulators were careful enough to keep the basic-T, even though it could appear in electronic format but that was the way that pilots used to get the basic information. Unfortunately, this has disappeared in many other things and things like position of power levers with autopilot, position of flightsticks/horns and if they have to transmit pressure or not or if the position should be common to both pilots or not…had a very different treatment from a human-centered approach. Instead, the screen-mania seems to be everywhere.

A good design starts with a good question and, perhaps, questions are not yet good enough and that’s why analyses and complains 20 and 30 years old still keep current.







Acerca de estos anuncios

“Cuarto milenio” o el atrevimiento de la ignorancia

Hace unos días tropecé con el programa “Cuarto Milenio” y me quedé a verlo cuando empezaron a hablar del armamento secreto del III Reich durante la fase final de la II Guerra Mundial. Tenían en el estudio a un supuesto experto que contó dos cosas, sólo dos, sobre las maravillas tecnológicas de la Alemania nazi y las dos contenían errores garrafales. A pesar de ello, vinieron después los tonos de asombro, los “¿qué habría pasado si la guerra dura más?”, etc.

Primer error: Los científicos alemanes de la época consiguieron un avión invisible al radar y, por ello, podía considerarse un precedente de los aviones stealth actuales. Pues bien, el avión citado -Go229- era muy meritorio por diseño -tipo ala delta- por prestaciones y por ligereza pero su invisibilidad al radar no la conseguía mediante sofisticados diseños en sus ángulos ni mediante el uso de materiales estudiados para que las ondas del radar no rebotasen sobre ellos. Simplemente, el avión estaba hecho básicamente de madera. Sin duda, una obra de arte tecnológica pero saltar gratuitamente setenta años en el tiempo y hablar de tecnologías que permitieran la invisibilidad al radar parecía sacar un poco las cosas de quicio ¿no?

Segundo error: Instalación alemana en la provincia de Lugo. Dos antenas contiguas -y atención al detalle de “contiguas”- de 150 metros de altura, supuestamente utilizadas por los submarinos alemanes para determinar su posición por triangulación. Veamos: La triangulación es una técnica muy antigua y se utilizaba ya en la II Guerra Mundial para descubrir donde se encontraban las emisoras clandestinas. Un aparato, llamado radiogoniómetro, tenía la capacidad de determinar la dirección desde la que venía una emisión pero no la distancia. Si disponemos de un segundo aparato en una posición distinta, el punto donde se cruzan las líneas es el lugar en que se encuentra la emisora.

 La utilización de dos antenas para que un submarino, mediante triangulación, pudiera determinar su posición implica que dichas antenas se encuentran distantes, no contiguas, de forma que el submarino pueda dibujar dos líneas con la dirección de emisión de cada una de ellas y, así, saber que en el cruce de ellas se encuentra el submarino. Si las dos antenas están juntas, no hay triangulación que valga.

Segundo problema: La Tierra es redonda y esto implica que la distancia que alcanza una emisora situada en tierra es escasa. En cierto modo, el problema se resuelve si quien tiene que detectar la señal es un avión y, especialmente, si está a diez kilómetros del suelo y puede, con ello, compensar el efecto de la redondez terrestre y conseguir un mayor alcance pero ¿un submarino? Además de necesitar que las antenas estuvieran distantes entre sí, el submarino está especialmente afectado por la forma de la Tierra y el alcance sería tan escaso que el submarino tendría que estar prácticamente en la costa para detectar las señales.

Lo dicho: La ignorancia es atrevida y, cuando se acompaña de la autosuficiencia exhibida por algunos programas de televisión, es además cargante.

¿Felipe VI o III República?

Para muchos, la monarquía es una institución trasnochada y la pregunta no ha lugar. Los escándalos que han afectado tanto al Rey como a su hija y su yerno pueden haber influido en la clara falta de aprecio que hoy puede verse respecto a la monarquía y, sin embargo, los políticos sin “sangre azul” se han enfangado en tantas corruptelas y han hecho tantos alardes de ser una casta aparte como los que puedan haberse hecho desde la realeza.

Quizás más que la corrupción es la inoperancia lo que mata la institución: En su momento, la monarquía se presentó como algo que estaba por encima del debate político y que era la garantía de unidad y constitucionalidad de España. Los hechos, sin embargo, han sido suficientemente expresivos de que en ninguna de estas supuestas funciones la monarquía ha estado cerca siquiera del aprobado.

Parecerían razones suficientes para optar por una República salvo que…en España los defensores de la República no suelen tomar ésta como un mero modelo de Estado sino que su modelo suele ser la II República, régimen que algunos partidos aún nos tratan de vender como una democracia frustrada por el golpe de Estado de Franco cuando en realidad fue un régimen asesino derrocado por otro que, especialmente en sus primeros tiempos, compitió con él sobre todo en su capacidad para asesinar.

La llegada de la II República se produjo tras unas elecciones municipales en las que el abuelo del aún actual Rey, en su papel de poder moderador, decidió recoger sus bártulos y marcharse, donde el PSOE de aquel momento -aunque luego sería anulado por el PCE- decidió tomar la vía revolucionaria, donde llegó a haber una columna en un periódico titulada “A paseo”, escrita por Rafael Alberti y que no invitaba a la expulsión sino al asesinato de sus contrarios y donde el hecho que prendió la mecha de la guerra civil fue el asesinato del líder de la oposición a manos de la escolta de un ministro del Gobierno. Ésta fue la democracia de la II República que algunos aún hoy nos quieren vender.

Si alguien quiere plantear el cambio de modelo de Estado hacia una república, nada que decir. Si todos los apoyos hacia esa iniciativa vienen de aquéllos que añoran la II República, por desconocimiento o peor, lo único que podría decir es “Larga vida al Rey”.

ONO: De cómo nunca debe funcionar un servicio de atención al cliente

Cualquiera puede tener una avería. Seguro. Eso sí, no cualquiera es capaz de permitir que no funcione durante horas y con carácter generalizado un servicio de telefonía móvil sin dar una explicación ni decir cuándo se arreglará.

Si un domingo por la tarde, los teléfonos móviles de un operador no funcionan, la cosa puede ser seria pero si el lunes por la mañana sigue igual y no es la primera vez que se da una suspensión de servicio, habrá que pensar que ese operador no puede utilizarse si el uso del teléfono es profesional.

Por añadidura, tienen un teléfono en el que animan a utilizar el servicio en web. En el teléfono, tras una serie interminable de menús sin posibilidad de hablar con nadie, la llamada se corta y en la web, tras un funcionamiento tercermundista, no hay ni una explicación ni sobre la avería ni sobre cuánto tardará en resolverse.

De vergüenza

Elecciones europeas en España: Una lectura interesada pero no partidista

Las elecciones europeas del pasado domingo han sido una debacle para los dos grandes partidos, debacle ganada a pulso ya que ambos se han especializado en frustrar las esperanzas de aquellos que les pagan -extraordinariamente bien- y les aguantan.

El hecho de que la abstención se haya mantenido en un nivel similar al de las anteriores elecciones europeas quita una excusa: La desafección de la política y de los políticos ha llevado a muchos a abstenerse. No; ha habido un claro desplazamiento…otra cosa es que parte del mecanismo para ese desplazamiento consista en que muchos votantes asqueados hayan dejado de votar y otros que no lo hacían se hayan dejado llevar por mensajes populistas provocando el desplazamiento.

Quizás el hartazgo de corrupción, de gente que ha aterrizado en la política porque tenía amigos y no valía para otra cosa y de engaños ha conducido a este resultado. Quizás aún estamos en un proceso similar al griego donde el bipartidismo voló en pedazos y donde los bandazos entre un partido nazi y uno de extrema izquierda, tan difíciles de comprender para los políticos, son muy fáciles de entender para cualquiera que sea capaz de ver cómo, más allá de las etiquetas, ambos supuestos extremos se parecen mucho entre sí.

Del PSOE poco se puede decir: Está pagando todavía el precio de haberse puesto en manos de un inepto sectario, tan inepto que pretendió que nadie alrededor le hiciese sombra y se rodeó de gente aún más inepta que él mismo. Después de eso, no se hizo la limpieza profunda que viene siendo necesaria desde los años finales del felipismo. Por añadidura, los casos más escandalosos de corrupción se encuentran entre los suyos y sindicatos afines. ¿Es extraño que el electorado le haya vuelto la espalda?

El PP, por su parte, tiene una historia con demasiados paralelismos con el PSOE para no ser identificado por muchos como la misma cosa: Los últimos años del felipismo y la ola de corrupción impune que los marcó -su “he entendido el mensaje” de 1993 mostró ser absolutamente falso- dio lugar a que la llegada del PP fuera saludada por muchos con el mismo entusiasmo que la llegada del PSOE 14 años antes. Habría que añadir que con los mismos resultados. Se acusó mucho a Aznar de soberbia y prepotencia pero Aznar mostró ser fuerte con los débiles y débil con los fuertes: La independencia de la justicia, destrozada bajo el PSOE, no sólo no se recuperó sino que su dependencia política recibió alguna vuelta de tuerca más, no se cerró el modelo de Estado como también se había prometido y lo único positivo que quedó de la época fue una bonanza económica basada en el ladrillo y, por ello, frágil y falsa como los hechos mostrarían mas adelante. Su torpeza y la instrumentación por otros -si no algo más- del 11M hizo el resto para expulsarlo del poder.

En 2011 se puso una vez más en evidencia que en España no se eligen gobiernos sino que se echa al que ya resulta insoportable. De otra forma resultaría difícilmente creíble que un personaje como Rajoy pudiera acceder a la Moncloa -aunque después de lo de Zapatero cualquier cosa es creíble- y cómo su inacción, vagancia o “manejo magistral de los tiempos”, como dicen sus partidarios, ha conducido al hartazgo de propios y ajenos. Por supuesto, eso sin contar con que el PP se presentó como la regeneración necesaria tras Zapatero y ha traído su propia carga de corrupción y de ineptos en posiciones claves.¿Nos extrañaremos también de que sus electores le vuelvan la espalda?

Días después de las elecciones, salió la noticia de que el asesor-factotum del PP, Pedro Arriola, tenía encuestas previas que prácticamente clavaban los resultados que salieron. La idea de Arriola ha sido siempre que “España es sociológicamente de izquierdas” y que, por tanto, lo mejor que puede hacerse es “no despertar al dragón”. Si ésta es la idea -y desde luego las actuaciones o falta de ellas así parecen mostrarlo- ese señor no debería estar ni un minuto más en un partido al que invita a presentarse acomplejado y casi pidiendo perdón por existir. No hay batalla ideológica entre los grandes: La campaña centrada en los agricultores de Arias Cañete recuerda demasiado a los famosos garbanzos de Fraga y el feminismo de Elena Valenciano, que probablemente desconoce que su partido votó en contra del voto femenino en la II República, es tan inane como lo ha sido toda la campaña.

Izquierda y derecha civilizada pueden debatir porque sus objetivos son los mismos aunque los medios promovidos sean distintos. Sin embargo, el tiempo ha llevado a que las etiquetas mismas de izquierda o derecha queden vacías y que sean atribuidas a alguien más por razón de con quién se junta que por razón de qué hace.

Sobre UPyD, Ciudadanos y VOX, lo primero que habría que decir es que sus líneas de programa son tan idénticas que es difícil de explicar por qué no se funden en una única candidatura lo que, sin duda, habría dado bastante mejor resultado. ¿También en este nivel afecta el fenómeno del personalismo y de quién es quien tiene que salir en la foto? Cierto que UPyD, aunque sea de forma marginal, ya ha tocado poder y, sobre todo en los últimos tiempos, se ha comportado como lo que era en el momento de su aparición: Un PSOE en el exilio. Aunque ya ha tenido tiempo para desarrollarse como organización, el partido parece no ser otra cosa que la agrupación de aplaudidores oficiales de su jefa de filas y lo mismo cabe decir de Ciudadanos.

En cuanto a VOX, es el perfecto paralelismo de UPyD en el sentido de ser, y además de forma declarada, el PP en el exilio hasta el punto de invitar a Aznar a actos electorales. Por añadidura, uno de sus principales líderes aparece encausado por corrupción. ¿Tiene que venir de ahí la regeneración? Seguramente, el afectado podrá decir que el asunto salió muy oportunamente…y seguramente tendrá razón al igual que la tenían José Bono y Mario Conde cuando decían que lo suyo era un tema político pero eso, con ser cierto, no da respuesta a la pregunta principal: ¿Metió usted la mano en la caja o no? No es extraño que no hayan sacado ni un diputado.

Izquierda Unida, a pesar de convertirse cada vez más en un partido antisistema, sigue teniendo sus propios asuntillos de corrupción mano a mano y en los mismos sitios que el PSOE pero, cuando hay una mayoría de gente que está harta tanto del Gobierno en ejercicio como de lo que se entiende que sería el recambio razonable, los antisistema hacen su agosto, tanto si es en la versión de extrema izquierda como si lo es en la bolivariana, filoetarra o nazionalista.

Los resultados no anticipan nada bueno. Cierto es que los resultados europeos -circunscripción única- no son extrapolables a unas elecciones generales donde la infame ley D’Hont fuerza el bipartidismo mucho más allá de lo razonable pero hay un aviso muy serio:

Basta con ver la composición del Congreso en los años comprendidos entre 1977 y 2000 para ver que ha habido una clara degeneración del perfil del político. En su mayoría, estén en el partido que estén, no son ya profesionales de alto nivel que entran a la política por ideales sino funcionarios de su partido, que no han trabajado en otra cosa en toda su vida y que no aportan más que la astucia en el pasillo y la sonrisa con la navaja escondida. Personajes como Celia Villalobos, Leire Pajín, Zapatero, Bibiana Aido, Ana Botella o los portavoces o secretarios de organización de los grandes partidos no son ya una rareza de la especie sino una prueba del ínfimo nivel a que hemos llegado.

No hay debate de ideas entre los grandes partidos. En un caso, se sustituyen las ideas por viejos clichés de principios del siglo pasado y en el otro la cobardía y los complejos de sus dirigentes llevan a no plantear tampoco ningún debate por si acaso lo pierden.

Campo abonado para demagogos peligrosos como bien ha dicho Felipe González quien, se esté de acuerdo o no con él, algo sabe de esto.

Redes sociales: ¿La nueva censura?

Hay que ser muy cuidadoso en la distinción entre opinión pública y opinión publicada y, de no serlo, pueden producirse consecuencias que acaban derivando en una nueva modalidad de censura:

Nadie, absolutamente nadie, se comporta igual cuando está en su casa, cuando está con amigos, cuando está con un conjunto de colegas o cuando está hablando para un medio público. Las redes sociales, cuando son mal utilizadas, invitan a confundir ámbitos y a que todos acabemos comportándonos siempre como si tuviéramos una cámara delante y nuestras palabras fueran a ser publicadas inmediatamente.

Ayer mismo me llevé una desagradable sorpresa en ese terreno: En un congreso, excelente en su organización y temática, hubo personas que se dedicaron a transmitir por Twitter cosas que se estaban diciendo allí. Naturalmente, se trataba de un foro supuestamente profesional y supuestamente entre colegas donde las reglas sobre qué y cómo se dice no son las mismas que cuando se habla ante una cámara. En las menciones en Twitter no sólo se quedaron con lo más escandaloso y sin añadir matizaciones hechas en la reunión sino que se llegó a incluir comentarios privados realizados fuera de la reunión general y con un café delante.

Si ése es el uso que cabe esperar de redes como Twitter, nadie debería extrañarse de que las reuniones profesionales sufran un empobrecimiento derivado de la desconfianza sobre quién y cómo va a utilizar lo que se diga. Tampoco los que actúen de esta forma deberán extrañarse de que, una vez identificados, los demás hagan un muro de silencio a su alrededor y procuren evitarlos.

Si esto es lo que debemos esperar del futuro, versiones anteriores de la censura nos acabarán pareciendo una broma comparadas con lo que viene.

¿Y si el CIS hiciera una encuesta sobre la opinión que los políticos tienen de los españoles?

Siempre me ha interesado la publicidad política porque, en algunos momentos, llegó a alcanzar una forma de arte…de la manipulación pero arte. En el PSOE de Felipe González parecía que el gabinete de comunicación del PSOE diseñaba no sólo la campaña propia sino también las de los demás partidos, tal era la diferencia que podía verse entre ellos. Algunos todavía recordamos cuando Jorge Verstrynge era el delfín de Fraga y le sacaron una foto de campaña que parecía más propia de una película de vampiros de serie B o la foto que le sacaron al propio Fraga, de perfil, que parecía sacada de una moneda…de las que tenían el perfil de Franco.

Las cosas cambiaron y la degeneración de la clase política se ha notado hasta en la publicidad del PSOE. Hemos llegado al extremo de que una frase de un dirigente del PSOE, Tomás Gómez, ha podido ser utilizada en la campaña publicitaria del PP de Madrid pero esto no significa que hayan cambiado las cosas y los publicitarios más hábiles estén ahora en la nómina del PP. Si alguien lo duda, puede ver este ejemplo de la campaña publicitaria del PP para las elecciones europeas:

Cartel electoral del PP Veamos. Lo del futuro está muy bien pero el lema que aparece más abajo, En la buena direcciónseguro que a los más viejos e incluso a algunos que no lo sean tanto les suena de algo. ¿Podría ser de esto? Cartel electoral del PSOE.

Después de tal ejemplo donde la campaña parece haber sido diseñada utilizando carteles viejos de otros partidos y pasándoles el diccionario de sinónimos, una duda me asalta acerca de la opinión de los políticos acerca de los votantes y me he animado a añadir esta breve encuesta:

¿Qué son los emprendedores?

Hoy ha llegado a mis manos este vínculo http://ideasinversion.com/blog/2014/01/07/las-diez-mejores-webs-para-emprendedores/ y, sin pretender quitarle mérito a las diez webs mencionadas en él, hay algo que me rechina un poco con el concepto de emprendedores que habitualmente se está manejando.

Lo explicaré sobre un ejemplo para que se entienda mejor: Hace bastante tiempo, tuve que impartir Recursos Humanos en un curso de 200 horas organizado por una confederación empresarial cuyo propósito era enseñarle al nuevo empresario o incluso autónomo las bases para iniciar su actividad. Me llevé la sorpresa de que la persona que organizaba el curso, que no cobraba por ello salvo sus horas docentes, se las había arreglado para que hubiera 70 horas de “Técnicas de dirección” a costa de reducir conceptos como Contabilidad a diez horas. No parece muy difícil saber de qué daba clase quien organizaba el curso ¿verdad?

Resultaba que a alguien que, tal vez, pretendía montar una peluquería trabajando solo o, como mucho, con otra persona, tenían que descubrirle todos los secretos de la comunicación, el liderazgo, la motivación, etc. pero, al parecer, no tenía la menor importancia que no tuviera la más remota idea de cómo llevar las cuentas de la peluquería.

Cuando hablamos de “emprendedores” -nótese que siempre se habla de “emprendedores” y no de “empresarios” o de “autónomos” o de “trabajo por cuenta propia”- parece que lo importante consiste en insuflar una especie de espíritu emprendedor en lugar de responder preguntas triviales cómo, por ejemplo, de dónde saco el dinero, cuál es la mejor fórmula de financiación, cuanto dinero voy a necesitar de verdad, con qué nivel mínimo de stock puede funcionar el negocio, cómo determino cuánta gente necesito, en qué perfiles, cómo y cuánto les pago, cómo me voy a dar a conocer en el mercado…en fin, preguntas triviales que pueden permitirse ser despreciadas en favor de “crear un espíritu emprendedor”. ¿No falla algo?



The Big Data concept is still relatively new but the concept inside is very old: If you have more and more data, you can eliminate ambiguity and there are less requirements of hunches since data are self-explanatory.

That is a very old idea coming from I.T. people. However, reality always insisted in delaying the moment when that can be accomplished. There are two problems to get there:

  1. As data grow, it is more necessary a context analysis to decide which one are relevant and which others can be safely ignored.
  2. At the other side of the table, we could have people trying to misguide automatic decision supporting systems. Actually, the so-called SEO (Search Engine Optimization) could be properly renamed GAD (Google Algorithm Deception) to explain more clearly what it is intended to do.

Perhaps, by now, Big Data could be less prone to the second problem than anyone performing Web Analytics. Web has become the battlefield for a quiet fight:

By one side, the ones trying to get better positions for them and the positive news about them. These are also the ones who try to hide negative news throwing positive ones and repeating them to be sure that the bad ones remain hidden in search results.

By the other side, we have the Masters of Measurement. They try to get magic algorithms able to avoid tricks from the first ones, unless they decide paying for their services.

Big Data has an advantage over Web data: If a company can have its own data sources, they can be more reliable, more expensive to deceive and any attempt could be quite easily visible. Even though, this is not new: During the II World War, knowing how successful a bombing had been was not a matter of reading German newspapers or listening to German radio stations.

The practice known as content analysis used indirect indicators like funerals or burials information that could be more informative if and only if the enemy did not know that these data were used to get information. In this same context, before D-Day, some heavily defended places with rubber-made tanks tried to fool reconnaissance planes about the place where the invasion was to start. That practice has remained for a long time. Actually, it was used even in the Gulf War, adding to the rubber tanks heat sources aimed to deceive infrared detectors, who should get a similar picture to the one coming from running engines.

Deceiving Big Data will be harder than deceiving Internet data but, once known who is using specific data and what is doing with them, there will be always a way to do this. An easy example: Inflation indicators: A Government can decide changing the weight in the different variables or changing prices of Government-controlled prices to get a favorable picture. In the same way, if Big Data is used to give information to external parties, we should not need someone from outside trying to deceive the system. That should be done from inside.

Anyway, the big problem is about the first point: Data without a context are worthless…and the context could be moving faster than any algorithm designed to give meaning to the data. Many surprising outcomes have happened in places where all the information was available. However, that information has been correctly read only after a major disaster. For instance, emergence of new political parties could be seen but, if major players decided to dismiss them, it comes as a surprise for them, even though data were available. The problem was in the decision about what deserves to be analyzed and how to do it, not in the data themselves.

Other times, the problem comes from fast changes in the context that are not included in the variables to analyze. In the case of Spain, we can speak about the changes that 11M, and how it was managed by the different players, supposed in the election three days after. In another election, everybody had a clear idea about who was going to get a position that required an alliance. Good reasons advised an agreement and data showed that everybody was sure that the agreement was coming…but it wasn’t. One of the players was so sure that things were already done that tried to impose conditions that the other players saw as unacceptable. Consequence: The desired position was to the hands of a third player. Very recently, twopeople, both considered as growing stars, can have spoiled their options in minor incidents.

In short, we can have a huge amount of data but we cannot analyze all of them but the ones considered as relevant. At doing that, there is not an algorithm or an amount of data that can be a good replacement for an analysis performed by human experts. An algorithm or automatic system can be fooled, even by another automatic system designed to do that, context analysis can lose important variables that have been misjudged and sudden changes in the context cannot be anticipated by any automatic system.

Big Data can be helpful if rationally used. Otherwise, it will become another fad or worse: It could become a standard and nobody would dare deciding against a machine with a lot of data and an algorithm, even when they are wrong.

Frederick W. Taylor: XXI Century Release

Any motivation expert, from time to time, devotes a part of his time to throw some stones to Frederick W. Taylor. It seems, from our present scope, that there are good reasons for the stoning: Strict splitting between planning and performing is against any idea considering human beings as something more than faulty mechanisms.

However, if we try to get the perspective that Taylor could have a century ago, things could change: Taylor made unqualified workers able to manufacture complex products. These products were far beyond the understanding capacity of those manufacturing them.

From that point of view, we could say that Taylor and his SWO meant a clear advance and Taylor cannot be dismissed with a high-level theoretical approach out of context.

Many things have happened since Taylor that could explain so different approach: The education of average worker, at least in advanced societies, grew in an amazing way. The strict division between design and performance could be plainly justified in Taylor time but it could be nonsense right now.

Technology, especially the information related, not only advanced. We could say that it was born during the second half of the past century, well after Taylor. Advances have been so fast that is hard finding a fix point or a context to evaluate its contribution: When something evolves so fast, it modifies the initial context and that removes the reference point required to evaluate the real value.

At the risk of being simplistic, we could say that technology gives us “If…Then” solutions. As technology power increases, situations that can be confronted through an “If…Then” solution are more and more complex. Some time ago, I received this splendid parody of a call-center that shows clearly what can happen if people work only with “If…Then” recipes, coming, in this case, from a screen:


Technology evolution again puts the worker -now with an education level far superior to the one available in Taylor age- in a role of performer of routines and instructions. We could ask why so old model is still used and we could find some answers:

  • Economics: Less qualified people using technology can perform more complex tasks. That means savings in training costs and makes turnover also cheaper since people are easier to replace.
  • Knowledge Ownership: People have a brain that can store knowledge. Regretfully, from the perspective of a company, they have also feet that can be used to bring the brain to other places. In other words, knowledge stored by persons is not owned by companies and, hence, they could prefer storing knowledge in processes and Information Systems managing them.
  • Functionality: People commit more mistakes, especially in these issues hard to convert into routines and required going beyond stored knowledge.

These points are true but, when things are seen that way, there is something clear: The relation between a company and people working there is strictly economical. Arie de Geus, in The living organization, said that the relation between a person and a company is economic but considering it ONLY economic is a big mistake.

Actually, using If…Then model as a way to make people expendable can be a way to guarantee a more relaxed present situation…at the price of questionning the future. Let’s see why:

  • If…Then recipes are supplied by a short number of suppliers working in every market and, of course, having clients who compete among them. Once reduced the human factor to the minimum…where is it going to be the difference among companies sharing the same Information Systems model?
  • If people are given stricly operative knowledge…how can we advance in this knowledge? Companies outsource their ability to create new knowledge that, again, remains in the hands of their suppliers of Information Systems and their ability to store more “If…Then” solutions.
  • What is the real capacity of the organization to manage unforeseen contingencies, if they have not been anticipated in the system design or, even worse, contingencies coming from the growing complexity of the system itself?

This is the overview. Taylorism without Taylor is much worse than the original model since it’s not justified by the context. Companies perform better and better some things that they already knew how to manage and, at the same time, it is harder and harder for them improving at things that previously were poorly performed. People, under this model, cannot work as an emergency resource. To do this, they need knowledge far beyond the operative level and capacity to operate without being very constrained by the system. Very often they miss both.

Jens Rasmussen, expert in Organization and Safety, gave a golden rule that, regretfully, is not met in many places: Operator has to be able to run cognitively the program that the system is performing. Features of present Information Systems could allow us working under sub-optimized environments: Instead of an internal logic that only the designer can understand -and not always- things running and keeping the Rasmussen rule would be very different.

The rationale about training and turnover costs would remain but advantages from ignoring it are too important to dismiss them. The sentence of De Geus is real and, furthermore, it has a very serious impact about how our organizations are going to be in the next future.



Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 367 seguidores

A %d blogueros les gusta esto: