"LA EMERGENCIA DEL PENSAMIENTO ESTADÍSTICO"

Ted Porter

El asunto que trataré hoy es el de mi libro de 1986 (The Rise of Statistical Thinking 1820-1900). En él trataba los alcances de la estadística en una amplia gama de la ciencia, incluyendo la biología y la física, así como las ciencias sociales. Aquí hablaré principalmente sobre estadísticas sociales. Deberíamos prestar atención, de todos modos, al hecho de que el mapa de las disciplinas sociales era diferente en el siglo XIX. La novena edición de la Encyclopedia Britannica de 1887, no tiene ni siquiera una voz de "sociologÌa". La voz "estadística" concede alguna extensión, hasta décadas recientes, a su sujeto matríz: una ciencia política, asociada a los métodos cuantitativos. En 1850 la estadística iba a convertirse, probablemente, en la principal ciencia social. Esta visión era de dominio general y cuando, por ejemplo, los físicos (James Clerk Maxell) o biólogos (Francis Galton) hablaron de sus investigaciones como estadísticas, estaban haciendo una analogía con el contenido de los métodos de las ciencias sociales.

 

A lo que yo llamo aqui "pensamiento estadístico" aparece antes que nada en las ciencias sociales. ¿que es el "pensamiento estadÌstico"? En el nivel más elemental la estadística significa trabajar con agregados o colecciones, con fenómenos de masas, dejando aparte las consideraciones sobre los individuos. La estadística estaba unida al nuevo discurso colectivista sobre la "sociedad" que se desarrolla en los comenzos del siglo XIX como una primera versión de la "ciencia social". La estadística no presuponía, como hiciera la probabilidad matemática en el siglo XVIII, que los individuos fuesen racionales. Los estadísticos partieron de la información general de los censos y la tabulaciones. Estaban especialmente preocupados por los fenómenos desordenados y variables como el crimen y el suicidio, fenómenos que no podían explicarse muy bien a nivel individual, Así era sorprendente, y de algún modo gratificante, que el orden, ausente entre los individuos, parecía emerger al nivel de lo colectivo. ¿Quien puede decir por qué un individuo elige casarse o quitarse la vida? Sin embargo las cantidades anuales de matrimonios y suicidios eran sorprendentemente estables.

 

Este punto de vista era bastante innovador en las ciencias humanas. También era nuevo para la ciencia en general. El ideal de ciencia fué explicado por Isaac Newton: analizar descendiendo hasta el nivel de la simplicidad, donde se puedan hallar leyes universales y de ellas derivar después el comportamiento de sistemas más complejos. La estadística abandonó la búsqueda de la simplicidad al nivel de los individuos y encontró el orden en los colectivos. Esta fué la aproximación a la que llegó la fÌsica del gas cuando derivó las leyes de la presión y la temperatura partiendo de un modelo clásico de cinemática molecular; y de un modo diferente la biología cuando investigó la transmisión de la variación de los padres a la progenie.

 

El orden que emerge de los grandes números no nos sorprende actualmente. A comienzos del siglo XIX era visto como algo asombroso. Antes en el siglo XVIII, la regularidad de la proporción de nacimientos de hombres y mujeres era comprendida como una prueba de la providencia divina. A finales de los años 1820, cuando las estadísticas criminales en Francia mostraron una constancia aproximada en el número de crímenes, muchos observadores se sorprendieron. Era como si los hombres y las mujeres fueran dirigidos por un destino maléfico, como si hubiera un presupuesto para el crimen, como lo hay para los impuestos, que tenía que ser exacto sin importar los ánimos o deseos de los hombres y mujeres que cometieron los crímenes. Esta constancia del crimen fue descrita en muchas publicaciones como algo digno de asombro.

 

Este penoso hecho, de todos modos, pronto fué convertido en una ventaja ideológica de la que ofezco dos versiones:

La primera es la de Adolphe Quetelet, un astrónomo belga convertido en estadístico, que estaba profundamente preocupado por la violencia revolucionaria de su época, y en particular por la acontecida en 1830. Quetelet encontró consuelo en las estadísticas porque desvelaban una estabilidad inesperada en la sociedad. También parecían mostrar que la sociedad respondía a determinadas leyes, que podía haber una ciencia de la sociedad. Esa ciencia podía incluso ser predictiva, capáz de descubrir las causas del crimen y proveer los instrumentos para combatirlo. Este punto de vista de la estadística favoreció la actividad del Estado orientada a la imposición de las condiciones sociales.

El segundo tipo de argumento lo aportó el historiador inglés Henry Thomas Buckle. Buckle fué un gran liberal al estilo inglés. Vió la regularidad estadística como la consecuencia de la ineficacia de las políticas. Las leyes de la estadística, dijo, son inexorables, y ni el individuo ni la intervención pública puede evitarlas. Tampoco se puede evitar el curso de la historia, que tiende a la propiedad privada y a la miminización del papel del Estado.

 

Las estadísticas de Quetelet estaban vinculadas al censo. Esto significaba contar a toda la gente y no mostrar consideración hacia nadie. Sus teorías por lo menos, formaron conjuntos sociales a partir de material homogéneo. Es necesario distinguir su perspectiva teórica de sus métodos de trabajo, para los cuales, como muchos o la mayoría de los autores que escriben sobre estadística, estaba preocupado principalmente por las condiciones de los trabajadores de la industria, trabajadores indigentes, mujeres y niños, criminales y otras personas cuyas vidas, parecía que necesitaban ser ordenadas por la acción pública.

Las estadísticas eran un buen ejemplo de una ciencia social del tipo descrito por Michel Foucault. Pero en sus concepciones más teóricas, Quetelet imagino una mecánica social semejante a la mecánica celestial, una masa de material homogéneo siguiendo un curso a través e la historia. Esta homogeneidad la expresó en su doctrina de l´homme moyen. El modo de investigar la sociedad era el estudio de las propiedades de ese hombre tipo. Quetelet fue tan lejos como para aplicar la teoría de los errores matemáticos a la variación humana, lo que implicaba que toda desviación respecto al hombre medio no era más que un error.

 

Quetelet fué un gran experto en la teoría de la probabilidad. Se quejaba a menudo del abuso que de las estadísticas hacían sus contemporáneos, aunque nunca cito a los autores de tales abusos. Discutió que la ignorancia de la probabilidad era la fuente de los errores de esos autores. Es interesante, incluso, que hiciera muy poco uso de la estadística en sus propios estudios estadísticos. Encontramos muy pocas estimaciones de errores probables y absolutamente ninguna confianza en las muestras. En nuestro siglo la muestra se ha convertido en una herramienta integral para las estadÌsticas sociales y su casi ausencia en el siglo XIX es incomprensible.

El puzle llega a ser mayor cuando nos damos cuenta de que hay algunas instancias notables de estimación de la población basadas en muestras en el siglo XVIII. La más conocida de estas el la realizada por Pierre Simon Laplace, un famoso matemático y físico cuyo trabajo sobre la probabilidad fué canónico durante la mayor parte del siglo XIX. Laplace estimó la población francesa partiendo del total de movimientos de la población (recogido sistemáticamente) y de una estimación del promedio de nacimientos. Esta estimación se basaba en una enumeración completa a nivel local. Suponiendo que la ciudad escogida era representativa de toda la población, Laplace podía estimar los errores producidos en semejante estimación. Esta era la base para establecer el tamaño de la población francesa en los últimos años del Antiguo Régimen.

Quetelet estaba desanimado respecto a ese tipo de pruebas por las objeciones de su socio, el barón de Keberberg, quien mostró que las ciudades no eran iguales y que una localidad no puede tomarse como representativa de todo el Estado o nación. Esta objeción, señalada por Stephen Stigler en su libro sobre la historia de la estadística ahora está generalmente enfatizada. Deberíamos observar también que había razones favorables para evitar el muestreo. Además de todo estaba el censo, que aproximadamente después de 1800 o 1820 era instituído por todos los Estados que lo vieron como moderno. Un censo significaba una enumeración completa. ¿por qué fiarse de las estimaciones cuando puedes disponer de una enumeración completa? La estadística llegó a ser una ciencia de precisión. Era tambié una ciencia objetiva en el sentido en que pretendía depender de los hechos en vez de las opiniones. La exclusión oficial de la "opinión" por la Sociedad Estadística de Londres en los años 1830 es el ejemplo más remarcable de su ideología. Era por supuesto poco factible. Pero la evitación de las meras estimaciones llegó a ser el valor central de las estadísticas. Todo el énfasis puesto en los números y medidas estaba unido a una campaña contra la subjetividad.

 

El resurgir de la muestra estadística estaba asociado con el Instituto Internacional de Estadística, sucesor de los Congresos estadísticos que Eric Brian discutira mañana. El triunfo del modelo muestral fué alcanzado por el noruego A.N.Kiaer, en escritos presentados en los últimos años del siglo XIX. Había una seria resistencia. No deberíamos imaginar que la resistencia se debía a la mera ignorancia. Kiaer no pretendía realizar muestras al azar, sino muestras "representativas". Esto es, quería encontrar ciudades o países representativos e investigarlos en detalle para adquirir conocimientos en profundidad. Alain Desrosières asocia la emergencia de las muestras al método de la monografía de Frederic Le Play. Esto suponía un estudio minucioso de una familia, normalmente visto como opuesto a las estadísticas. Hubo algunos como Emile Cheysson que intentó combinar las monografÌas con el estudio estadístico. Kiarer estaba en cierto modo intentando lo mismo. Intentó evitar los defectos de sus muestras comprobando cuidadosamente los resultados locales con los censos estadísticos exhaustivos.

A principios del siglo XX algunos autores empezaron a recomendar el uso de las muestras al azar antes que las representativas. Para los estadíticos trabajar en la tradición de la teoría de las probabilidades era muy convincente, los hechos fortuítos son el prototipo de los cálculos de probabilidad. Sin ellos es complicado saber cómo estimar los errores probables. Algunos estadísticos prefirieron, de todos modos, un tipo de muestra que representara los principales sectores de la sociedad, en términos de sexo, raza, clase, riqueza, profesión, situación geográfica, etc. En muchos casos las distinciones no eran completamente precisas. George Gallup, uno de los pioneros de la opinión sobre el voto, defendió las muestras probabilísticas y tuvo un gran éxito con la predicción de la elección de Franklin Roosvelt en las presidenciales de 1936 en contraste con una encuesta mucho más grande realizada por la revista americana Literary Digest.

Importante fue el papel de Jerzy Neyman en 1934 con la definición en términos estadísticos académicos de la solución para muestras estratificadas. No mucho después las muestras probabilísticas se convertirían en el procedimiento standard de los estudios.


EL PAPEL DE LA ESTADÍSTICA EN LA CONSTRUCCIÓN DE LA REALIDAD.

 

El asunto que trato hoy puede parecer incomprensible. Lo que puede ser construido, podeis objetar, es por esa precisa razón no objetivo. Lo hemos estado padeciendo en los EEUU (y en cualquier otro lugar) a través de lo que llaman las "guerras de la ciencia". Estos conflictos incluyen una reacción de los científicos y otros hacia lo que interpretan como el relativismo antiguo de los sociólogos, antropólogos, estudiantes de letras e historiadores, al escribir sobre la ciencia. Estas discusiones se han extendido al continente europeo; no sé si han generado algún interés en España. En el caso de que lo haya hecho, quiero aclarar que no quiero considerar las leyes de la naturaleza como arbitrarias o fabricadas. Mis pretensiones epistemológicas son muy modestas. En primer lugar la naturaleza y la sociedad son complejas, además los investigadores tienen que elegir qué es interesante y susceptible de investigación. En segundo lugar, el conocimiento está ligado al poder (experimental, tecnológico y administrativo), luego la ciencia no es pasiva, sino que está ligada a los cambios producidos en el mundo. El tercer lugar, la comunicación del conocimiento no es automática, la persuasión y la retórica también interesan a la ciencia. Finalmente, un significado crucial de objetividad es lo que queda cuando se excluye la subjetividad. Esto último constituye mi principal interés hoy. Pero primero quiero hablar un poco sobre otro tipo de significados, sobre cómo enfocamos la objetividad del mundo.

 

En la ciencia natural este perfil del mundo aparece principalmente en la intersección entre la experimentación y la tecnología. Ian Hacking pone el ejemplo del láser. Este tipo de luz sincronizada probablemente no existe en la naturaleza, aunque por supuesto las leyes de la naturaleza lo permiten. Fue desarrollado en investigaciones militares. De hecho sus aplicaciones están en todos los sitios, desde discos compactos a la cirugía plástica. Los físicos no son los más interesados en él. Cuerpos acelerados libremente sólo existen en los laboratorios y en el espacio exterior. Las corrientes eléctricas son productos tecnológicos. La química está más y más unida a la tecnología que lo ha estado en siglos. ¿Qué es un laboratorio sino un sitio para hacer cosas que no existen en la naturaleza?, y muchas de esas cosas como las corrientes eléctricas y los láseres, han transformado el mundo en que vivimos. En pocas ocasiones la ciencia trata de la naturaleza inalterada. La ciencia trata de la intervención, no sólo, o no principalmente sobre de la verdad.

Las ciencias humanas también son más poderosas de lo que pretenden. Esto, supongo, es solo cierto si tomamos una definición amplia de la ciencia humana, que no esté limitada a la universidad y la academia. Pero ocurre igual con las ciencias naturales- que para ver su poder debemos mirar sus conexiones con el gobierno y los negocios. La cuantificación es uno de los agentes más potentes con los que los científicos sociales reconstruyen el mundo. Pensemos en cómo las prácticas de los sondeos electorales han cambiado las elecciones y además han transformado la política. Cómo son elaboradas y utilizadas las cifras económicas por parte de los gobiernos. Pensemos en la clasificación de la gente según criterios de raza, etnia, ocupación, riqueza, religión. En los Estados Unidos la categoría de "hispánico" une inmigrantes de México con gente cuyos antecesores vinieron de España, Brasil, Argentina o Bolivia. Esta categoría fue el triunfo de una idea política no bien recibida por toda la gente a la que intenta describir. Pero ahora podemos conocer (de los votos e informes que asumen la validez de esa categoría) cómo votan los hispánicos, qué comen, cómo visten, cuando se casan y cómo mueren.

¿Qué tipo de investigaciones se requieren para crear el término hispánico? Tenía que haber algún modo de identificar a esa gente. Tiene que haber cierta estabilidad en los números. Luego era necesario disponer de procedimientos creíbles de estabilidad. En los Estados Unidos discutimos sobre cuantos negros e hispánicos hay, especialmente porque el censo tiende a olvidarlos desproporcionadamente.

Mi último libro Trust in numbers dedica mucha atención a problemas de cuantificación económica, que creo que son instructivos en varios aspectos. Quiero decir algo sobre el análisis del coste-beneficio. Éste, idealizado, es un modo racional y principalmente mecánico de tomar decisiones sobre inversiones púlicas y otras acciones. Con "mecánica" quiero decir que debería ser automático y por tanto dificulte a las personas interesadas alterar el resultado. Esto es, se supone que tiene que ser objetivo en el sentido de excluir deseos subjetivos y prejuicios. Podemos llamar a esto "objetividad mecánica". Podemos verlo como ligado a un esfuerzo por ser impersonal, por anular la individualidad. Mi trabajo reciente trata sobre la carrera del estadístico Karl Pearson, quien expresó su ideal moral muy intensamente en varios escritos. Yo pienso de todos modos que la disciplina de las reglas de decisión y de inferencia es raramente impuesta por las personas en sí mismas. Esto es, que mucha gente, especialmente élites, valoran su propio juicio y tienen poca inclinación a anularlo. Ser objetivo en este sentido es de algún modo estar estandarizado, volverse intercambiable con otros expertos. ¿Quié quiere sacrificar su propia individualidad? El empuje hacia la objetividad mecánica es principalmente una adaptación a las presiones exteriores de sospecha y desconfianza. Creo que los recuentos son el gran prototipo de esa clase de objetividad. El recuento de impuestos es ejemplar. Allí, todo elemento de vaguedad será explotado para minimizar las obligaciones impositivas. Damos por hecho que la gente hará eso y entonces rápidamente se reconoce la necesidad de analizarlo con detalle. El análisis de coste-beneficio es de algún modo más ambicioso, en cuanto que aspira a la verdad y no a las meras convenciones útiles. A los economistas les gustaría disponer de una base de racionalidad genuina. Pero en temas críticos esto no es fácil. He aquí un ejemplo: muchas decisiones públicas, implicarán decisiones que causarán o prevendrán la pérdida de la vida humana. ¿Cuánto vale la vida? Para los economistas modernos, el principio aquí está claro: el valor de una vida está determinado por el riesgo asociado a esa vida. Pero esa es una magnitud muy difícil de medir. Entonces, a pesar de ese principio claro, los analistas del coste-beneficio usaron una medida diferente durante mucho tiempo que se refiere a cuanto puede ganar una persona. La ventaja de esta última medida era que podía ser estimada cuantitativamente dentro de un modesto margen de error, mientras que el método que se prefería en principio producía valores muy variables. Otro ejemplo es el valor del medio ambiente. Hasta hace poco la defensa del medio ambiente significaba generalmente (entre otras cosas) una negación de la posibilidad de equivalencia con el dinero. Pero en la maquinación de la toma de decisiones burocrática, significaba a menudo que no se le daba valor. Los investigadores sociales ahora están trabajando duro definiendo los métodos de los informes para valorar el medio natural o la diversidad biológica. No veo cómo alguien pueda pensar que estos métodos lleguen en profundidad a la verdad del asunto. Todo lo que podemos esperar realmente es que produzcan números razonablemente predictivos, que estén dentro del margen de lo políticamente aceptable. Esto es, si la objetividad se tomara como verdad estos números nunca podrían ser objetivos. Pero quizás pueden llegar a ser en gran parte impersonales, mínimamente subjetivos, lo que es suficiente para algunos pronósticos.

Mi libro presenta de forma extensa algunos capítulos acerca de los procesos que llevaron a los ingenieros hacia la definición de reglas inflexibles para el análisis del coste-beneficio. Diré solo que parece haberse dado en primera instancia una "American story"; también que los métodos tecnocráticos del análisis del coste-beneficio reflejaron la debilidad y vulnerabilidad de los expertos americanos y no principalmente su fuerza. (Los expertos realmente fuertes no necesitan métodos rigurosos o impersonales para darles credibilidad). Finalmente mencionaré que los capítulos más importantes supusieron gran acrimonia política.

Se asumía generalmente que los expertos no eran imparciales, sino que habían tomado parte en una batalla política. Sus métodos económicos soportaban sus propias posiciones y entonces parecía necesario definir un grupo de métodos rigurosamente neutrales que estarían incidiendo en todo el mundo.

 

Quiero terminar reflexionando sobre los métodos estadísticos en las ciencias humanas desde esta perspectiva. El uso de las estadísticas como una herramienta de inferencia en las ciencias sociales data quizás de principios de siglo, pero el gran empuje se dio en el período de la postguerra. Estos esfuerzos estaban asociados con mucho optimismo respecto a que las ciencias sociales podrían volverse auténticamente rigurosas, genuinamente científicas. Quiero sugerir que la exposición política y a veces mucha inseguridad en sí mismos, estaban debajo de ese optimismo. Los científicos sociales supusieron que la objetividad significaba impersonalidad antigua, significaba un medio rechazo. Pero yo no podía dejar mi argumento aquí en un análisis psicológico profundo de las ciencias sociales. Estos no profundizaron en lo más académicamente correcto, más ramas prestigiosas de las ciencias sociales, sino más en áreas aplicadas. En medicina la estadística estaba ligada a las pruebas terapéuticas. Llegó a la psicología desde los test mentales. En los Estados Unidos, al menos la ciencia estaba unida a la autoridad administrativa. La estadística era parte del proceso de las licencias de drogas y de la clasificación de estudiantes de escuela. Su concepto de objetividad estadística, disiento, fue en parte una acomodación a la presión política para los prejuicios, resultados impersonales. Uno debía haber confiado en principio en su juicio experto, pero ese tipo de confianza ha sido sustituido en los EEUU y más recientemente en otros países también. Este curso es sobre métodos cualitativos que no he mencionado. Los practicantes de la sociología cualitativa se beneficiaron, espero, de pensar en las presiones y aspiraciones que han dado forma a la ciencia social cuantitativa. Ellos quizás no quieren dar lo que piden por una objetividad mecánica completa, que ha sido tan influyente en las ciencias sociales cuantitativas. Pero deberían reconocer que la exacta cuantificación no es simplemente una ambición arrogante, sino también una acomodación a un problema de desconfianza. Los números están ligados a las matemáticas y las matemáticas han sido mucho tiempo un paradigma de razonamiento riguroso e impersonal. Las matemáticas son criticadas como inhumanas y admiradas como imparciales. Los métodos cualitativos aspiran a una sensatez y flexibilidad mayores pero se espera también que den evidencia de su imparcialidad.