Mañana

126min

Estar en serio dentro de un amanecer
constantemente de su modo asombrados.

“Viento helado”
Rosario Bléfari

La etapa prenatal despertó por mucho tiempo los más amplios y profundos intereses. Más que por esa etapa, la pregunta ha sido por cómo se forman los organismos, en particular, los animales; qué ocurre para que algo mínimo, de tamaño imperceptible, se transforme en un humano, en una gallina, en un tiburón o en una mosca. Esa es la primera pregunta, la más fundamental para cualquiera que haya estudiado o estudie el desarrollo de un organismo.

Pero observar qué pasa en las primeras etapas del desarrollo fue complicado hasta que llegaron los microscopios y otros inventos que permitieron ver y medir cosas muy pequeñas. Todavía se debate quién fue el primero que observó espermatozoides con el microscopio: Anton van Leeuwenhoek y Nicolaas Hartsoeker se han disputado el puesto. Más allá de quién haya sido el primero, a Nicolaas se lo recuerda especialmente porque en una de sus observaciones aseguró ver dentro de la cabeza de uno de los espermatozoides un minihumano al que se denominó homúnculo. Él mismo hizo unos dibujos que mostraban una figura humana enrollada en posición fetal dentro de un espermatozoide. Esto fue a fines del siglo XVII. Sin dudas, Nicolaas se sumaba al bando de los que creían que los organismos ya estaban preformados en formato diminuto y que tenían, a su vez, contenidos a otros de su mismo tipo como si fueran muñecas rusas infinitas. Con matices, claro, esta era la concepción fundamental de los denominados preformacionistas.

Por otro lado, estaban las ideas de William Harvey y otros que lo siguieron, el equipo de los epigenetistas. En 1651, un poco antes de que Nicolaas hubiera visto (o creído ver) el homúnculo, William Harvey propuso una idea bastante original. Según él, el desarrollo ocurría a partir de un material más o menos uniforme, homogéneo, que con el correr del tiempo iba tomando otras características hasta transformarse en un organismo. Aventuró que ese elemento homogéneo original podía pensarse como un huevo y escribió su famosa frase “todo viene de un huevo”, que en latín suena más glamorosa: “ex ovo omnia”. Aclaremos que, antes de Harvey, ya otros habían pensado que la cuestión iba por ese lado, pero se solía sostener que las plantas, animales y hongos se formaban a partir de reacciones que se producían en el barro, o en el excremento, o incluso de la unión misma del semen y la sangre menstrual. Harvey pensó que era mucho más factible que los animales, incluidos los humanos, tuvieran su comienzo a partir de una estructura mínima que fuera el inicio de su desarrollo: un huevo. Probablemente, sus observaciones en huevos de aves lo inspiraron para formular esa frase y elegir la idea de huevo para explicarse. De hecho, las denominaciones para la gameta femenina y sus precursores (ovogonios, ovocitos, óvulos) siguen manteniendo la idea de huevo en su nombre. Pero Harvey no había observado ningún ovocito, espermatozoide o cigoto porque no llegó a usar microscopios. En ese momento, fue solo una hipótesis a tientas. Aun así, más acertada que la que pudo formular Nicolaas poco después valiéndose de un microscopio.

William Harvey es más conocido por haber presentado en 1616 una explicación sobre cómo funciona el sistema circulatorio de muchos animales, entre ellos, los humanos. Brevemente, lo que mostró fue que la sangre circula a través de las arterias y las venas en un circuito único, y que es el corazón el órgano que la bombea. Parece obvio ahora, pero en ese momento no lo era para nada. Dentro de las ideas más aceptadas hasta ese momento estaba que la sangre era generada de manera continua en el hígado a partir de los alimentos que llegaban a través del sistema digestivo. Pero para entender cómo funcionaba la circulación, Harvey necesitó hacer disecciones de cadáveres humanos, algo que por muchos años, por lo menos en Europa, había estado prohibido. Durante la Edad Media, las autoridades eclesiásticas perseguían con vehemencia esta práctica. Y aunque luego comenzó a habilitarse, no cualquiera obtenía autorización para ello. A Harvey lo convocó el Colegio Real de Médicos (Royal College of Physicians) para realizar —cuatro veces al año— una examinación de un cadáver humano, un número aprobado por la Corona. Luego de cada uno de esos análisis, debía comunicar sus hallazgos. Fue en una de esas conferencias que presentó sus ideas sobre la circulación y mostró que no era descabellado estudiar a los muertos para entender cómo funcionan los vivos.

Pasaron unos cuantos años y el estudio de los embriones al microscopio se extendió. A mediados del siglo XVIII, Caspar Friedrich Wolff se sumó a la discusión y se puso del lado de la epigénesis, ya que al mirar huevos de pollo al microscopio no encontró estructuras que pudiera reconocer como miniaturas o prototipos de los órganos que luego veía en los pollos adultos. Por el contrario, consideró que los que después serían los tejidos y órganos de los animales se formaban a partir de diferentes componentes del embrión.

La piedra en el zapato de Wolff —y del resto de los que apoyaban la epigénesis— era la imposibilidad de explicar cómo una estructura se transformaba en otra cosa y podía dar origen a diferentes órganos. Varios intentaron explicaciones aunque no del todo satisfactorias, algo que se entiende perfectamente pensando en lo que se sabía para ese momento. Por otro lado, para los preformacionistas era difícil explicar por qué, si cada uno estaba preformado en el semen, los hijos no eran copias exactas de su padre. Si bien los mecanismos de herencia biológica no se conocían lo suficiente, era evidente que los organismos muchas veces tenían características físicas similares a las de ambos progenitores biológicos. ¿Cómo era que ocurría eso si estábamos prefabricados en una única célula germinal? La diversidad que surge en cada generación resultaba difícil de reconciliar con las ideas de estar ya fabricados y esperando nuestro turno. 

El panorama comenzó a aclararse con más investigaciones. A principios del siglo XIX, varios embriólogos comenzaron un camino de análisis detallado de las transformaciones desde estadios muy tempranos hasta los más avanzados de la gestación. Heinz Christian Pander describió, estudiando embriones muy pequeños de pollo, que existían capas a partir de las cuales se iban diferenciando cada uno de los tejidos y los órganos. Estas capas, llamadas capas germinales, demostraban que los pollos de Pander se formaban en cada generación “desde cero”, lo que avalaba la epigénesis y ponía en jaque las ideas preformacionistas.

Más allá de los avances y retrocesos, la primera pregunta, de dónde surgimos y cómo es posible pasar de algo simple a un animal con estructuras diferenciadas, todavía quedaba abierta. La embriología de principios del siglo XIX era incapaz de resolverla. Esos mecanismos recién empezaron a comprenderse una vez que, entrado el siglo XX, se entendió algo de cómo funcionaba el ADN, y cómo la información contenida allí se decodificaba para formar diferentes tejidos y órganos.

Mensaje en un frasco

Al estudiar embriones de diferentes animales vertebrados, los investigadores se dieron cuenta de que, al menos en las primeras etapas, todos se parecían mucho. De hecho, se cuenta que en una ocasión, a comienzos del siglo XIX, Karl Ernst von Baer había olvidado etiquetar unos frascos en los que había embriones pequeños de distintos animales y que luego no pudo distinguir si lo que había dentro era un embrión de reptil, de ave o de mamífero. A partir de sus observaciones, Von Baer propuso que los rasgos generales, compartidos por un grupo amplio de animales, aparecen tempranamente durante el desarrollo del embrión y que luego, progresivamente, se empiezan a notar características más específicas. Por ejemplo, en un embrión muy pequeño de un pez o de un mamífero pueden notarse las estructuras que van a formar la columna vertebral, una característica general compartida por todos los vertebrados. Sin embargo, tendrá que pasar más tiempo para que puedan diferenciarse las escamas en un pez o las plumas en un ave.

Von Baer encontró algunos opositores fuertes que no compartían sus ideas sobre cómo se forman los animales durante el desarrollo. Entre ellos, Ernst Haeckel, que, además, fue uno de los ilustradores más increíbles que hayan tenido las ciencias naturales. A Haeckel, sus observaciones minuciosas lo llevaron a pensar que los embriones de los animales que habían aparecido más tarde en la Tierra, como los mamíferos, pasaban por estadios que recapitulaban los pasos evolutivos, es decir, que durante su desarrollo se parecían a los adultos de sus ancestros. De manera que un mamífero, por ejemplo, siendo embrión pasaría por etapas en las que se parecería a un pez, a un reptil, hasta llegar a ser un mamífero. Haeckel fue en su momento uno de los mayores defensores de las propuestas de Darwin y, aunque hoy sabemos que un embrión de mamífero no tiene mucho que ver con un pez adulto, dejó latente la propuesta de pensar en conjunto evolución y desarrollo.

La confusión de los frascos de Von Baer deja abierta la pregunta de cuándo, en qué momento empezamos a ser humanos en nuestro desarrollo, o, mejor dicho, cuándo empezamos a parecer humanos. La gestación para nuestra especie dura alrededor de 38 semanas desde la fecundación. Durante las primeras semanas ocurren grandes transformaciones: de un cigoto, una célula única, empieza una división frenética que resulta en una masa de células que se van diferenciando y que cambia su forma a medida que avanzan los días. Muy al principio, se forman capas germinales, tal como Pander había alcanzado a vislumbrar, a partir de las que se desarrollan luego diferentes tejidos y órganos. Aproximadamente hasta la octava semana de desarrollo se atraviesa el período embrionario, en el que se establecen esas estructuras diferenciadas y se forman los principales órganos. Pero la maduración de todo lo que se desarrolla durante las primeras semanas ocurre más tarde, durante el período fetal. Desde la novena semana y hasta el nacimiento lo que hay contenido en el útero es un feto. En ese período, los tejidos y órganos cuyas bases se habían establecido en las primeras semanas siguen transformándose, maduran y se complejizan. Además, se produce un aumento notable del tamaño. Entre el tercer y el quinto mes, aumenta marcadamente la longitud del feto y luego, especialmente en el último tramo de la gestación, es llamativo el incremento del peso. Volviendo a la cuestión, ¿desde cuándo es posible distinguir un humano de otro animal? Bueno, depende bastante del ojo del observador, pero entrado el tercer mes de gestación pueden notarse algunos cambios fisonómicos que son bastante indicativos. Por ejemplo, los ojos, que antes de ese momento ocupan un lugar más lateral en la cabeza, empiezan a tomar una posición diferente, más en el frente de la cara. También las extremidades adquieren una longitud relativa que se parece más a la que tendrán al momento del nacimiento. Para ese momento, Von Baer podría distinguir, sin dudas, un feto de nuestra especie del de otros animales, incluso del de otros mamíferos.

Los procesos de desarrollo que tienen lugar tanto durante la formación de los órganos como en su maduración en el período fetal son susceptibles a algunos factores que los pueden alterar. A principios de la década de 1950, comenzó a utilizarse una nueva droga, conocida como talidomida. Sus primeros usos estuvieron destinados a tratar pacientes con epilepsia, aunque al poco tiempo dejó de ser un fármaco elegido para estos casos y empezó a prescribirse para aliviar algunos de los malestares físicos que el embarazo causa en muchas personas. Especialmente durante el primer trimestre, es muy común que las personas gestantes sufran náuseas, vómitos, mareos, cansancio, entre otras cosas. La talidomida tenía entre sus acciones reducir los vómitos y las náuseas, y no pasó mucho tiempo hasta que se pusiera de moda entre las embarazadas con estos síntomas. El detalle es que no se conocían los efectos que podía tener su administración durante la gestación.

En 1961, casi al mismo tiempo, dos investigadores, uno en Australia y otro en Alemania, advirtieron que el consumo de talidomida estaba asociado con malformaciones congénitas muy graves. Luego de eso, su uso se contraindicó durante el embarazo. Muchos de los niños y niñas que se expusieron a la talidomida durante la gestación tuvieron alteraciones en el desarrollo de sus extremidades, malformaciones cardíacas y del sistema digestivo, entre otras. Hoy existen algunas explicaciones sobre cómo actúa la talidomida durante el desarrollo y por qué podría producir estas malformaciones. Actualmente, se usa para el tratamiento de algunas enfermedades, pero es condición estricta para su administración que la persona tratada no esté gestando. Lo que quedó claro es que las pruebas exhaustivas para comprobar la seguridad de los medicamentos en el desarrollo prenatal son extremadamente necesarias. Este caso también permitió entender que no es lo mismo haber tenido exposición a esta sustancia en un momento u otro del embarazo, y que según el estadio de desarrollo las consecuencias son diferentes. De hecho, los malestares que esta sustancia intentaba calmar son muy comunes en la etapa del embarazo que coincide con la formación de los órganos, y de ahí deriva gran parte de la catástrofe de la talidomida: administrar esta sustancia mientras el embrión está sufriendo transformaciones muy profundas.

Como la talidomida altera el desarrollo y es capaz de producir malformaciones, se dice que es teratogénica. No es la única droga teratogénica y tampoco estos efectos son causados solo por fármacos. Hace muy poco —2015, un tiempo mucho más cercano que los de la talidomida— hubo en el continente americano una epidemia de zika. El virus del Zika ya circulaba en otras partes del mundo hacía mucho tiempo y se lo conocía desde mediados de siglo XX, pero nadie le había dado mucha importancia, en parte, porque no parecía un virus especialmente peligroso. Sin embargo, al llegar a América mostró que no era tan inofensivo. En Brasil, entre 2015 y 2016, hubo una enorme cantidad de personas infectadas con el virus del Zika, que, al transmitirse a través de algunos mosquitos, encontró en gran parte del territorio tropical de Sudamérica un ambiente muy propicio para avanzar. Al poco tiempo de observar los brotes de zika en varios puntos del país, muchos médicos brasileros empezaron a llamar la atención sobre el aumento llamativo de casos de bebés nacidos con malformaciones. Luego de los nacimientos, las evaluaciones que hacen los neonatólogos suelen incluir el registro de una serie de medidas que dan una idea del crecimiento dentro del útero. Una de ellas es el perímetro cefálico, para lo que se rodea con una cinta métrica la cabeza del bebé. Entre fines de 2015 y principios de 2016 hubo una cantidad inusitada de bebés que tenían perímetros cefálicos mucho más chicos que los que se esperaban para sus edades gestacionales y pesos, una condición que se conoce como microcefalia. La proliferación de diagnósticos de microcefalia derivó en muchas hipótesis sobre las causas. Sabiendo de otros virus con efectos teratogénicos, varios investigadores pusieron el ojo sobre el virus del Zika. Los primeros estudios mostraron que el virus es capaz de infectar células inmaduras del cerebro, aquellas que tienen la capacidad de dividirse para formar células nerviosas. Como producto de esa infección, las células del cerebro en formación alteran sus procesos de división e incluso, en muchos casos, mueren, lo que afecta directamente el crecimiento del cerebro. Sin embargo, el virus del Zika no infecta neuronas maduras y diferenciadas, por lo que es especialmente peligroso mientras el sistema nervioso todavía se está formando.

La capacidad del virus del Zika de infectar células inmaduras del sistema nervioso central no solo tiene efectos devastadores. Al poco tiempo de confirmar la relación entre microcefalia y zika, se empezó a pensar en usar este virus como una forma de tratamiento de tumores especialmente letales del cerebro. Como este tipo de tumores se origina a partir de unas células del cerebro parecidas a las embrionarias, el virus puede utilizarse para destruirlas, con la seguridad de que las neuronas no serán infectadas. Si bien aún está en estudio, esta es una opción promisoria frente a los tratamientos actuales, que en general no logran grandes mejoras para los pacientes. La posibilidad de inocular un virus en el cerebro de los pacientes y lograr resultados positivos, es decir, que algo tan pequeño y en ocasiones tan dañino pueda servir de esa manera parece un argumento robado de una novela de ciencia ficción. Curiosamente, se cree que Mary Shelley, conocida por ser la autora de Frankenstein (1818), novela que se considera la fundación de la ciencia ficción, murió a causa de un tumor cerebral a sus 53 años. En la novela, el protagonista es Frankenstein, un estudiante de medicina que se atreve a experimentar con partes de cadáveres y electricidad para crear seres vivientes. Pero ni en las más visionarias de las historias de Shelley se vislumbra algo similar a lo que hoy se está estudiando.

Después de los primeros tiempos de la epidemia de zika en América, se vio que las alteraciones del desarrollo embrionario son muy variables, se extienden mucho más allá de la microcefalia y que, como se podía sospechar, el momento de la exposición durante el embarazo es clave para explicar las consecuencias que se observan luego en los recién nacidos.

La talidomida, el virus del Zika y otros factores con este tipo de efectos, además de causar daños enormes, son ventanas para entender cómo ocurre el desarrollo prenatal, para desmenuzar los procesos que se suceden dentro del útero. Su estudio permite notar que existen períodos críticos en los que ocurren procesos cruciales para el desarrollo y que, si son afectados por factores teratogénicos, se alteran sustancialmente.

Pero también, durante estas ventanas de tiempo, los embriones o fetos pueden estar expuestos a otros factores ambientales que, sin producir efectos tan graves como los teratogénicos, aún son capaces de dejar algunas huellas importantes.

Esto no es una papa

Hay experimentos que no requieren protocolos exhaustivos ni usar guardapolvos. De hecho, cualquier persona pone a prueba cosas simples a diario. Para hacer papas fritas, por ejemplo, hay quienes antes de tirar todas las papas al aceite, tiran una sola y observan qué pasa. Si la papa se va al fondo sin gracia y queda ahí por unos segundos, la conclusión es que la temperatura del aceite no es la adecuada. Entonces, es posible que se deje el aceite por unos minutos más sobre la hornalla. Pasado un tiempo, otro bastón de papa se sacrificará por el grupo. Si en este caso la papa empieza a flotar como sostenida por las burbujas que aparecen a su alrededor, es tiempo de tirar todas las papas al aceite. No hay laboratorio, pero la idea central de experimentar está ahí: manipular un factor, o algunos factores, y examinar el efecto. En este caso, la temperatura del aceite se va modificando a medida que se extiende el tiempo en que el recipiente que lo contiene está sobre el fuego. Esa modificación es controlada por la persona a cargo de esas papas fritas, que es la misma que juzgará, por el comportamiento de la papa de prueba, cuándo es tiempo de sumergir todas en el aceite para que se cocinen parejas y salgan doradas.

Los diseños experimentales suelen controlar varios factores a la vez para poder analizar el efecto de aquel o aquellos que son de interés y no confundirlos con otras cosas que pueden estar dando vueltas. Esto sería, para el caso de las papas fritas, que todos los bastones que entran como prueba tengan un tamaño similar, porque, de lo contrario, las diferencias entre lo que ocurre al arrojar la primera papa y lo que ocurre al arrojar la segunda podrían deberse a sus diferencias de tamaño y no a la temperatura del aceite.

Pero el trabajo experimental suele ir más allá de una fuente llena de papas fritas, y toma formas muy variadas. En algunas circunstancias, un tanto excepcionales, hay experimentos que no resultan de la manipulación deliberada de un factor, sino que, sin que nadie lo busque de manera premeditada, ciertas condiciones se modifican notablemente en un tiempo y lugar determinado. Algunos llaman a este tipo de circunstancias experimentos naturales, contemplando que representan situaciones en las que hay un factor o un conjunto de factores que varían y cuyos efectos pueden ser analizados, con la salvedad de que no hay alguien moviendo la perilla de la hornalla para que suba o baje la temperatura del aceite. No en todos los casos estos experimentos son estrictamente “naturales”, porque las modificaciones en las condiciones pueden venir de la mano de intervenciones humanas que, aunque no buscan específicamente hacer un experimento, terminan por desencadenarlo. La historia que sigue es un claro ejemplo de esto último.

En septiembre de 1944, cuando aún faltaba un año para que terminara la Segunda Guerra Mundial, los aliados llegaron al territorio de Holanda (hoy Países Bajos), que había quedado bajo el control de los alemanes. Por cómo venían las cosas, muchos pensaron que iban a lograr desplazar a los alemanes de allí en poco tiempo, pero el desenlace no fue tan sencillo. Cuando los aliados avanzaban hacia el norte, sufrieron un revés importante en una operación que, hay que decirlo, era bastante ambiciosa. Habían pensado que podían establecer desde Holanda un corredor para acceder al territorio alemán, y para eso debían tomar el control de varios de los puentes que permitían atravesar la frontera entre ambos países a través del río Rin. La idea era que un conjunto de paracaidistas se lanzara desde aviones para llegar a esos puentes y resistiera allí hasta que llegaran los refuerzos terrestres. Los primeros días, y a pesar de algunos contratiempos, fueron tomando los puentes de manera bastante similar a como lo habían planificado, pero los alemanes respondieron con contundencia y su contraataque impidió que ocuparan el último puente, en la ciudad de Arnhem. La operación se llamó Market Garden y, además de significar un enorme traspié para los aliados, dejó unas fotos impresionantes de cientos de paracaidistas flotando al mismo tiempo en el cielo holandés. Luego del fracaso de este avance, la cosa se enrareció todavía más: en apoyo a los aliados, los holandeses llamaron a un boicot a los trenes, y, como respuesta a todo esto, los alemanes bloquearon la llegada de alimentos y tensaron más aún la cuestión. Ese bloqueo duró relativamente poco, hasta noviembre de ese año. El problema fue que cuando los alemanes lo levantaron, el invierno ya había llegado a Holanda con todo su rigor y la mayoría de las vías de comunicación, especialmente las fluviales, estaban congeladas. Esto empeoró el desabastecimiento, que se tornó masivo en varias ciudades y pueblos, que rápidamente se quedaron sin muchos bienes esenciales, entre ellos, alimentos. Este hecho, ocurrido entre finales de 1944 y abril de 1945, es conocido como la Hambruna Holandesa. Los alimentos realmente escasearon por esos meses y se establecieron algunas maneras más o menos normadas de repartir lo poco que había entre la población. En el peor momento de la hambruna, las raciones por persona llegaron a cubrir solo 400 calorías diarias. Si bien los requerimientos energéticos dependen de muchos factores, como la masa corporal de las personas y la actividad física que desarrollan, en términos generales se espera que el consumo promedio de una persona adulta se acerque mucho más a las 2000 calorías diarias que a las magras 400 de aquel momento. Algunas situaciones se atendieron en particular; así, mientras se pudo, las gestantes y las madres que estaban amamantando a sus hijos tuvieron acceso a algo más de comida. De todas maneras, la porción en estos casos seguía siendo escasa.

El resultado más evidente —y más triste— de la Hambruna Holandesa fue el aumento notable de la cantidad de muertes en ese período. Para quienes sobrevivieron, las consecuencias no fueron pocas, y algunos pensaron que esta hambruna se acercaba bastante a la definición de experimento natural. Es posible que colateral, o incluso histórico, sean adjetivos que le hagan mejor justicia a esta situación porque, en definitiva, fueron la guerra tanto como las condiciones climáticas las que desencadenaron la hambruna. Y si bien no hubo una intención premeditada de manipular la ingesta de alimentos para estudiar los efectos sobre la salud de la población, el crecimiento de los niños y niñas y el desarrollo de los embarazos, eso fue lo que finalmente ocurrió. Luego de que, en 1945, Holanda lograra superar la situación de desabastecimiento y su población comenzara a tener un acceso razonable a diferentes alimentos, investigadoras e investigadores siguieron por muchos años a las personas que, en diferentes momentos de su vida, habían sufrido esa hambruna.

Estos hechos históricos hicieron que un factor principal, en este caso la nutrición, fuera modificado durante un lapso de tiempo dado y que existieran registros bastante precisos de los efectos sobre diferentes aspectos de la salud de las personas que experimentaron desnutrición. La población holandesa de ese momento no fue ni la primera ni la última en atravesar una situación semejante. Pero la exposición a esta restricción tan severa de alimentos ocurrió en un momento muy puntual, lo cual ayudó a estudiar sus efectos. Además, la población, aun sufriendo los estragos de la desnutrición, pudo seguir accediendo en muchos casos a atención médica, de modo que en los hospitales se registraron datos tan relevantes como el peso de los bebés que nacieron durante la hambruna o de los que nacieron después, pero cuyas madres la atravesaron embarazadas. Así, se observó que quienes estaban siendo gestados en el útero de sus madres mientras escaseaban los alimentos, al alcanzar su juventud o adultez, desarrollaban algunas condiciones patológicas y ciertas enfermedades con más frecuencia. Lo interesante, además, fue que los datos indicaron que no daba lo mismo si la hambruna había ocurrido al principio, hacia la mitad o al final del embarazo: períodos específicos de exposición a la desnutrición aumentaban el riesgo de ciertas enfermedades a mediano y largo plazo. Los datos de estos estudios comenzaron a ser publicados consistentemente recién hacia mediados de la década de 1970, es decir que hicieron falta treinta años para entender las implicancias de este experimento. Hoy, la Hambruna Holandesa se reconoce como un antecedente indiscutible al momento de afirmar que parte del origen de ciertas condiciones de salud y enfermedad pueden asociarse con los factores que rodean la vida prenatal.

En la década de 1970, Holanda también llegaría por primera vez a una final de la Copa Mundial de fútbol masculino. Tras décadas de ser un seleccionado poco competitivo, en el mundial de 1974 sorprendió por su desempeño y fue ganando partidos hasta llegar a la final. El rival fue, justamente, Alemania Occidental. La suerte, al igual que en la operación Market Garden, estuvo del lado de los alemanes, que vencieron por un gol. Con ese resultado, la selección alemana se quedó con el triunfo definitivo. Ahí sí hay una pequeña (o gran) diferencia respecto del desenlace final de la guerra.

Al mismo tiempo que se conocían los efectos a largo plazo de la Hambruna Holandesa y que la selección de fútbol masculino de ese país se preparaba para jugar el mundial, la situación política en Uganda se complicaba cada vez más. Fue por eso que el médico David Barker, después de haber estado un tiempo en Uganda estudiando la causa de una enfermedad infecciosa, la úlcera de Buruli, se vio empujado a regresar a su Inglaterra natal. Así fue como, en 1973, tomó un cargo de profesor en una universidad inglesa y se puso a investigar. Pero no esperó que ocurriera ningún experimento natural colateral histórico extraordinario, sino que comenzó a desempolvar registros de organismos públicos que habían documentado la cantidad de muertes ocurridas y sus causas a lo largo del siglo XX en el Reino Unido. Hacia fines de la década de 1970, esta región mostraba un aumento sostenido de casos de infartos cardíacos, y crecía el consenso de que se trataba de una consecuencia indeseable de los nuevos tiempos de prosperidad económica y abundancia que se vivían en el país. Barker no desconfiaba especialmente de esa idea, pero intentó buscar un poco más y, para eso, analizó los mapas del Reino Unido en los que se mostraba la distribución de las muertes por infartos cardíacos entre 1968 y 1978. Lo que encontró fue que no todo el territorio tenía la misma incidencia: para algunas áreas era un problema mucho más frecuente que para otras. Estos mapas, además, coincidían bastante bien con otros de la década de 1920 que tenían información sobre la mortalidad infantil. Estas regiones, a principios del siglo XX, alojaban a personas en situación de vulnerabilidad económica, con condiciones habitacionales precarias y restricciones en su alimentación, cosas que hacían más difícil sobrevivir siendo pequeño. Los niños que lo conseguían y llegaban a la edad adulta, décadas después, tenían más riesgo de sufrir infartos. A partir de ello, Barker, junto con Clive Osmond, formuló la idea de que la exposición a situaciones de adversidad en la vida temprana podría estar relacionada con el riesgo aumentado a sufrir enfermedades cardiovasculares y otros problemas de salud crónicos más tarde, incluso cuando esas condiciones adversas ya se hubieran revertido. A esta explicación tentativa, que luego ampliaron con otros datos, se la llamó hipótesis de Barker y trajo a la discusión la importancia de las etapas tempranas del desarrollo, especialmente de la prenatal y los primeros años posnatales.

Muchas investigaciones posteriores apoyaron, por lo menos en su concepción general, las ideas que habían dejado la Hambruna Holandesa y los mapas de Barker y Osmond. Además, pudieron avanzar en entender cuáles eran los mecanismos —o por lo menos algunos— que se ponían en juego tempranamente frente a estas condiciones.

Ruido ambiente

Los mapas que permitieron a Barker y Osmond trazar una trayectoria entre el desarrollo temprano y la adultez reflejaban la relación entre dos hechos, una asociación en el tiempo y el espacio. Pero es posible —y, además, muy común— que dos hechos estén asociados sin que uno dependa del otro. Sin embargo, Barker continuó por décadas aportando información epidemiológica para entender cómo es que el ambiente en general puede afectar el desarrollo y dejar huellas para toda la vida.

Más allá de los factores que pueden alterar drásticamente el desarrollo, detener o interferir procesos, hay estímulos ambientales que se integran a lo que está pasando de manera menos estridente, pero con efectos que pueden ser también notables. El genoma, que originalmente se pensó como un conjunto de instrucciones más o menos estáticas, mostró ser reactivo a lo que lo rodea, sensible a las señales que vienen del ambiente dentro de las células y fuera de ellas. Al campo de estudios que comenzó a abordar esa complejidad y su impacto en el desarrollo se lo llamó epigenética. El origen del nombre epigenética, que en sentido estricto refiere a lo que está más allá de los genes, está muy ligado al concepto de epigénesis, aun cuando el primero se forjó en el siglo XX, es decir, cuando la batalla de la preformación versus la epigénesis ya estaba bastante obsoleta. Conrad Waddington lo propuso a principios de la década de 1940 para entender cómo surge aquella diversidad de los organismos que no puede ser explicada a partir de la herencia genética tal como se conocía en ese momento. En su cabeza, el ambiente tenía un rol fundamental, era parte necesaria para explicar el curso del desarrollo, que, lejos de ser lineal, podía tomar diferentes caminos y transitar paisajes diversos.

Al poco tiempo de la propuesta de Waddington, se describió la estructura del ADN y fue difícil que alguien prestara atención a lo que pasaba más allá de los genes. Pasadas las décadas, el concepto de epigenética fue transformándose y retomando protagonismo. La epigenética, en sentido amplio, se interesa por la interacción entre los genes, su regulación y la relación de todo eso con el ambiente. Pero, por otro lado, una parte de la comunidad científica ha equiparado en muchos casos epigenética con algo más restringido, que es la herencia epigenética. Se llama así a aquellos cambios en la función de los genes que no están codificados en los genes mismos, sino que resultan, por ejemplo, de marcas, modificaciones en la estructura del ADN o en las proteínas asociadas a este que se transmiten de generación en generación. Aunque la secuencia del ADN no se altere, los cambios epigenéticos pueden modificar la actividad de los genes. Esta visión, aunque más acotada, ha propuesto mecanismos concretos por los que el ambiente puede tener un impacto transgeneracional aun sin que ningún gen se modifique. 

Las idas y vueltas en la definición de la epigenética y la sobresimplificación en la comunicación de este concepto contribuyeron a propagar la idea de que existe una relación lineal entre un estímulo ambiental y determinados efectos en el desarrollo. En ese sentido, es común ver interpretaciones que atribuyen la causa de una enfermedad, como la diabetes tipo II o incluso condiciones psiquiátricas, al consumo durante la gestación de determinado tipo de alimentos o al nivel de actividad física o a otros hábitos individuales de las personas gestantes. Este atajo tiene algunos problemas. En primer lugar, los ambientes experimentales de los que se suelen extraer conclusiones distan mucho de aquellos en los que viven las personas. Sería imposible replicar en un contexto experimental todas las condiciones que atraviesa la vida de las personas. Ya se dijo, esto no es una papa. Aunque esta consideración no invalida la información que aportan los estudios experimentales, supone un llamado de atención ante extrapolaciones que pasan por alto que, especialmente para los humanos, el ambiente tiene una diversidad de estímulos que van desde lo físico hasta lo social, y que son bastante difíciles de reducir. De hecho, es ampliamente aceptado que muchas de las enfermedades sobre las que puso el ojo la epigenética —de nuevo, como la diabetes tipo II o diferentes condiciones psiquiátricas— suelen no tener una causa única y aislable, sino que resultan de una constelación de situaciones.

Pero, además, estos discursos simplificados llevan a poner en el centro de atención los comportamientos individuales de las personas gestantes y, en mayor o menor medida, a hacerlas responsables, incluso culpables, de la salud posnatal de sus hijos e hijas. El estilo de vida y las decisiones de cada persona se ponen en debate, sus hábitos y consumos. Ahora bien, está claro que el poder de maniobra de las personas para decidir sobre su estilo de vida depende, entre otras cosas, de las condiciones materiales en las que viven, su trabajo, situación habitacional, y la lista podría seguir engrosándose. En ese caso, ¿tiene sentido cargar las tintas sobre las personas gestantes cuando los factores de interés están explicados por contextos sociales, económicos, hasta familiares, más amplios?

Por último, hay dos elementos que llevan a relativizar la responsabilidad de las personas gestantes. Primero, los padres, es decir, los progenitores no gestantes también transfieren a su descendencia una herencia que va más allá de los genes. Existe evidencia sobre modificaciones epigenéticas en las gametas masculinas, los espermatozoides, como resultado de ciertas condiciones ambientales. Segundo, no todo es irreversible. Las adversidades durante la vida prenatal demostraron predisponer determinadas consecuencias posnatales, pero lo que pasa luego del nacimiento también influye, y mucho. Lejos de relativizar los resultados de los trabajos del campo de la epigenética, podría pensarse que su banalización lleva muchas veces a considerar que las personas gestantes hipotecan el futuro de sus hijos e hijas, que son las únicas responsables y que no hay vuelta atrás. Además de ser injusto, eso implicaría desconocer el enorme conjunto de evidencia acumulada por las ciencias naturales y sociales.

Primera llegada a Manus

En 1928, después de varios días de viaje en barco, Margaret Mead llegó a Manus, una pequeña isla de Nueva Guinea en el medio del océano Pacífico. Con apenas 27 años, estaba por comenzar su segundo trabajo de campo como antropóloga y venía de poner incómodas a unas cuantas personas con su primer libro, en el que proponía que la adolescencia −y especialmente la sexualidad en la adolescencia− puede ser transitada de maneras diversas.

En Manus, su objetivo era estudiar la infancia, por eso se interesó por los nacimientos y lo que había alrededor de ellos. Margaret cuenta que cuando un embarazo estaba cerca de llegar a término, la familia se encargaba de garantizar el lugar en el que ocurrirían el parto y las celebraciones que seguirían a la llegada del nuevo miembro de la aldea. Pero, a pesar de su interés, los habitantes de Manus no le permitieron presenciar partos durante esa estadía. La regla, aparentemente bastante firme, indicaba que solo aquellas mujeres que habían tenido hijos podían presenciar y prestar asistencia en el parto de una compañera de la aldea. Margaret, que tendría a su única hija años después, en Nueva York, quedaba en ese momento afuera, al igual que los hombres, niños, niñas y otras mujeres en su misma condición. Sin embargo, sus informantes le dieron varios detalles: cómo se disponía a la mujer en el momento del parto, cómo se cortaba el cordón umbilical, qué alimentos comían las madres inmediatamente después.

Todo este despliegue de reglas y protocolos parece no haber sorprendido a Margaret, que incluso entendió la importancia de la prohibición que le impedía presenciar los partos y no se animó a insistir mucho. Es que nacer, para los humanos, es un tránsito complejo, un momento crítico en nuestra vida que supone el paso de un mundo a otro bastante diferente. Lo era a principios del siglo XX para los habitantes de Manus y lo sigue siendo hoy, casi cien años después, para cualquier persona. Las formas de nacer y sus condiciones son variadas e incluso muy desiguales. Pero aun en diversos contextos, concentran la atención y ocupan a las personas que piensan y ponen en práctica maneras particulares de transitarlas. El nacimiento abre una ventana acotada en la que por primera vez se toma contacto con muchos estímulos que no forman parte del ambiente dentro del útero. Aquello con lo que nos enfrentamos inmediatamente al nacer depende de cómo sea el nacimiento. Y eso importa, y mucho, incluso más allá del nacimiento.

La cesárea no es solo brasilera

Para llegar a este lado del mundo, muchas personas han tenido que superar una prueba complicada: pasar por el canal de parto, un conducto que forman los huesos de la pelvis y que está recubierto por músculos y ligamentos. En los partos vaginales, el feto atraviesa el canal de parto de la madre, que en algunas partes se estrecha y en algunas permite un descenso más fácil, hasta que, finalmente, llega, atravesando el cuello uterino, al orificio de la vagina. Mientras que otros animales, incluso primates muy parecidos a los seres humanos como los chimpancés, tienen al nacer una cabeza bastante más chica que el canal de parto, nosotros pasamos justo. Es posible que caminar en dos patas y nacer con un cerebro grande al mismo tiempo tenga ese precio.

He aquí, entonces, un dilema. Más precisamente, lo que algunas personas llamaron dilema obstétrico: caminar en dos patas tuvo para nuestro linaje muchas ventajas, pero implicó ciertas modificaciones de la pelvis que llevaron a una reducción del tamaño del canal de parto. Y un canal de parto estrecho complica el nacimiento de bebés con cerebros grandes, que tienen, a su vez, cráneos cuyos perímetros o contornos son también más amplios.

Entre 5 y 7 millones de años atrás, nuestros ancestros adoptaron un modo de locomoción bípeda, es decir, empezaron a moverse erguidos durante la mayor parte del tiempo. Lo que sabemos gracias al estudio de huesos fosilizados es que la pelvis fue una de las estructuras que más se modificó en este proceso evolutivo y, como consecuencia, el canal de parto también cambió su forma y se estrechó. Entre los primeros bípedos se encuentran diferentes especies de australopitecos, unos homininos que vivieron durante algunos millones de años en África caminando en dos patas y con cerebros más o menos del tamaño de los que tienen hoy simios como los chimpancés.

El problema, o, mejor dicho, el dilema comenzó a delinearse un tiempo después, cuando aparecieron en escena los primeros Homo, unos parientes aún más cercanos, con cerebros mucho más voluminosos. El cerebro de algunos Homo extintos, como Homo erectus, pesaba alrededor de 270 gramos al nacer, casi un 40% más que los 170 gramos promedio de los australopitecos. Ahora sí, el paso por el canal de parto se convertía en una travesía un poco más ajustada.

Los partos en humanos son en promedio más demorados que en otros mamíferos. En general, se definen dos etapas en los trabajos de parto de nuestra especie. La primera, llamada fase latente, comienza cuando las contracciones uterinas empiezan a notarse con regularidad, y se extiende hasta que se desata la fase activa, la última, generalmente más corta e intensa, en la que las contracciones son mucho más frecuentes y suele alcanzarse un grado importante de dilatación del cuello del útero. Lo corriente es que la fase activa termine con el parto, la expulsión del feto hacia el mundo exterior. Según registros sistematizados a mediados del siglo XX, la fase latente se considera prolongada solo cuando supera las 20 horas de duración en el primer parto, o 14 horas en caso de que la persona que está haciendo el trabajo ya hubiese atravesado la misma situación antes. Como se ve, la enorme mayoría de los partos demandan un tiempo considerable y no se resuelven de un momento a otro. Hay profesionales que plantean que, en la actualidad, suelen verse con frecuencia trabajos de parto aún más largos que los que se han observado históricamente, abriendo la incógnita sobre la duración promedio de los trabajos de parto hoy. ¿Por qué es frecuente que los humanos tardemos en nacer? No hay una respuesta única: el desencadenamiento del parto requiere la orquestación de muchas piezas, pero a esta altura está claro que hay una parte de esto que puede relacionarse con la constitución anatómica de nuestra pelvis y el tamaño de los fetos.

En algunos casos, el discurrir de las fases del trabajo de parto hasta el nacimiento encuentra obstáculos. Las razones pueden ser variadas: desde problemas en la producción de contracciones rítmicas, una posición del feto que dificulta su salida, hasta una desproporción entre la pelvis y el tamaño del feto. Si el canal de parto no es una posibilidad de salida, existe otra opción: abrir el abdomen de la gestante, acceder al útero y sacar al feto a través de una cirugía. Es decir, practicar una cesárea.

La historia de la cesárea es difusa, difícil de rastrear. Existen referencias muy antiguas y de diferentes lugares que relatan procedimientos para extraer un feto del útero de su madre. Estas primeras noticias sugieren que la cesárea se practicaba en gestantes que ya habían muerto o que iban irremediablemente en ese camino. Porque una cesárea es una cirugía y hubo que afinar unas cuantas cosas para que ese tipo de práctica fuera relativamente segura, es decir, que no pusiera seriamente en riesgo la vida de las personas sobre las que se practicaba. Por eso, muchos dudan de la historia que cuenta que Julio César, la gran figura de la política romana, nació por medio de una cesárea. Hay fuentes que indican que su madre vivió hasta que él era adulto, y resulta poco probable que hubiera sobrevivido luego de una cirugía de esas características en la Roma del 100 a. C.

Uno de los primeros registros escritos de un caso en el que sobrevivieron madre e hijo viene de Suiza, cuando en 1500 un tal Jacob Nufer, desesperado después de ver a su mujer varios días intentando parir, decidió hacer uso de algunas habilidades que le había dado su oficio de criador de chanchos y le practicó una cesárea con éxito.

A partir de estas historias desesperadas, muchas veces tristes y en ocasiones épicas, empezó a ganar protagonismo un nuevo modo de nacer en el que no hay paso por el canal de parto. La cesárea hoy es una práctica rutinaria en los servicios médicos de muchos países, recomendada no solo en casos de probable desajuste de tamaños entre el canal de parto y el feto, sino en otras situaciones en las que el riesgo es elevado para cualquiera de los participantes, y en las que el procedimiento puede salvar sus vidas o evitar lesiones graves. La Organización Mundial de la Salud (OMS) calculó que aproximadamente en un 10-15% de los nacimientos hay razones médicas para practicar una cesárea. Para pensar en números concretos, actualmente en el mundo hay unos 140 millones de nacimientos por año. O sea que, por lo menos, unos 14 millones requerirían cesárea.

Más allá de las recomendaciones y los criterios de decisión basados en la evidencia clínica, hay muchas personas gestantes que, aun necesitando una cesárea, no acceden a esta práctica, y otras que, sin necesitarla, son sometidas a ella. Varios países del África subsahariana y del sur de Asia tienen los índices más bajos de cesáreas: en algunas zonas rurales, pueden llegar apenas al 1% de los nacimientos. Del otro lado, Latinoamérica, Estados Unidos y algunos países de Europa y Asia experimentaron en las últimas décadas un aumento muy acelerado de esta práctica. Brasil es uno de los casos más salientes, tanto que, en 2014, se hizo un relevamiento extenso de las condiciones de los nacimientos, de la salud reproductiva y de la de los recién nacidos, y los resultados que se obtuvieron fueron muy llamativos: en promedio, más del 50% de los nacimientos en el país eran cesáreas, y en el sector privado este porcentaje llegaba casi al 90%. Todo un récord. Aquellos que alertan sobre una “epidemia de cesáreas” plantean que un número tan alto, antes que prevenir muertes o secuelas, suma peligros innecesarios. En especial, cuando las condiciones en las que se realizan estas intervenciones no son óptimas y aumenta la probabilidad de que las personas gestantes sufran, por ejemplo, infecciones, hemorragias, respuestas adversas a la anestesia, y los niños y niñas, complicaciones respiratorias y otros problemas como cortes en la piel. 

En cualquier caso, en muchos lugares del mundo las cesáreas no son la excepción, sino prácticas muy frecuentes, incluso más habituales que los partos vaginales. A estas dos formas de nacer les siguen consecuencias distintas que la ciencia está mirando desde hace un tiempo.

Compañeros para toda la vida

Vivir en sociedad implica tener gente alrededor gran parte del tiempo. Pero hay ratos en los que cualquiera aseguraría que está solo. Por lo menos, al mirar alrededor y escrutar cada uno de los rincones de la casa, o al caminar por una calle desierta sin siquiera un perro que ladre al pasar, nos quedarían pocas dudas de que somos el único organismo a la vista. En esas tres últimas palabras está la clave: a la vista. Porque en todo momento nos acompañan billones de organismos que, por su tamaño, ningún humano llegaría a ver sin ayuda de algún aparato. Son microorganismos que habitan en el sistema digestivo, la piel y otras partes del cuerpo, forman comunidades, interactúan entre ellos y con nuestras células, viven y mueren mientras nosotros, de a ratos, creemos que no hay nada más allá de lo que podemos divisar. Al reunirlos en una categoría, la comunidad científica eligió para ellos el nombre de microbiota.

Sin dudas, los microorganismos o microbios tienen mala prensa. Muchos de ellos pueden producir enfermedades, e incluso así de minúsculos como son, pueden poner en peligro la vida de mucha gente. Basta con ver, por ejemplo, cómo cambió la historia a partir de fines del siglo XIX con el desarrollo de antibióticos orientados a frenar infecciones causadas por bacterias. Pero no todo es blanco o negro, y no todos los microorganismos son perniciosos. De hecho, el estudio de la microbiota permitió identificar que muchos tienen funciones esenciales y que no contar con ellos puede generar complicaciones. Por ejemplo, dentro de los habitantes regulares del intestino están las bifidobacterias, que ayudan en la digestión y regulan procesos inflamatorios, lo que previene trastornos importantes para la salud. Cada vez se conocen más relaciones beneficiosas entre la microbiota y el funcionamiento de diferentes sistemas, incluidos muchos que, durante años, se había creído que estaban al margen de esta interacción, como el sistema nervioso. En diversos estudios experimentales, al ver que los animales con alteraciones de la microbiota intestinal mostraban diferencias de comportamiento, investigadoras e investigadores se zambulleron a estudiar si el cerebro era sensible a los microhabitantes del sistema digestivo. Encontraron tantas correlaciones que desde hace un tiempo se habla de eje intestino-cerebro.

Ahora bien, ¿qué tiene que ver todo esto con el parto y las formas de nacer? Las bacterias, hongos y otros microorganismos que forman la microbiota están en el cuerpo porque en algún momento colonizaron una parcela en la que comenzaron a reproducirse. Como todo indica que los microorganismos no se generan de la nada, el contacto con fuentes de microbios en diferentes momentos de la vida es clave para que estos pueblen distintas partes del cuerpo. Y acá aparece nuevamente el parto como protagonista. Al nacer, muchos de los microorganismos que están en la madre y en el ambiente exterior toman contacto con el recién nacido y pueden integrarse a su microbiota.

Durante mucho tiempo, un dogma de la ciencia indicaba que el útero era un ambiente en el que, si todo funcionaba bien, no tenía por qué haber agentes externos, como bacterias. Es decir, se pensaba que durante el embarazo el feto estaba en un entorno absolutamente estéril y que al nacer se exponía por primera vez a este tipo de microorganismos. Pero la evidencia que se fue acumulando contradice esta idea y hoy sabemos que hay una microbiota prenatal que muy probablemente ayude en la maduración de algunos sistemas del cuerpo. Sin embargo, al nacer, la historia es otra, porque el parto es un verdadero shock de microbios.

El nacimiento es un momento crucial para el establecimiento de los microorganismos que van a comenzar a colonizar masivamente muchos órganos, por lo tanto, es esperable que haya ciertas diferencias según cómo ocurra. Poco tiempo después del nacimiento, ya es posible observar que, en promedio, los bebés nacidos por parto vaginal tienen en su microbiota una mayor representación de algunos tipos de organismos, como las bifidobacterias, que los nacidos por cesárea. Por otro lado, hay ciertas bacterias que son potencialmente peligrosas si el organismo no logra controlar su crecimiento, como los enterococos, que suelen estar más presentes en quienes nacen por cesárea. Todo esto no preocuparía demasiado si no fuera por las asociaciones que se vieron entre el modo de nacer y algunas enfermedades metabólicas como la diabetes o enfermedades respiratorias como el asma; según una gran cantidad de estudios epidemiológicos, es más probable que se desencadenen estas enfermedades en personas que nacieron por cesárea. Esto no quiere decir que si una persona nace por cesárea necesariamente va a enfermarse o que si nace por parto vaginal va a estar libre de riesgo. Simplemente son asociaciones que sugieren que los modos de nacer predisponen —junto con muchos otros factores— a que se desarrollen algunas enfermedades. Lo sorprendente es que esas enfermedades, cuando se desarrollan, ocurren muchos años después del nacimiento. 

En el paso por el canal de parto ocurre un contacto directo con la microbiota de la vagina. De hecho, mientras que la microbiota de quienes nacen por parto vaginal se parece mucho a la de la vagina y la materia fecal de la madre, para quienes nacen por cesárea los primeros colonizadores son microorganismos que habitan usualmente en la piel materna. Pero, además, se observó que, por lo menos durante todo el primer año que sigue al nacimiento, las comunidades de microorganismos que habitan en el intestino de niños y niñas nacidos por parto vaginal son más parecidas a las que están presentes en el intestino de su propia madre que a las de otras gestantes. Se trataría, entonces, de una especie de herencia microbiológica.

Con todos estos datos, no hubo que esperar mucho hasta que se propusiera una forma de simular la exposición a la microbiota vaginal diseñada para quienes habían nacido por cesárea. La idea es bastante simple y consiste en que, inmediatamente después de la cesárea, se toman fluidos de la vagina de la madre y se los transfiere a la piel, boca y otras partes del cuerpo del recién nacido. A este procedimiento se lo llamó microparto o también siembra vaginal. Hay trabajos que muestran el efecto positivo de este tipo de intervención y otros que proponen que hay que ampliar los estudios para concluir qué alcances tiene. Lo cierto es que, aun siendo una posibilidad prometedora, es importante considerar los riesgos que podría tener si se hace sin una serie de cuidados. Entre las bacterias y virus que pueden estar ocasionalmente en la vagina hay algunos que suponen una amenaza muy concreta para un sistema inmune inmaduro. Entonces, en principio, estos procedimientos son seguros solo si se comprueba antes del parto que la persona gestante no tiene presentes en la microbiota vaginal gérmenes que representen peligros de infección para el recién nacido.

Claro que la microbiota se desarrolla acompañando la vida de cada persona y va reconfigurándose según varios factores, por ejemplo, el tipo de lactancia, la alimentación posterior y el uso de antibióticos. De hecho, las diferencias entre las comunidades de bacterias de quienes nacen de diferentes modos se van diluyendo con el paso del tiempo. Aun así, ese primer contacto con el mundo de microorganismos que están fuera del útero deja huellas en el organismo, en la posibilidad de defenderse frente a algunos gérmenes patógenos, de regular el funcionamiento de muchos sistemas, e incluso de enfermarse.

¿Tiene que doler?

Al correr la atención de la escala microscópica de la microbiota, se evidencia que el parto es un despliegue de movimientos, fuerza y acciones mecánicas. Todo esto, orquestado por hormonas que marcan el pulso de lo que va sucediendo. Cerca del final del embarazo, suelen aparecer señales en el feto, en la persona gestante y en la placenta que empiezan a avisar que es tiempo de pasar a la siguiente fase. Uno de los tantos cambios que se observan es un aumento de la concentración de la hormona denominada oxitocina en la sangre de la persona gestante y de los receptores de la oxitocina en la pared del útero. Aunque tiene muchas otras funciones más allá del parto, la oxitocina es una de las protagonistas de este momento porque hace que el útero se contraiga y se relaje en ciclos regulares hasta que se produzca la expulsión del feto y de la placenta.

Tanto para la persona que está próxima a parir, que muchas veces experimenta un dolor agudo en cada contracción, como para el feto que está sacudiéndose dentro del útero, el trabajo de parto es una situación que estimula respuestas muy dirigidas a enfrentar ese proceso. Durante el trabajo de parto, las contracciones uterinas, que pueden durar unas cuantas horas, estimulan la liberación de hormonas que se hacen presentes en situaciones de estrés. Al comparar, por ejemplo, los cordones umbilicales de bebés nacidos por partos vaginales y los de bebés nacidos por cesárea, se vio que en los casos en los que había habido trabajo de parto, aumentaba la concentración de adrenalina, noradrenalina y cortisol. En el parto vaginal, a los movimientos de las contracciones se les suman las fuerzas que se ejercen sobre el feto al pasar por el canal de parto. Las hormonas del estrés liberadas como consecuencia del trabajo de parto y del paso por el canal son importantes para la maduración del sistema inmune y de varios otros órganos, como los pulmones. Además, esta exposición temprana contribuye en el recién nacido al desarrollo de los sistemas que relacionan el cerebro con las glándulas que producen hormonas para mantener funciones básicas como la excreción, la regulación de la temperatura y también la adaptación a contextos estresantes.

Las maneras de nacer son muy variadas y las categorías cesárea versus parto vaginal se quedan cortas para describirlas. Muchas investigaciones actuales están poniendo la lupa sobre los efectos de elementos como la administración de oxitocina sintética durante el trabajo de parto y de técnicas anestésicas de uso corriente, como la epidural.

En su libro Éramos unos niños, la artista Patti Smith relata lo que vivió al llegar al hospital para el parto de su primer hijo. Tenía 19 años y luego del nacimiento daría en adopción a ese bebé, decidida sobre su deseo de no tener hijos en ese momento de su vida. Ella cuenta: “Debido a mi soltería, las enfermeras fueron extremadamente crueles e indiferentes y me dejaron en una camilla durante varias horas antes de informar al médico que estaba de parto. Se burlaron de mí por mi pinta de beatnik y mi conducta inmoral. Me llamaron ‘hija de Drácula’ y amenazaron con cortarme la larga melena negra”. La historia es de 1966 y ocurrió en Estados Unidos, pero no resulta especialmente lejana. En Argentina, a partir de 2004 existe una ley nacional (la 25.929) que orienta el tratamiento que debe darse a las mujeres y personas gestantes durante el parto y el posparto. Se la llama ley de parto humanizado porque coloca en un lugar central el trato respetuoso que deben recibir quienes participan del parto (gestantes y recién nacidos). En la ciudad de Buenos Aires, en 2020, se le sumó la Ley de Parto Respetado y Atención Perinatal (6.365), que, parándose sobre la ley nacional, amplía algunos puntos. Propone, entre otras cosas, que la persona gestante puede elaborar un plan de parto, una herramienta consensuada con los y las profesionales de manera previa que anticipa los lineamientos de cómo debería ser ese parto. La idea de un plan personalizado de parto evidencia la diversidad de formas de parir y nacer. Es posible que en la práctica todas estas leyes no se materialicen integralmente, pero son derechos conquistados que están ahí esperando salir del papel y llegar a la sala de partos.

La posibilidad que tenemos de intervenir, proponer reglas y procedimientos para guiar las formas de nacer, e incluso transformarlas no debería ser subestimada considerando el papel de los estímulos tempranos. En la medida en que se conozca más de las implicancias concretas de estas intervenciones, será posible que más personas gestantes y profesionales decidan, con fundamentos, si tiene o no tiene que doler. 

Hola, mundo

En 1953, veinticinco años después de haber pisado Manus por primera vez, Margaret Mead volvió a encontrarse con la isla y sus habitantes. Varios colegas le habían insistido para que regresara y viera con sus propios ojos cómo habían cambiado las cosas allí. Para ella tampoco era igual que en su primer viaje, ahora llevaba a dos estudiantes como equipo de trabajo y era una antropóloga conocida. Además, ya había tenido a su única hija, Mary Catherine, en 1939.

Como era de esperar, Margaret encontró muchos cambios en la organización social de Manus. Lo que no esperaba era que pocos días después de su llegada hiciera erupción un volcán cercano y el peligro de un maremoto la obligara a evacuarse junto a toda la aldea en lo alto de una montaña. Afortunadamente, la catástrofe que se temía no llegó. En sus diarios, Margaret comenta que el traslado y la convivencia en el campamento de emergencia le dieron la oportunidad de compartir con la población de Manus una situación insólita como esa.

Tal vez por este evento extraordinario que le dio la bienvenida a la isla y le permitió estrechar lazos con sus habitantes, por los cambios que habían ocurrido en Manus durante esos años, o porque ya había sido madre, Margaret pudo acercarse mucho más que en su primera visita a los partos que ocurrieron durante su estadía de 1953. En una entrada de su diario de agosto de ese año dice:

Nunca vi a un recién nacido tan a sus anchas en el mundo como se lo logra con estos bebés, nacidos con gran rapidez, con la madre en el suelo, sostenidos delante de ella hasta que sale la placenta, recogidos luego en la áspera blandura de una falda de paja que estimula a la vez que protege, lavados en minutos con vasos de agua fría que se vierten encima y cobijados tibia y humanamente en los brazos de una anciana, mientras esta les canta una canción de arrullar, versión repetitiva de los vagidos del niño y con la cual lo harán dormir durante el resto de su infancia. Ojos muy abiertos, gritos acallados, cabeza y manos y pies en un movimiento que disimula su falta de coordinación, estos niños miran alrededor y cuesta creer que no vean bastantes cosas.

Cuesta creer que no piensen: “Hola, mundo”.

Vivir afuera

Doljanchi es el nombre que tiene la celebración del primer cumpleaños en Corea. La imagen más conocida de este festejo es una mesa grande en la que el bebé agasajado está sentado de frente a los invitados, rodeado de bandejas repletas de comida, tortas de arroz coloridas, frutas y flores. Como toda fiesta de cumpleaños, tiene un momento muy esperado, que en este caso es el doljabi: en una superficie se distribuyen objetos diferentes y se aguarda a que el bebé se acerque a alguno de estos objetos, lo elija y lo agarre. A partir de la elección, las personas invitadas interpretan el futuro del niño o niña que cumple su primer año. El repertorio de objetos puede variar: un ovillo de lana representa longevidad y salud, la elección de un libro es interpretada como augurio de un buen desempeño académico. Claro que las opciones dependen de aquello que hayan elegido los padres para presentar a sus hijos e hijas, e incluso hay quienes suman objetos que admiten interpretaciones más específicas como un estetoscopio, una pelota de fútbol o un micrófono. De alguna manera, las celebraciones alrededor del doljanchi logran poner como protagonista al bebé aun cuando este no puede conversar con sus invitados o recorrer la fiesta asegurándose de que todos estén tomando algo. 

Trazar el lugar de origen y el momento en que comenzó esta celebración es difícil porque su historia se hunde muy atrás en el tiempo, y el doljanchi tiene siglos de versiones y reversiones. Sin embargo, se reconoce una motivación inicial: celebrar que un integrante de la familia y de la comunidad haya transitado y sobrevivido el primer año de vida. En el período que va entre el nacimiento y el primer año, los humanos somos bastante vulnerables y necesitamos muchos cuidados. Es posible imaginar, en un doljanchi de hace nada más que ciento cincuenta años —en un mundo en el que que aún no se habían desarrollado antibióticos, en el que no había las vacunas que conocemos hoy, en el que muchas enfermedades congénitas que actualmente se tratan con éxito no tenían solución—, que la gente viera realmente un triunfo en tener un bebé sano y creciendo. Probablemente, sabían que alejarse del nacimiento y contar cada aniversario era una manera no solo de hacerse menos dependiente de los cuidados, sino de estar más a salvo de algunos peligros.

Hoy en día la mayoría de las familias coreanas —al igual que muchas otras en otros lugares— tienen más herramientas para garantizar la protección de sus bebés durante ese período inicial, pero el doljanchi se sigue festejando. Al fin y al cabo, cuidar a un bebé sigue siendo un trabajo intenso y los primeros años de vida están repletos de cambios importantes.

No tan rápido

La duración de la gestación y el estado de maduración con el que nacen las diferentes especies de animales es muy variable. Dentro de los mamíferos, hay casos de crías que, a las pocas horas de nacer, ya pueden desplazarse por sus propios medios a la par de un adulto, que tienen capacidades sensoriales lo suficientemente desarrolladas como para estar alertas del entorno y que, en un intervalo corto de tiempo, son capaces de reproducirse. Un ejemplo clásico, los caballos. La preñez de los caballos dura alrededor de 340 días, es decir, un 20% más que la nuestra, y resulta en crías que comienzan a caminar inmediatamente después del nacimiento y cuyo cuerpo está completamente protegido por pelaje, entre otras características que les permiten vivir sin precisar tanto cuidado de parte de otros.

En el otro extremo del espectro, que está lejos de ser ordenado y sin grises, hay muchos mamíferos que nacen más inmaduros y con bastantes dificultades para arreglárselas sin ayuda: roedores como ratones y ratas, carnívoros como gatos y perros, y la lista podría continuar. La mayoría de estos animales nacen sin pelo, con los ojos cerrados, les cuesta desplazarse y precisan de cuidados básicos de higiene y para mantener la temperatura corporal estable. Las gestaciones en estos casos son generalmente más cortas: los ratones pasan alrededor de veinte días en el útero, e incluso felinos de proporciones considerables como los leones, solo 110 días.

Entremos ahora a los grises. Los humanos tenemos gestaciones prolongadas, comparables a las de simios actuales como chimpancés, gorilas y orangutanes —que pasan entre 34 y 37 semanas dentro del útero—, y nacemos con un tamaño corporal grande. Pero el desarrollo que sigue al nacimiento es relativamente lento y prolongado, y en ese período requerimos una gran cantidad de cuidados. Un aspecto clave en el que se ve esta característica es el tamaño de nuestro cerebro. Al nacer es de alrededor de un cuarto del tamaño que alcanzará en la adultez, es decir que gran parte del crecimiento y la maduración de este órgano será fuera del útero. Por la duración de los embarazos en nuestra especie y los procesos que ocurren antes de nacer, somos primates que para algunas cosas nacemos bastante maduros, aunque para otras nacemos demasiado pronto.

Mientras que durante la gestación el surgimiento de las neuronas es uno de los protagonistas en el desarrollo del cerebro, después del nacimiento se despliegan otros procesos esenciales para la formación del sistema nervioso. Entre esos procesos están los que resultan en la formación de las prolongaciones de las neuronas que permiten la comunicación entre ellas y con células de otros tipos y con funciones diversas. Esta comunicación permite, por ejemplo, que un músculo se contraiga o que se puedan percibir sonidos. En los primeros meses que siguen al nacimiento, la formación del “cableado” que permitirá el tráfico de impulsos nerviosos es muy activa. Uno de los tipos de prolongaciones de las neuronas son los axones, que suelen encargarse de transmitir ese impulso desde la neurona hacia su destino. Lo que permite que ese impulso viaje más rápido y eficientemente a lo largo de los axones es el material que los recubre, la mielina. El proceso de formación de esa sustancia y el recubrimiento de los axones ocurren mayormente luego del nacimiento, son muy importantes en los primeros años y continúan incluso hasta la adolescencia. De hecho, el crecimiento en tamaño que experimenta nuestro cerebro durante los primeros 18 meses de vida se debe en gran parte al aumento de la sustancia blanca, que es la porción del cerebro compuesta por prolongaciones neuronales recubiertas de mielina.

Además de axones, las neuronas pueden tener dendritas, unas extensiones con forma ramificada y más cortas que usualmente llevan la información desde afuera hacia las neuronas. La arborización de las dendritas, es decir, la formación de esas ramas que se bifurcan y pueden llegar a ser muy complejas es un proceso que está muy activo al momento de nacer y que continúa durante todo el primer año de vida con mucha intensidad.

De todo esto se va desprendiendo que en los primeros tiempos de vida fuera del útero, el cerebro de los humanos cambia mucho y, sobre todo, sus componentes se conectan. Esto permite la comunicación, o sea, la transmisión de los impulsos nerviosos entre diferentes áreas del cerebro, y del cerebro con otros tejidos y órganos como músculos o glándulas. Para que efectivamente ocurra esa comunicación, es necesario que se establezcan sinapsis, estructuras formadas por la aproximación de una neurona con otra célula que puede o no ser de su mismo tipo. Entre ambas células se establece un pequeño espacio a través del cual se transmiten impulsos eléctricos o se liberan sustancias químicas que actúan como transmisores de un determinado estímulo. Y como se ve venir, la gran mayoría de las sinapsis se forman también después de nacer, hasta aproximadamente los tres años y medio.

En 1979, Peter Huttenlocher, un pediatra especializado en neurología, publicó un trabajo en el que por primera vez se contaban cuántas sinapsis había en los diferentes momentos de la vida de los humanos. Con mucha paciencia, Peter juntó cerebros de personas fallecidas, desde neonatos hasta adultos de 90 años, puso a punto la técnica para observar las sinapsis en el microscopio electrónico y empezó a contar. Lo que vio fue que la densidad de las sinapsis aumentaba muy rápido después del nacimiento, pero que ese valor caía después de los primeros años. Esto le hizo pensar que, de todas las sinapsis que se formaban, solo algunas llegaban para quedarse y funcionar. Luego, la comunidad científica le asignó a este proceso el nombre de pruning, algo así como podado. Algunas sinapsis quedan y otras se eliminan, pero no de manera aleatoria, sino selectiva: sabemos, por ejemplo, que aquellas sinapsis que tienen más actividad tienden a durar y se eliminan las que no están funcionando al mismo nivel. La manera en que se comunican las células a través de las sinapsis explica gran parte de los patrones de actividad del cerebro, y es por eso que la organización y reorganización de los circuitos durante el desarrollo son clave. Aunque llama la atención durante los primeros años, el podado sináptico también ocurre en la adolescencia y es parte de varios procesos por los que los circuitos del cerebro maduran y se refinan.

El “cableado” de estas redes neuronales avanza en los primeros años mientras se experimentan estímulos muy diversos. Empezar a escuchar sonidos y voces nuevas, ver formas y colores que no se divisaban en la oscuridad del útero, sentir olores, interactuar con otras personas. Estos estímulos sensoriales no son solo el decorado de los meses que siguen al nacimiento, son elementos fundamentales para la maduración del cerebro. En diferentes estudios, se observó que la experiencia de los individuos en interacción con el ambiente y con otras personas es clave para la organización de las conexiones y para que, de manera progresiva, algunos comportamientos y habilidades aparezcan por primera vez y se complejicen luego. La ceremonia del doljabi, por ejemplo, requiere que el bebé pueda sentarse, divise los diferentes objetos que se le presentan y se desplace para agarrar uno de ellos, y, por lo tanto, no podría hacerse mucho antes del primer año. Un bebé a los 3 meses puede sostener su cabeza y dirigir la mirada hacia diferentes objetos, pero no sentarse. Pocos meses después esa habilidad se logra, y para los 9 meses es frecuente que el bebé consiga agarrar cosas y que se mueva de un lado a otro gateando. Para el doljanchi probablemente muchos niños y niñas ya logren pararse e incluso caminar. Estos logros suelen ocurrir a edades determinadas, con un orden más o menos recurrente y regular, y de hecho la secuencia tiene valor diagnóstico para detectar problemas en el desarrollo del sistema nervioso. Esa constancia en el tiempo y orden de los procesos resulta, en parte, de la red de genes que regula el desarrollo. Pero no es solo eso: el desarrollo avanza balanceándose entre la hoja de ruta que proponen los genes y la interacción con lo que nos rodea. 

Defensa personal

La exposición a un ambiente diverso y relativamente desconocido supone toparse con algunos agentes infecciosos que pueden ser más o menos peligrosos, y eso constituye uno de los principales desafíos que siguen al nacimiento. El sistema inmune o de defensa con el que nacemos es muy diferente al de un adulto y, de hecho, los niños y niñas de corta edad son especialmente vulnerables a algunas infecciones.

Diferente, en este caso, no significa “más simple”. De hecho, el esfuerzo que hay puesto en entender cómo funciona nuestra respuesta inmune durante los primeros años de vida demuestra que esa respuesta no es simplemente una versión más inmadura que la que encontramos en la adultez. Cada fase de la vida transcurre con requerimientos distintos, y al nacer tenemos una caja de herramientas que funciona bastante bien para vivir dentro del útero, en un ambiente en el que la exposición a los microbios es relativamente limitada. Además, en ese ambiente es fundamental que el feto y quien lo está gestando se toleren mutuamente y, si todo anda bien, no se reconozcan como amenazas externas a eliminar.

De hecho, varias de las causas de abortos espontáneos recurrentes se asocian a respuestas del sistema inmune materno que no permiten que el desarrollo embrionario o fetal avance. Algunas de estas causas pueden ser diagnosticadas y tratadas para sostener gestaciones que lleguen al nacimiento.

Lo que despliega el recién nacido frente a diferentes agentes como virus o bacterias refleja parte de esa historia prenatal, es decir que ante la exposición a patógenos fuera del útero, la respuesta inmune se parecerá bastante —aunque no totalmente— a la que hubiera habido antes de nacer. 

A través de la placenta y de la leche materna se transfiere una dotación de anticuerpos que permiten neutralizar algunos de los patógenos a los que se exponen los bebés. Luego, comienza a avanzar el desarrollo de otros componentes de la respuesta inmune, que se van superponiendo como capas, pero que en los primeros tiempos muchas veces resultan insuficientes para enfrentar ciertas infecciones, por ejemplo, algunas que producen enfermedades respiratorias severas y diarreas agudas. De hecho, la mortalidad infantil —la muerte de un niño antes del año de vida— sigue siendo un problema enorme en muchas partes del mundo. Globalmente, un 2,9% de los niños que nacen vivos mueren antes del año. Sin embargo, una vez más, se trata de un problema muy desigualmente distribuido: en países como República Centroafricana el porcentaje está cerca del 9%, mientras que en Islandia ostentan el récord más bajo con apenas un 0,016%. Pero incluso en los peores escenarios actuales hay mayores probabilidades de sobrevivir que en otros momentos históricos. La mortalidad infantil viene desde hace décadas en claro descenso, tanto que, comparado con las cifras de 1990, hoy tenemos en el mundo un 58% menos de muertes antes del primer año. En este punto, el desarrollo y la aplicación masiva de vacunas que reducen la circulación de virus y bacterias peligrosos para los más chicos, el uso de antibióticos y otras intervenciones médicas explican por qué ese número fue —y probablemente siga— achicándose. También la nutrición y la higiene juegan un rol importante porque permiten una exposición a diferentes agentes necesaria para la maduración del sistema inmune, pero con menores riesgos. La defensa es personal, pero también depende, de muchas maneras, de quienes cuidan y crían.

Se necesita una aldea

Una buena pregunta a esta altura es por qué la gestación en humanos no es más larga o tiene ritmos de crecimiento fetal más acelerados. Nacer tan susceptibles y dependientes de los cuidados de otros no parece, a primera vista, muy ventajoso. Muchos plantearon que los nacimientos serían más difíciles o incluso imposibles por el tamaño del canal de parto si al nacer tuviéramos tamaños mayores, especialmente el del cerebro. Ese dilema obstétrico, que ya abordamos antes, sería uno de los factores que modeló nuestra evolución y al que le debemos, al menos en parte, que nuestro cerebro aumente de tamaño y madure a medida que conocemos e interactuamos con el mundo que existe fuera del útero.

Pero hubo quienes pensaron más allá de este dilema y se enfocaron en una característica particular del cerebro, que es un órgano costoso energéticamente, o sea, hambriento. En los humanos, alrededor del 20% de la energía que el cuerpo de un adulto necesita para funcionar va destinado a mantener el cerebro; bastante si pensamos que su peso es solo el 2% del peso corporal total. Pero más llamativo aún es el hecho de que en un recién nacido más del 60% de la energía consumida se destina a sostener el funcionamiento del cerebro y, sobre todo, su desarrollo.

Una manera de enfrentar una demanda energética de estas características es la crianza cooperativa: garantizar la estabilidad en la provisión de alimentos compartiendo en parejas o grupos de más integrantes el cuidado de los niños. Esto podría significar que, evolutivamente, desarrollar cerebros más demandantes fue posible en contextos en los que la madre, durante la gestación y la lactancia, y luego su descendencia, contaban con otras personas a su alrededor para conseguir alimento, cargar a los más pequeños, protegerlos de predadores si los hubiere y otras tareas de cuidado.

No somos los únicos animales que sostenemos crianzas en base a redes de cuidados. En uno de los libros más polémicos que se hayan escrito en el campo de la biología, Edward Wilson propuso el término alopaternidad para describir el vínculo de cuidado de un individuo hacia otro más joven o inmaduro de la misma especie sin que exista entre ellos un vínculo genético directo, es decir, sin que uno sea descendiente directo del otro. Wilson había estudiado en las hormigas, insectos con una organización social y jerarquías bien diferenciadas, cómo algunas se encargaban de cuidar a la prole de las de más arriba de la pirámide. Vio en ese patrón de cuidado delegado un aspecto interesante que se repetía en muchos grupos de animales y que merecía un nombre. Las relaciones aloparentales se estudiaron en peces, aves y mamíferos, dando cuenta de que existe una enorme diversidad en esta manera de cuidar.

Entre los mamíferos, los cuidados aloparentales de las crías suelen incluir el amamantamiento no solo de las propias, sino de las ajenas, la participación en la alimentación cuando empiezan a incorporar alimentos sólidos y el transporte de los más pequeños que no son capaces de desplazarse con facilidad o eficiencia. Quiénes cuidan a los más pequeños, cómo y por cuánto tiempo lo hacen es muy variable. La cuestión se pone incluso más compleja si consideramos el rol específico de los padres o progenitores machos, que a veces tienen una participación importante y muchas veces, no. Así, por ejemplo, solo en un 5% de las especies de mamíferos los machos progenitores presentan comportamientos habituales de cuidado luego del nacimiento. En primates, este número aumenta, llegando incluso —en casos como el de los monos tití o los micos nocturnos— a ser los machos quienes se ocupan mayoritariamente del cuidado de la descendencia, mientras que las madres interactúan con la cría casi exclusivamente para amamantarla.

El cuidado aloparental entre los humanos puede venir en formatos muy diversos, más o menos formalizados, más o menos basados en el parentesco. La variación entre y dentro de las sociedades en cuanto al rol de los cuidadores es notable, de la misma manera que podemos reconocer cambios históricos respecto a la participación de jóvenes y adultos en el cuidado de los niños y niñas durante los primeros meses o incluso años de su vida. Lo cierto es que la suma de personas que forman el universo del cuidado cooperativo amplía los estímulos y las experiencias.

Más allá de las relaciones de descendencia biológica y consanguinidad, las formas de cuidado hacia quienes demandan atención, en especial las personas de menos edad, responden a ciertas ideas sobre el rol de cada uno en la organización social. Y esos roles son diversos, pueden resultar arbitrarios y, por lo tanto, disputarse. Margaret Mead, la misma antropóloga que visitó y revisitó Manus, se dedicó también a estudiar otras sociedades de Nueva Guinea, entre ellas a los arapesh, que vivían en una parte montañosa de las islas. Uno de los aspectos que más remarcó de los arapesh fue la participación activa de los padres en el cuidado de los niños desde el nacimiento. En sus relatos, se muestra sorprendida de ver madres y padres implicados en tareas que raramente un varón nortamericano de 1930 haría. Margaret vio que, luego del nacimiento, inmediatamente, el padre llegaba al lugar y permanecía junto a su hijo y la madre, compartiendo las tareas de cuidado del recién nacido. Se encargaba de buscar agua para dar el primer baño al bebé, permanecía allí los primeros días atento a las necesidades y su rol era esencial en el desarrollo de los ritos que garantizaban el bienestar del recién nacido y la familia. Luego de ese período, no abandonaba la crianza, sino que participaba activamente en ella, por lo menos así lo cuenta Margaret. De hecho, llama la atención sobre una frase que escuchó decir, un poco en chiste, cuando alguien halagaba la apariencia de un hombre: “¿Buen aspecto? ¿De veras? Pues tenía que haberle visto antes de cuidar a todos esos chiquillos”.

Durante muchos años, por lo menos hasta finales del siglo XX, el centro de las investigaciones sobre los cambios físicos y su relación con el comportamiento estuvo puesto exclusivamente en las personas que habían gestado y que transitaban el período de posparto. En muchos países en los que se desarrollaron estas investigaciones, el cuidado simplemente no era un tema de gran relevancia para los varones, pero los movimientos feministas comenzaron a cuestionar que el correlato de gestar sea hacerse cargo también de todo lo demás. Y estos cuestionamientos impulsaron la apertura a nuevas preguntas científicas, por ejemplo, si ocurren cambios en el cuerpo de quienes no gestan, pero sí cuidan. Un incentivo para abrir el juego fue la observación consistente de que, en algunos animales, los machos también muestran variaciones hormonales según el momento de desarrollo de sus crías y la interacción que tengan con ellas. Una de estas variaciones hormonales ocurre con la testosterona, que en los varones se produce principalmente en los testículos (también se produce en mujeres, pero en menores cantidades). La fama de la testosterona  —la de ser la hormona masculina por antonomasia— proviene de su rol en la maduración de los órganos sexuales masculinos y otras características corporales que comienzan a aparecer en los varones con la pubertad. Pero sus niveles no se mantienen inmutables: varios estudios encontraron que padres que tenían cierto grado de involucramiento con sus hijos en los primeros años mostraban niveles menores de testosterona. 

Si la testosterona se reconoce comúnmente como la hormona masculina, hablar de oxitocina remite casi inmediatamente al mundo de “lo femenino”, particularmente al parto. Pero la oxitocina se produce en una región del cerebro llamada hipotálamo, presente en todas las personas independientemente de su sexo biológico, y tiene muchas más funciones conocidas además de contraer la musculatura del útero durante el parto para favorecer la expulsión del feto. Estimula las glándulas mamarias y es clave para la lactancia, pero también existen receptores para la oxitocina en el cerebro, y se observó, principalmente en animales de laboratorio, su asociación con comportamientos reproductivos y de cuidado de las crías. Por esta asociación, algunos la llaman la “hormona del amor”.

Si la oxitocina es la hormona del amor o por lo menos del cuidado, ¿qué pasa con los que cuidan y con los que no cuidan tanto? En 2014, un grupo de investigadores e investigadoras de Israel publicaron un estudio en el que compararon tres grupos de personas con hijos de entre 5 meses y dos años y medio aproximadamente. Los grupos estaban compuestos de la siguiente manera: primero, madres mujeres que habían gestado a esos niños y niñas y asumían las mayoría de las tareas de cuidado. Segundo, los padres, es decir, las parejas varones heterosexuales de esas mujeres, que tenían un rol secundario en los cuidados, pero participaban de alguna forma. Por último, padres adoptivos que formaban parejas homosexuales y sostenían un rol principal en el cuidado y la crianza de los hijos. Los tres grupos, como puede verse, eran aparentemente diferentes. Pero cuando el equipo de investigación midió la oxitocina en cada uno de ellos, descubrió que los valores eran similares. Es decir que, más allá del sexo biológico de la persona que cuide, e incluso en casos con diferente involucramiento en la tarea, la oxitocina se mantiene más o menos constante. Este es un dato importante porque los niveles de esta hormona en personas que no tienen hijos a su cuidado es menor (como  indican otros estudios que compararon con personas sin hijos), lo que en conjunto llevaría a concluir que la regulación de la oxitocina en estos contextos depende del estímulo de cercanía e interacción con el bebé y no de quién sea la persona que cuida.

Lo más interesante del estudio israelí fue que invitaron a los participantes a realizar un análisis sobre cómo respondían sus cerebros a estímulos de videos en los que estaban ellos con sus hijos. Para eso, usaron resonancia magnética funcional, una técnica que permite ver qué áreas del cerebro se activan simultáneamente e inferir qué circuitos se ponen en acción ante determinadas situaciones. A partir de los resultados, identificaron que las áreas que respondían a los estímulos y la red de conexión entre ellas eran, a grandes rasgos, las mismas para los tres grupos. Por un lado, hay una parte de la red comprendida por áreas como la amígdala, que se asocia, resumidamente, con el procesamiento del malestar, la recompensa y la vigilancia, entre otras emociones. Por otro lado, esta red que se activa en las personas que cuidan involucra regiones de la corteza prefrontal y otras asociadas a la interpretación del comportamiento propio y ajeno, la empatía, etcétera. Sobre todo la primera parte de la red que los autores llaman emocional incluye áreas del cerebro especialmente sensibles a la presencia de oxitocina. Más allá de algunos patrones particulares que describen para cada grupo de madres y padres, este trabajo, junto con otros muchos, concluye que las actividades de cuidado se relacionan con la producción de hormonas y otros aspectos fisiológicos de los individuos.

Entonces, ¿los cambios hormonales explican los diferentes comportamientos de cuidado? ¿O los comportamientos inducen las variaciones en los niveles de hormonas y otros rasgos físicos? ¿Es el huevo o la gallina? Las asociaciones que se establecen en uno u otro caso dependen de los objetivos y del diseño de los estudios científicos, así como de la interpretación de los datos. De cualquier manera, es importante poner atención en algunos aspectos. Alrededor de la testosterona, se construyó la idea de que esta hormona constituye un elemento central de la virilidad masculina, incompatible con funciones de cuidado que, para la mirada occidental tradicional, han sido históricamente feminizadas. Algo similar, pero en sentido inverso, puede pensarse para la oxitocina, que, por su rol en el parto y la lactancia, se invoca para explicar las bases biológicas del cuidado. Pero los estudios muestran asociaciones, fluctuaciones, cambios en variables que pueden relacionarse con los comportamientos que se discuten, pero que son solo una parte de un fenómeno bastante más complejo en el que entran en juego las ideas sobre los cuidados que tienen las personas en cada sociedad, sus motivaciones e historias individuales. 

Hay una frase —según algunos, africana— que dice que se necesita una aldea para criar a un niño. No siempre es una aldea, pero el cuidado durante la infancia suele estar en manos compartidas. Cuáles son esas manos y cómo están implicadas dependerá, evidentemente, de muchas cuestiones.

Menú infantil

Si uno se dedica a mirar con atención, la diversidad de seres vivos es enorme. Desde peces de colores en los mares tropicales hasta organismos microscópicos adaptados a los ambientes más hostiles. Incluso en la ciudad —con sus plantas de balcón y los gusanos que hay en su tierra, los pájaros que hacen nidos acá y allá, los perros y gatos que viven en cada casa, los humanos que nos encontramos todos los días por la calle—, la diversidad es definitivamente apabullante. Para la comunidad científica fue, y sigue siendo, una tarea titánica organizar tal diversidad. Organizarla para estudiarla y entenderla.

Probablemente el mayor organizador en la historia de las ciencias biológicas fue Carl von Linné, más conocido como Linneo, un sueco que en el siglo XVIII pensó que era tiempo de poner un poco de orden y propuso algunas reglas generales acerca de cómo nombrar y clasificar a los seres vivos. La nomenclatura binomial (lo que en los museos, viveros y en otros lugares suele aparecer como nombre científico) fue creada por Linneo en 1731 y, como señala la misma expresión, consiste en un sistema que usa dos nombres. Por ejemplo, Homo sapiens tiene dos partes. Por sí solas, ni la primera ni la segunda parte de ese nombre indican una especie. La primera, Homo, denota el género, una categoría que nos incluye, pero que también agrupa a otras especies (extintas) de Homo, mientras que la segunda parte aporta un nombre específico que, en conjunto con la primera, denominan a una especie y solo a una: la de los humanos. Otro ejemplo, la lechuga que comemos en las ensaladas corresponde a la especie Lactuca sativa. Hay otros representantes del género Lactuca que no son lechuga, como por ejemplo la Lactuca virosa, una planta un poco diferente a la inofensiva e infaltable de la ensalada ya que contiene sustancias con efectos sedantes que, en dosis elevadas, incluso pueden ser tóxicas. Pero tampoco el nombre sativa aisladamente da cuenta de que nos referimos a la lechuga, de hecho, sativa es parte del nombre de otras especies, como Cannabis sativa, conocida comúnmente como marihuana.

El punto de todo esto es que Linneo fue también quien propuso que los mamíferos nos llamáramos así, mamíferos. Lo hizo pensando en agrupar a los animales que, entre otras cosas, tenemos mamas y nos alimentamos de leche materna en nuestros primeros momentos de vida, ponernos en una categoría única, de la misma jerarquía que las aves, los peces, los reptiles y los anfibios. Pero, como ocurre con todo nombre, la elección de por qué ese y no otro revela algunas decisiones deliberadas, y otras que probablemente Linneo ni percibió. A lo largo de estos casi trescientos años, fueron muchos los que se preguntaron y elucubraron sobre qué llevó a Linneo a prestarles especial atención a las mamas, y también a la leche materna, por encima de otros rasgos que compartimos con el resto de los mamíferos.

Una de las escenas repetidas en las salas de los museos de ciencias naturales es que, al llegar a la exhibición de los esqueletos de mamíferos, se proponga a los y las visitantes contar cuántas vértebras hay en el cuello de los diferentes esqueletos. Después de un trabajo que puede no ser fácil —porque muchas veces no es tan obvio dónde termina la columna cervical y empieza la dorsal—, lo que se obtiene es que el número de estas vértebras es siete, tanto para el esqueleto gigante de una ballena como para el de un roedor de pocos centímetros de largo. Si bien hay algunas excepciones, la enorme mayoría de los mamíferos cumple con esa condición. Es probable que el guía del museo les diga a los visitantes que, aunque en el esqueleto no pueda verse, hay otros rasgos que también distinguen a los mamíferos del resto de los animales, como el pelo. Alguien podrá preguntar, para alegría del guía, por qué entonces no nos llamamos peludos en lugar de mamíferos. Es una buena pregunta.

Fue en la décima edición de su libro más famoso, Systema natura, donde Linneo introdujo el término Mammalia, que transformado al español y de manera corriente corresponde a mamífero. Antes de eso, los mamíferos solíamos entrar en una categoría propuesta por Aristóteles, la de cuadrúpedos. El problema era que en la categoría Quadrupedia entraban también reptiles y algunos anfibios, que claramente tenían diferencias importantes con los que después se llamaron mamíferos, entonces era relevante proponer una clasificación que permitiera separarlos. Lo que sí resolvía el término Quadrupedia era que los humanos quedábamos de alguna manera aparte de estas clasificaciones, lejos en la escala que ordenaba a los animales. Esa idea era muy seductora para la tradición que consideraba a los humanos una creación suprema, hecha a imagen y semejanza de Dios y, por supuesto, diferenciada de otros seres vivos. Pero Linneo estaba convencido de que los humanos debíamos entrar en una clasificación que nos acercase un poco más a otros animales.

Linneo era un naturalista interesado en conocer nuevas plantas y animales, y también ordenarlos, pero, además, era médico. No solo tenía título de médico, sino que, efectivamente, atendía pacientes. En su trabajo asistencial observaba que muchas mujeres, especialmente las que venían de sectores más ricos, no amamantaban a sus hijos, sino que dejaban esa tarea a nodrizas contratadas a tales fines. En su época, Linneo fue uno de los detractores más fervientes de esta práctica; estaba totalmente en desacuerdo con que los niños no fueran alimentados por sus madres biológicas. Lo cierto es que la manera en que se organizaba el trabajo de las nodrizas muchas veces no garantizaba condiciones lo suficientemente buenas para sostener esta práctica, y esto redundaba en perjuicios para la salud de las nodrizas y también de los bebés propios y ajenos. Es posible que esta fuera la preocupación que impulsó a Linneo a manifestarse y accionar en contra de esta costumbre. Pero, además, todo sea dicho, la postura de Linneo tenía como correlato ubicar a las mujeres indiscutiblemente en su hogar, con el rol principal de alimentar y cuidar a sus hijos. A un tipo ordenado, esto le parecía el orden “natural” de las cosas. Sin ir más lejos, él mismo tuvo una única esposa y fue ella quien crió y amamantó nada más y nada menos que a siete hijos. Siete, como las vértebras del cuello de los mamíferos.

Entonces, la defensa que hacía Linneo de la lactancia materna puede haber empujado su elección al momento de nombrarnos. Mammalia es un término que, sin embargo, deja algunos casos en una zona gris. No solo a los monotremas, dentro de los que se encuentran los ornitorrincos —que son mamíferos raros, pero mamíferos al fin, y, aunque producen leche, no tienen glándulas mamarias—, sino a los machos de las especies de mamíferos que, en condiciones normales, no son capaces de producir leche. Una solución posible podría haber sido un término que refiriera más al acto de alimentarse con leche en los primeros momentos de la vida. Después de todo, esa sí es una característica generalizada: todos fuimos lactantes. Pero no, Linneo prefirió invocar directamente a la glándula mamaria, la estructura que produce leche. Puede ser que Mammalia le sonara mejor que Lactantia y no haya mucho más detrás de esta elección. Sin embargo, existen algunas otras interpretaciones posibles.

La historiadora norteamericana Londa Schiebinger propuso una vuelta de tuerca más a la cuestión. Según ella, a través del término Mammalia, Linneo no solo estaba sumando nuestra especie al mismo sistema de clasificación de todos los seres vivos, sino que también resaltaba el rasgo que consideraba más animal, y que era tarea exclusiva de la parte más animal de nuestra especie, o por lo menos la parte que se consideraba menos sofisticada intelectualmente. Esa porción deslucida de nuestra especie, para los ojos de muchos hombres célebres de la ciencia, la filosofía y la política de la época, eran las mujeres. No podemos saber si todo esto sobrevoló la decisión de Linneo, pero por lo menos sirve para pensar en retrospectiva qué es la lactancia, en especial entre los humanos. En todo caso, vale la pena mirar con atención, y un poco de desconfianza, los intentos por justificar un orden social a partir del supuesto orden natural de las cosas.

¿Qué tiene ese trago?

Alguien que va una y otra vez al mismo bar y pide el mismo trago probablemente pueda notar diferencias, pequeñas variaciones de sabor, color y viscosidad. Con la leche materna pasa lo mismo: no siempre es igual. De hecho, las primeras secreciones luego del parto no son leche propiamente dicha, sino un trago con características muy particulares. Pero en líneas generales, podríamos nombrar los principales ingredientes del primer menú infantil o, por lo menos, de la leche que se produce algunas semanas después del parto.

Lo primero que se destaca de la leche materna humana es que es bastante diluida. Es un trago aguado si se lo compara con la leche de algunos otros mamíferos, aunque se parece mucho, en ese aspecto, a la de otros primates. Las especies de mamíferos que tienen un período corto de lactancia requieren de una transferencia rápida de grandes cantidades de nutrientes en poco tiempo y sus leches suelen ser más concentradas. Algunas especies de focas, por ejemplo, durante unos pocos días luego de tener a sus crías, se dedican exclusivamente a su amamantamiento. En ese período breve, la leche materna aporta una enorme cantidad de grasas que permiten sostener la vida de las crías en ambientes de frío extremo. Hay también casos en que las tomas de leche están separadas por tiempos relativamente prolongados y eso también se asocia con leches recargadas, con menos contenido relativo de agua. Algunos mamíferos que pasan gran parte del día buscando alimento lejos de las crías, como los conejos, suelen mostrar ese patrón. Por el contrario, muchos primates tenemos lactancias más prolongadas y, cuando las madres y las crías pasan mucho tiempo del día juntos, el amamantamiento puede ser a demanda, o por lo menos muy frecuente.

Además de agua, la leche materna tiene una mezcla de ingredientes muy variada. En cuanto a los componentes nutricionales, la mayor parte de las calorías vienen de las grasas o, dicho más precisamente, los lípidos que tiene la leche. Si bien la cantidad de lípidos en la leche materna humana puede variar (entre otras cosas, por la alimentación de la madre y las reservas que tenga en su cuerpo), este tipo de nutriente representa cerca del 3,5% de su contenido total y es una fuente potente de energía. Pero además de aportar el combustible para los procesos que necesitan energía, algunos lípidos son esenciales para el desarrollo de ciertos tejidos y órganos. Por nombrar un caso, el omega-3 es un tipo de ácido graso que se transfiere a través de la leche y que es clave para la formación del cerebro, sus células y las conexiones entre ellas.

Las proteínas son también ingredientes del trago. Aportan calorías y son importantes para varias cosas más. Hay algunas proteínas cuyas unidades más pequeñas intervienen en la formación de tejidos o en el crecimiento de los órganos. Otra parte de las proteínas de la leche es fundamental en el sistema inmune. Durante la lactancia también se transfieren anticuerpos, proteínas que participan centralmente en la respuesta inmune. Este proceso permite que el bebé adquiera inmunidad frente a patógenos a los que nunca se expuso. A medida que avanzan los años, los anticuerpos que cada individuo genera y que lo protegen de patógenos particulares serán resultado de estar en contacto con esos agentes y reconocer y memorizar activamente una respuesta de defensa específica, o bien de recibir vacunas, que operan valiéndose también de los mecanismos de reconocimiento y memorización. Pero eso será más tarde. Inmediatamente después del nacimiento, gran parte de los anticuerpos, junto con otros elementos que participan de la respuesta inmune, llegan servidos en bandeja y permiten al bebé defenderse de algunas amenazas usando una porción de la historia inmunológica de quien lo amamanta.

Además de las grasas y las proteínas, la leche materna contiene azúcares, el más famoso de los cuales es la lactosa: el azúcar de la leche. Alrededor de un 7,5% de la leche humana está formada por lactosa, una fuente de energía más accesible que las grasas y, por lo tanto, complementaria. La concentración de lactosa de la leche humana es bastante similar a la de otros mamíferos y casi indistinguible de la de muchos primates. En lo que sí se diferencia la leche humana es en el perfil de otros azúcares, llamados oligosacáridos. Estos, en realidad, no son alimento para el lactante, sino que promueven que algunas bacterias colonicen el intestino y comiencen a formar parte del grupo de microorganismos que conforman su microbiota. Al menos entre los primates estudiados hasta ahora, la leche humana tiene la mayor cantidad de oligosacáridos, lo que significa que parte del trago del bebé en realidad sirve para alimentar a los acompañantes microscópicos que progresivamente se instalan en su sistema digestivo.

Hasta acá, la descripción de los ingredientes de la leche materna estuvo enfocada en moléculas grandes: lípidos, proteínas y azúcares. Pero hay también una batería de micronutrientes: minerales como el calcio, el fósforo, el sodio y el potasio, y vitaminas de diferente tipo que llegan mediante la lactancia. Además, la leche no es una sustancia estéril, sino que contiene muchos microorganismos. Se calcula que un bebé que toma poco menos de 1 litro de leche por día ingiere unas 100 millones de bacterias. Dentro de esos millones hay varias especies, pero en principio estas bacterias no representan un riesgo, e incluso pueden ser beneficiosas. De hecho, algunas de las bacterias más comunes en la leche, como los lactobacilos, se usan en tratamientos de algunas diarreas infecciosas en conjunto con antibióticos.

Además de los ingredientes necesarios para que el lactante crezca y mantenga sus funciones, la leche materna contiene moléculas que regulan todos esos procesos. Se trata de un cargamento de hormonas, factores de crecimiento y otras moléculas con funciones particulares. Gran proporción de estos ingredientes son proteínas, otros son lípidos, o sea que pueden sumarse a los grupos descritos más arriba. Pero se les hace un lugar aparte porque no aportan a la tarea de alimentar estrictamente, sino que dan instrucciones para que ocurran ciertos procesos del desarrollo, la formación de tejidos y el funcionamiento de muchos órganos. Por ejemplo, la leche tiene cantidades importantes de hormonas responsables de que los glóbulos rojos —las células que transportan el oxígeno en la sangre— se formen y aumenten en cantidad, y de otras como la leptina, relacionada con el control del apetito.

Todo lo descrito hasta acá entra en un trago. Sin embargo, las dimensiones y los sentidos de la lactancia materna en los humanos están lejos de poder contenerse en unos pocos centímetros cúbicos.

A la carta

Más allá de detallar a grandes rasgos cómo está compuesta la leche materna humana, mostrar una única receta sería sobresimplificar la cuestión. Para los humanos, al igual que para cualquier mamífero, la leche materna no tiene una composición estable e inmutable en el tiempo y en el espacio. Más bien, todo lo contrario. Se podría redactar todo un menú con las principales variedades.

Al nacer, la lactancia comienza con un brebaje que no es exactamente leche. El calostro es lo primero que toman los recién nacidos que comienzan tempranamente con la lactancia materna: una mezcla que contiene gran cantidad de azúcares y una dotación de anticuerpos que fortalecen la protección que durante el embarazo se transfirió a través de la placenta. Al ser fácilmente digerible, es una buena opción para un recién nacido en sus primeras tomas. Sin embargo, algunas condiciones hacen que no sea siempre el primer paso del menú. En India, por ejemplo, una parte de la sociedad considera que el calostro es peligroso y que la lactancia debe comenzar días después del nacimiento, cuando la leche adquiere un color más blanquecino. Allí, se han desarrollado varias iniciativas que buscan revertir esta práctica tradicional, no solo dirigidas a las personas que tienen sus hijos, sino también al personal de salud que atiende los partos. Actualmente, se conocen bastante en detalle sus ingredientes y se sabe que, a menos que haya alguna razón muy particular para no hacerlo, darle calostro al bebé no puede dañarlo, más bien todo lo contrario. Pero, además, la demora en iniciar la lactancia materna muchas veces hace más difícil, aunque no imposible, lograrlo después. Por eso, los primeros momentos luego del parto son una ventana de tiempo muy valiosa para establecer la lactancia materna.

Las razones en las que se funda esta tradición en India, al igual que en otras sociedades, no son fáciles de rastrear. Algunos estudios realizados en ese país han recuperado relatos de madres que sostienen que el calostro es una especie de leche “sucia” e inmadura, que por sus características no alimenta a los bebés y resulta dañina. Que se haya extendido y sostenido por tanto tiempo esta práctica (la de iniciar la lactancia más tarde) muestra que, aunque se pierda un trago con unos cuantos beneficios, no se pone en riesgo extremo la vida del recién nacido. Al menos para los humanos. Otros mamíferos en los que la transferencia de anticuerpos por la placenta no es tan importante se ven mucho más en jaque si no son capaces de tomar el calostro. Por ejemplo, un cachorro de perro recién nacido que no tomó calostro tiene menos herramientas para sobrevivir en un mundo lleno de microorganismos potencialmente peligrosos que un bebé humano con su misma falta en el menú.

Después del parto, para quienes fueron gestantes sigue una caída en picada de los niveles de algunas hormonas, entre ellas la progesterona y los estrógenos. Esto influye sobre el tejido mamario, que luego de este cimbronazo hormonal abandona la secreción del calostro inicial y empieza a producir leche de un tipo más parecido al que será capaz de producir en los meses siguientes. Las modificaciones en la composición de la leche a lo largo de los diferentes momentos de la lactancia han sido estudiadas con detalle. Al calostro generalmente le sigue una leche que se conoce como leche de transición, para llegar luego a una leche madura pocos días después del parto. La producción de leche en el tejido de las mamas depende en parte del estímulo de succión. Hay entre esos dos elementos, succión y síntesis de leche, una retroalimentación positiva. A medida que la lactancia comienza a ser acompañada por la ingesta de alimentos sólidos —algo que suele ocurrir alrededor del sexto mes de vida posnatal—, la demanda de leche empieza a declinar. Gradualmente, el tejido mamario involuciona, se va transformando a un estado más parecido al que tenía antes del embarazo. Por supuesto que hay lactancias que se prolongan incluso mucho más allá del año de vida, pero la leche no será la misma que la de los primeros meses en términos de composición y calidad.

Más allá de las similitudes generales, la leche que producen las distintas personas puede ser diferente porque sus condiciones, entornos, estado nutricional y otros aspectos varían. Hace ya unos años, un estudio mostró que la leche materna en un grupo de mujeres de Gambia, África, tenía una concentración mayor de calorías entre mujeres jóvenes que amamantaban a su primer hijo. Comparadas con las más experimentadas, las madres primerizas producían un volumen similar de leche, pero la concentración de lípidos era superior. En otras poblaciones ese patrón no se corroboró, lo que suma a la diversidad de la cuestión. Por otro lado, en ese mismo grupo de mujeres de Gambia, se observó una importante variación estacional en la composición de la leche, es decir que, dependiendo del mes y de la estación del año, el contenido se modificaba. Según se pudo ver, esta variación estaba asociada a cambios en la composición corporal de las madres, en particular a las reservas de grasa que acumulaban y que, en los momentos del año con menor disponibilidad de alimentos, les permitían sostener las demandas de nutrientes y energía para la síntesis de leche. Esto último es especialmente importante porque indica que la producción de leche materna puede verse influenciada por las condiciones nutricionales antes, durante y después del embarazo.

Sería muy difícil agotar la descripción de todas las alternativas en la carta de la leche materna. A las que ya nombramos se les suman algunas esperables, como las variaciones a lo largo del día, y otras que son menos intuitivas. Hace algunos años, Katie Hinde, una de las científicas que más estudiaron la producción de leche en primates, encontró un patrón muy interesante. Analizando la lactancia en unos monos de la especie Macaca mulatta, que se conocen normalmente como monos Rhesus, encontró que la leche que tomaban las crías macho era más densa energéticamente que la que se producía cuando las crías eran hembras. Esto significa que, a una misma cantidad o volumen de leche, los lactantes machos recibían más calorías que las hembras. Pero al mismo tiempo, cuando quien estaba siendo amamantado era una cría macho, el volumen de leche que se producía era más reducido. Es decir que, a fin de cuentas, sin importar el sexo de la cría, el aporte energético que recibía de la leche era el mismo, solo que en un caso tomaban menos y en otro, más cantidad para llegar a cubrirlo. Luego, se confirmó que la síntesis de leche humana también podía tener diferencias dependiendo del sexo del amamantado. La pregunta que queda por responder es cómo ocurre esto, ya que, si bien hay algunas pistas, no sabemos exactamente cómo llega al tejido mamario la señal sobre el sexo de la cría. Según algunas hipótesis, la producción de una leche más densa energéticamente para los machos estaría asociada a tamaños corporales mayores entre esas crías, es decir, acompañaría un crecimiento más acelerado en los primeros tiempos. Y eso haría una diferencia a largo plazo porque, en estos monos, aquellos machos más grandes tienen más posibilidades de reproducirse.

El rótulo leche materna, así tan simple, es injusto con la variedad de bebidas con diferentes contenidos, volumen, incluso aspecto que este concepto engloba. Para quienes piensan que en la diversidad antes que en el gusto están las cosas más interesantes que se pueden estudiar, la leche materna tiene un punto porque es de lo más flexible y variada, casi preparada a la carta.

Con una pequeña ayuda de mis amigas

Para los profesionales de la salud, hay solo un puñado de situaciones en las que se desaconseja la lactancia materna. Según la OMS, estas incluyen condiciones del bebé, por ejemplo, la intolerancia a componentes específicos de la leche, y de la madre, entre las que se encuentran algunas infecciones y el consumo de ciertas sustancias. Son un puñado porque, en la enorme mayoría de los casos, la lactancia materna está recomendada. De hecho, son también mayoría las personas que intentan amamantar: incluso en lugares muy diferentes del mundo, al menos alguna vez casi todos los bebés son alimentados con leche materna. Sin embargo, si bien son muy pocos los casos en los que la lactancia materna está desaconsejada y sus beneficios son muchos, esta práctica se deja de lado con frecuencia. Hay varias razones que podrían explicarlo. Una de ellas es el deseo. Amamantar no es un camino allanado y simple, y hay quienes por decisión personal deciden no hacerlo o quienes por alguna razón no pueden.

Una de las leyendas de la fundación de Roma cuenta que los artífices de esta gesta fueron dos hermanos gemelos, Rómulo y Remo. Mucho antes de aventurarse a esa hazaña, más precisamente mientras eran bebés, habían sido abandonados en una cesta en un río porque alguien muy poderoso quería eliminarlos. Los detalles de quién y por qué quería matar a estos dos pequeños no vienen mucho al caso, pero lo que sí hace a la cuestión es que Rómulo y Remo se salvaron gracias a que la cesta en la que viajaban llegó a la orilla del río, donde fueron encontrados por una loba. Según la misma leyenda, la loba los cuidó y los amamantó hasta que un día, un pastor que pasaba por ahí los rescató. La escena de la loba amamantando a los hermanos fue representada una y otra vez, incluso fuera de Italia. De hecho, en Argentina hay varias estatuas que muestran a Rómulo y Remo alimentándose de la loba. Se pueden visitar, por ejemplo, en el Jardín Botánico y el Parque Lezama de la ciudad de Buenos Aires o en el centro de Mar del Plata. En estas estatuas se ve a la loba parada en sus cuatro patas y a los hermanos en una posición entre sentados y arrodillados, irguiendo sus cabezas para llegar a tomar leche. Así representados, Rómulo y Remo no parecen estar recién nacidos. Ningún recién nacido es capaz de acomodarse así para llegar a su objetivo, por más hambre que tenga y por más fundador de una ciudad que vaya a ser. La palabra lupa en latín, además de significar “loba”, se usaba para llamar a las prostitutas en aquel momento, por lo que hay quienes piensan que la incorporación de una loba a la leyenda no es más que una transformación de la historia en la que dos bebés indefensos, Rómulo y Remo, fueron criados por una mujer que no era su madre biológica.

La capacidad del bebé de coordinar y llevar a cabo los movimientos necesarios para buscar, acercarse y succionar el pezón se desarrolla en los meses que siguen al nacimiento. Sobre todo al principio, es especialmente importante la asistencia de otros humanos para comenzar y sostener la lactancia. Si bien un bebé recién nacido puede moverse guiado principalmente por el olor hacia el pecho de la madre, está claro que los movimientos que lo llevan hasta ahí son limitados y que no son efectivos si la madre está parada, sentada o desplazándose y su pecho no está lo suficientemente accesible. Al mismo tiempo que moverse y acomodarse no es tan fácil sin ayuda, la succión es más eficaz en la medida en que se desarrollan los músculos de la cara que permiten mover la mandíbula y abrir y cerrar la boca de manera coordinada.

Aunque exista el instinto de succión, el hecho de que los humanos nazcamos tan inmaduros hace las cosas algo complicadas para quienes tienen la tarea de amamantar. Pero no solo a los humanos nos viene bien un poco de ayuda. Entre otros primates, el instinto de succión puede no ser suficiente para amamantar. Las hembras de distintas especies de primates, enfrentadas por primera vez a esta tarea, muestran con frecuencia un comportamiento hostil o indiferente a sus crías, algo que se puede evitar cuando tienen a mano ejemplares experimentados de su especie. En estudios sobre el comportamiento de gorilas, chimpancés y otros primates, se observó que aquellas hembras que habían sido criadas por una madre de su especie y no por un humano, y que habían estado en contacto y visto a otras madres cuidar a sus crías, tenían más posibilidades de lograr criar a las propias con éxito o, por lo menos, garantizar su supervivencia en los primeros años. Los comportamientos que se comparten y aprenden en grupo ayudan, entre otras cosas, a entender cómo amamantar. En primates en cautiverio, hay reportes acerca de cuidadores humanos interviniendo ante ciertas dificultades en la lactancia que experimentaban ejemplares que no compartían un grupo con otros de la especie. Los cuidadores, ayudando a colocar a la cría en una posición cercana al pecho de la madre, lograron que, en poco tiempo, pudieran arreglárselas solas. Aunque las condiciones de cautiverio guardan diferencias respecto a lo que ocurre en libertad, no dejan de ser datos que abonan la idea de que tener compañía calificada en materia de amamantar y cuidar no viene nada mal.

El abanico de factores que pueden complicar la lactancia se amplía en sociedades humanas. Empezando por lo más simple, amamantar puede estar atravesado por distintos prejuicios. Las opiniones se transforman, y lo que en un momento es reprobado en otro puede ser ampliamente aceptado. Pero incluso hoy, en sociedades en las que muchas mujeres dan la teta en público, persisten las miradas de desaprobación y de rechazo. Hace pocos años, una investigadora llamada Michele Acker diseñó un estudio sencillo, en Estados Unidos, que consistía en mostrarles a personas de diferentes edades fotos de personas vestidas de diversas maneras y en situaciones variadas. Entre esas fotos, aparecían mujeres amamantando, algunas en una casa y otras sentadas en un café, es decir, en público. Luego de ver las fotos, llegaban preguntas que permitían resumir algunas opiniones sobre lo que allí aparecía. En general, las respuestas que indicaban aprobar la situación de lactancia, considerarla un comportamiento apropiado y despertar sentimientos de mayor empatía se las llevaban las fotos en las que el entorno era privado. Con la lactancia todo bien, pero si es puertas para adentro.

Aquellas personas que amamantan o podrían hacerlo y tienen trabajos fuera de sus hogares suelen encontrar más escollos. Las condiciones de empleo están entre las principales causas de abandono de la lactancia a nivel mundial. Para empezar, estudios en poblaciones puntuales muestran que, cuando la licencia que sigue al parto es más corta que seis semanas, la probabilidad de no comenzar o abandonar tempranamente la lactancia aumenta por lo menos cuatro veces. Luego, las condiciones particulares de cada empleo pueden convertirse en un apoyo o en una dificultad, porque no es lo mismo tener horarios compatibles con las demandas de la lactancia, guarderías cercanas al lugar de trabajo o lugares con condiciones básicas para extraerse leche, que no tener nada de todo eso. Incluso, desarrollar tareas laborales extenuantes físicamente es un factor que puede desalentar el sostenimiento de la lactancia.

El contexto que provee el sistema de salud antes, durante y luego del parto también fue identificado como un punto al que prestarle especial atención, ya que algunas prácticas pueden desestimular la lactancia materna. Si bien hay un código —propuesto por la OMS y la ONU— que establece los lineamientos para la venta y la publicidad de las leches industriales para lactantes, desde la introducción de estos productos al mercado han existido prácticas que los desoyen. Concretamente, ofrecer muestras gratis de estos productos en los centros de salud sin una indicación médica específica se relaciona con un mayor abandono de la lactancia materna.

Al mismo tiempo, los sistemas de salud, a través del trabajo de sus profesionales, tienen una gran oportunidad para acompañar a aquellas personas que deciden amamantar. La variedad de intervenciones al respecto que se han propuesto es enorme, pero algunas, como el acompañamiento individual y grupal de puericultoras que enseñan —por ejemplo— las técnicas de lactancia, o la promoción de la lactancia inmediatamente después del nacimiento, incluso en la sala de partos, son las que mostraron resultados más potentes. Es más, mientras que varios estudios sugirieron que los nacimientos por cesárea se relacionan con menores frecuencias de amamantamiento temprano, otros sumaron que, en presencia de acciones concretas que promueven la lactancia, no hay mayores diferencias entre quienes tienen a sus hijos por parto vaginal o por cesárea. Si amamantar no va todo lo rápido y bien que se espera, algunas intervenciones pueden ayudar.

Pequeños consumidores

Para quienes no consumen leche materna, existen sustitutos. La leche de fórmula —sustancia que se produce de manera industrial y que permite alimentar a quienes no están siendo amamantados— es algo conocido incluso para los que no tuvieron bebés a su cuidado; basta con entrar a una farmacia para encontrar las latas en los estantes esperando a sus pequeños consumidores. Pero aun cuando no existían las latas en los estantes de las farmacias, los sustitutos ya estaban presentes.

Probablemente, la forma más antigua de sustituir la leche de la propia madre biológica es la alolactancia, que consiste en la lactancia por parte de personas que no gestaron al niño que recibe la leche. Se trata, en principio, de una de las maneras de crianza cooperativa, aunque hay registros históricos que muestran que esta práctica en algunos momentos tomó una forma bastante más formalizada y llegó a convertirse en un trabajo. Por ejemplo, volviendo a Roma, al menos entre el 300 a. C. y el 400 d. C., existieron contratos escritos que comprometían a mujeres a amamantar a niños que habían sido abandonados y eran adoptados con distintos fines por familias poderosas. Los términos comprometían y adoptados pueden resultar buenos eufemismos porque, en verdad, las condiciones de trabajo solían ser bastante precarias para las nodrizas que se ocupaban de alimentar a los niños y niñas, que, al crecer, muchas veces se convertían en mano de obra esclava de la familia.

Por lo menos desde el Renacimiento (es decir, en los siglos XV y XVI en buena parte de Europa), el trabajo de nodriza era una ocupación paga y contaba con algunas regulaciones sobre las obligaciones y los beneficios de las trabajadoras. Aunque estas regulaciones no siempre se cumplían, en países como Francia, las mujeres que conseguían un empleo para amamantar a hijos de otras personas idealmente debían pasar por un examen que evaluaba su estado de salud y les permitía comenzar con esta tarea una vez que su propio hijo hubiese sido amamantado por unos cuantos meses. No resulta una sorpresa que, en general, quienes hacían uso de estos servicios fueran, de nuevo, las familias ricas. Pero en este caso eran los propios hijos de la aristocracia los destinatarios de la leche prestada, porque amamantar no era visto como una costumbre común o esperable en las clases altas. De hecho, por lo menos hasta principios del siglo XX, varias monarquías europeas empleaban regularmente nodrizas para amamantar a los sucesores del trono. En España, de hecho, las amas de cría se iban a buscar a algunas regiones específicas del país que, según se pensaba, daban las mejores nodrizas para alimentar a los futuros monarcas.

La otra alternativa de larga data a la lactancia materna es la ingesta de leche de otros mamíferos. Al estilo de Rómulo y Remo, pero acompañados de adultos capaces de criar animales que producen cantidades importantes de leche, como vacas, ovejas y cabras. La toma podía ser directa desde el animal o mediada por el uso de artefactos que permitieran la recolección de la leche y su administración posterior a los bebés. De hecho, en distintos contextos arqueológicos —principalmente en entierros de niños pequeños— aparecieron vasijas con formas de las que se infiere una función de mamadera. A estos hallazgos siguieron algunas discusiones sobre si la función de estas mamaderas era alimentar a los bebés en sus primeros meses, o bien a niños que estaban en la transición hacia el destete o ya destetados. Una de las más antiguas de estas vasijas fue encontrada en Steigra, Alemania, y está datada entre 5500 y 4800 a. C. Por esos años, y en los siglos que siguieron, en varios lugares de Europa la cría de ganado en aldeas más o menos permanentes se convirtió en algo frecuente, y su leche, en un alimento. Aunque es una tarea difícil, se pudo extraer restos microscópicos del contenido de algunas de estas vasijas e identificar que lo que se servía en ellas era efectivamente leche de rumiantes.

Entre fines del siglo XIX y principios del XX, las nodrizas que amamantaban como trabajo prácticamente desaparecieron gracias a dos desarrollos. Por un lado, las mamaderas se empezaron a perfeccionar, a construirse de materiales que podían lavarse más eficazmente, lo que evitaba la contaminación del contenido y, por lo tanto, posibles infecciones para los lactantes. También se diseñaron tetinas que facilitaban la succión, aunque, según dicen, las primeras (de goma) tenían un olor tan fuerte que costaba que los bebés se sintieran a gusto. Por otro lado, empezó la elaboración de leches de fórmula. Desde que fue posible estudiar la composición de la leche humana y la de otros animales, quedó en claro que no eran iguales. Pero el camino hacia una formulación que se acercara a la leche materna humana fue largo. Primero, fueron muy importantes el desarrollo de métodos de esterilización y preservación de los alimentos y el invento de la leche deshidratada o en polvo. Así, esos intentos tempranos de reemplazar la leche materna mediante un proceso industrial consistieron en sumarle azúcares y algunos otros aditivos a la leche de vaca deshidratada. Esas leches de fórmula difieren bastante de las actuales, entre otras cosas, porque se les han ido sumando diferentes nutrientes, como vitaminas y minerales, que no estaban en las primeras versiones. Hoy existen incluso productos a base de soja, es decir, sin proteínas de origen animal, productos deslactosados para los que tienen alguna forma de intolerancia a la lactosa, y otras tantas variedades que muestran que la fabricación de estas leches ya tiene mucho recorrido.

Cuando el maridaje entre las innovaciones de mamaderas y de fórmulas de leche irrumpió a fines del siglo XIX, muchos lactantes pasaron a ser alimentados de este modo. Ya entrado el siglo XX, las marcas se enfocaron en publicitar estratégicamente estos productos y algunos profesionales de la salud comenzaron a respaldarlos. El resultado fue que, por lo menos hasta la década de 1970, especialmente en los países de mayores ingresos, la lactancia materna fue en declive y cada vez más latas de leche de fórmula pasaron a reemplazarla. Luego del boom de la fórmula, de a poco, se empezaron a escuchar voces que advertían que, si bien las leches industriales que se producen especialmente para los lactantes son maneras seguras de reemplazar la leche humana, lo cierto es que leche de fórmula y leche materna no son lo mismo. Y, lo más importante, que en aquellos casos en que existe la voluntad y la posibilidad de amamantar, no tiene mucho sentido menospreciar esa práctica.

El resultado de esa caída de la lactancia materna explica en parte la situación en la que nos encontramos hoy. Si bien los datos de principios del siglo XXI muestran que, globalmente, más del 80% de los recién nacidos comienzan a ser alimentados con leche materna, o la consumen en algún momento, menos de la mitad de los niños por debajo de los 6 meses toman exclusivamente este tipo de leche. Aunque hay variaciones entre y dentro de los países, ese número de tomadores exclusivos de leche materna se hace más pequeño en países más ricos. Algo similar pasa con la lactancia materna hasta por lo menos los 12 meses: la prevalencia más alta está en los países del África subsahariana, sur de Asia y algunos lugares puntuales de Latinoamérica. De hecho, en países como Estados Unidos, tan solo un 20% continúa alimentándose con leche materna doce meses después de nacer.

Los indicadores mencionados más arriba se relacionan inversamente con el producto bruto interno de los países; esto quiere decir que, a mayor riqueza del país, menos frecuente será la lactancia materna en sus diferentes formas. Teniendo en cuenta que las recomendaciones de la OMS y de las sociedades de pediatría incluyen la lactancia materna exclusiva hasta los 6 meses y la continuación, en conjunto con otros alimentos, incluso más allá del año de vida, parece que esta es una de las cosas que ponen al mundo patas para arriba. Sin embargo, los datos muestran que, en los últimos años, más precisamente desde mediados de la década de 1990, los niveles de lactancia exclusiva durante los primeros meses vienen aumentando, en especial en los sectores de mayores ingresos de varios países. Es posible que la evidencia acumulada sobre los beneficios de esta práctica haya empujado este cambio, que ahora sí profundiza la desigualdad entre quienes pueden y quienes no logran sostenerla.

La cuestión de los sustitutos ha sido una preocupación histórica, incluso antes de la época en la que Linneo se oponía a la labor de las nodrizas. Actualmente, el foco está en los efectos en la salud de la leche materna versus la fórmula. Pero ese enfrentamiento, así de simple como está presentado, no hace justicia a la enorme gama de grises que hay, que incluye la lactancia desde momentos inmediatamente posteriores al nacimiento o un comienzo más tardío, la lactancia materna exclusiva durante una cantidad de meses o acompañada de fórmula, la continuación (o no) de la lactancia materna luego de la introducción de alimentos sólidos, y todas las combinaciones y alternativas que se pueden derivar. A medida que avanzan los estudios sobre las implicancias que los patrones de alimentación temprana tienen en la salud, queda más en evidencia que la conversación no debería simplificarse en la dicotomía lactancia materna: sí o no.

En la década de 1980, la OMS y otras organizaciones internacionales como UNICEF se manifestaron a favor de la promoción de los bancos de leche materna. Se trata de lugares en los que se depositan donaciones de leche materna y se guardan bajo ciertas condiciones de cuidado para que las usen bebés que, por diferentes razones, no son amamantados por las personas que los gestaron. Frente a la opción de la leche de fórmula, esta alternativa presenta ventajas, aunque, como es esperable, la logística de recolección, la supervisión de las condiciones y el almacenamiento de litros de leche suficientes como para cubrir la demanda no es fácil. Se calcula que hoy en día hay en el mundo más de 500 bancos de leche materna, gran parte de los cuales se concentran en Europa, que desde 2010 tiene una asociación específica que organiza los bancos del continente. Pero este no es un invento tan nuevo como parece. El primer banco de leche materna data de 1909 y fue creado en Viena por un pediatra, Theodor Escherich. Su nombre suena conocido porque una bacteria, probablemente la más famosa y a la vez mundana de las bacterias, lleva su nombre: Theodor fue quien descubrió la bacteria Escherichia coli. Estudiando los microorganismos que poblaban los intestinos de lactantes alimentados con leche materna humana, encontró muchas diferencias al compararlos con los de aquellos que lo hacían con algún sustituto. Eso lo habría llevado a crear un depósito de leche materna en el hospital en el que trabajaba. Al impulso inicial de Theodor Escherich le siguieron unas pocas iniciativas dispersas que, con el correr de las décadas, se ampliaron, al mismo tiempo que algunas sociedades de pediatría empezaron a incentivar la creación de estos bancos y, sobre todo, a emitir recomendaciones para su funcionamiento. También con el tiempo se estudiaron con mayor profundidad las comunidades de microorganismos que viven en el sistema digestivo de los lactantes, y la evidencia no dejó de darle la razón a Theodor: la leche materna hace allí una diferencia. 

Más allá de la apertura que se necesita para entender la lactancia de manera más integral, hay un cúmulo de evidencia enorme sobre los efectos beneficiosos para la salud tanto de los bebés como de sus madres de distintas formas y estrategias de lactancia materna. En general, la lactancia exclusiva durante los primeros meses reduce la probabilidad de requerir consultas médicas, hospitalizaciones e indicaciones de tratamientos con medicamentos. La lactancia materna protege especialmente a los niños y niñas de sufrir infecciones gastrointestinales en sus primeros años de vida, lo cual tiene bastante sentido si pensamos en la transferencia de anticuerpos y todos los elementos que permiten robustecer el sistema inmune. También se ha visto ese efecto de protección para infecciones respiratorias. La magnitud de los beneficios que provee la lactancia materna también depende del entorno. En contextos de vulnerabilidad económica y con déficits habitacionales profundos, la leche de fórmula puede resultar un problema porque es frecuente que el agua que se usa para prepararla no sea potable. Pero incluso en situaciones más seguras, las probabilidades de cursar algún tipo de infección gastrointestinal o respiratoria es mayor entre los niños y niñas alimentados con leche de fórmula. 

A mediano y largo plazo, los antecedentes de lactancia materna se vieron asociados con una reducción de la probabilidad de desarrollar obesidad y otras condiciones como diabetes e hipertensión durante la vida adulta. Si bien todavía queda mucho por entender sobre por qué estos problemas son más frecuentes entre quienes no tomaron leche materna sino leche de fórmula, hay algunas pistas más o menos sólidas de algunos mecanismos. Lo primero que debe recordarse es que la leche materna contiene hormonas, muchas con funciones claves en el metabolismo, como la insulina. Otras hormonas que se transfieren mediante la leche materna están directamente implicadas en la regulación del apetito. Pero, además, algunos investigadores han prestado atención a los comportamientos de alimentación en los bebés alimentados con leche materna, para quienes es más simple controlar la cantidad que consumen y aprender a regularla. Al contrario, la mamadera, con su medida y contenido estandarizado, lleva muchas veces a consumir más cantidad de leche, sobre todo cuando un adulto insiste en que hay que terminarla. Por último, pero no por eso menos importante, la microbiota que se establece gracias a la transferencia de microorganismos y azúcares que pueden alimentarlos ha demostrado tener un rol importante en la regulación del metabolismo de los lípidos, lo que hace una diferencia importante en la acumulación de tejido adiposo en el cuerpo.

Pero no todo es para el lactante cuando se trata de protección. Las personas que amamantaron pueden recibir alguna recompensa por ese trabajo. Se observó una relación indirecta entre los meses que dura la lactancia y la probabilidad de desarrollar algunas formas de cáncer, como el cáncer de mama. Dicho de otra manera, a mayor tiempo de lactancia, más protección. Por supuesto, dar la teta por más tiempo no es una medida de prevención infalible, pero, en conjunto con otros factores, es posible que reduzca el riesgo.

Peludos

En resumen, con solo enumerar una mínima parte de los componentes que contiene la leche materna, notar su diversidad y observar sus efectos sobre la salud, resulta evidente que los esfuerzos de la industria por buscar sustitutos son valiosos toda vez que no cancelen la opción de quienes quieren y pueden amamantar.

La lactancia en humanos ha pasado de ser apoyada y defendida radicalmente a denostada en diferentes momentos históricos, dependiendo del clima político, de las pujas económicas y hasta de las modas. En ese vaivén, los sustitutos pasaron de ser enemigos a héroes, una y otra vez. Y en esas tensiones, las personas que luego de gestar se enfrentan a la decisión de amamantar —y de cómo, cuándo y por cuánto tiempo hacerlo— no la tienen fácil. Si bien la evidencia científica sobre los beneficios para la salud es sólida, muchas veces se la usa más para apuntar a las “desertoras” que para generar condiciones concretas que promuevan una decisión libre e informada o para que la lactancia sea posible en diferentes ámbitos y de manera sostenida en el tiempo. Quienes aun queriendo e intentándolo, por diversas razones, no logran establecer y sostener la lactancia, muchas veces encuentran miradas de desaprobación que ponen el énfasis en lo que se pierde el bebé y no en todo lo que se le puede ofrecer incluso sin amamantar.

¿Y si en lugar de mamíferos nos hubiéramos llamado peludos? Probablemente, la lactancia materna seguiría siendo objeto de miles de debates pero el argumento “somos mamíferos” estaría más lejos del alcance. Y, tal vez, se podría ver más claro que, además de animales con glándulas mamarias, somos varias otras cosas.

Desde la gestación hasta el final de la lactancia no transcurren, en general, muchos años. Es una etapa breve, especialmente en comparación con lo que sigue. Sin embargo, son tiempos de cambios intensos y de transiciones marcadas y, a la vez, únicas. Aunque pasan muchas cosas, cuando queremos acordarnos, la mañana ya se está terminando.

Si ya diste el primer paso, compartí el camino.

Compartí en tu muro
Escribí un tweet
Mandá un whatsapp

¿Qué te pareció?