Toshiba ha desarrollado una tecnología capaz de detectar cualquier tipo de cáncer con tan solo una gota de sangre. Tiene un porcentaje de acierto del 99%.
Toshiba ha desarrollado una tecnología junto al Instituto Nacional del Centro de Cáncer y la Universidad Médica de Tokio capaz de detectar 13 tipos de cáncer con tan solo una gota de sangre.
La información que Business Insider ha recogido del medio The Mainichi asegura que examina los tipos y la concentración de moléculas de microRNA secretadas en la sangre por las células cancerosas y que “será capaz de detectar y empezar con el tratamiento en las etapas iniciales”, comentan desde la compañía.
La clave respecto a otras compañías es “el grado de precisión, el tiempo para la detección y el coste”, explica Koji Hashimoto, científico jefe de investigación del Laboratorio de Investigación Fronteriza de Toshiba.
La máquina tiene un porcentaje de acierto del 99% y es capaz de hacer la prueba en tan solo dos horas costando unos 20.000 yenes (180 euros).
La prueba podrá detectar cáncer gástrico, del esófago, pulmonar, hepático, biliar, del páncreas, intestinal, de ovarios, próstata, vejiga y de mama así como sarcoma y glioma.
La compañía espera comercializarlo “dentro de unos años” después de comenzar con el periodo de prueba que empezará en 2020.
En un garaje en una ciudad cerca de Melbourne, en Victoria, Australia, un hombre está castigando. Su nombre es Jeff David, y durante siete años ha estado trabajando en el Quantum GP700. Pero no se trata de cualquier kit de auto, no, David ha estado construyendo el primer "hipercoche" jamás fabricado en Australia, y el resultado es sorprendente.
Jeff se asoció con su hijo Andrew para crear la compañía Quantum Performance Vehicles, que construirá y comercializará su automóvil. A pesar de que desarrolló su automóvil en su cobertizo en Gisborne, el mecánico está lejos de ser un novato en el mundo del automóvil, ya que trabajó tanto en un dispositivo que comunica los datos del motor a computadoras remotas como en un sistema de administración del motor autoajustable. Su hijo tiene una inclinación más mecánica, fuerte en sistemas dinámicos mecánicos y termodinámica.
EFF tuvo un sueño de larga data de construir un superdeportivo, y comenzó con un vehículo con el que ya tenía experiencia. Le dijo al canal de YouTube Barcroft Cars en enero de 2018: "Pensé que comenzaría con el mejor auto en ese momento, el mejor roadster que pude comprar, y ese era un Ariel Atom. Así que compré uno, lo desmantelé y luego comencé a modificarlo ".
El resultado final de la refinación y la reconstrucción fue un automóvil que pesa 700 kilogramos, o un poco más de 1,500 libras, y genera 700 caballos de fuerza, lo que le da una relación de potencia a peso de uno a uno. No es de extrañar que pueda hacer de 0 a 60 mph en 2.6 segundos; Su paquete aerodinámico también lo ayuda a generar niveles de carga aerodinámica estilo F1, lo que le permite arrinconar a velocidades masivas. Para lograr todo eso, Jeff tardó 1,800 horas y le devolvió $ 300,000.
Pero resulta que ese tiempo y dinero fueron inversiones sabias. El auto que Jeff y su hijo trabajaron en su cobertizo ahora se estima en $ 700,000. Algunos pueden sentir que eso no es malo para un automóvil cuyo motor sobrealimentado lo superará las 170 mph. Sin embargo, lo hicieron por amor, y Quantum planea construir no más de un puñado de GP700 cada año.
El efecto suelo es una de las bases de las competiciones automovilísticas.
Los aerodinamistas afirman a menudo que los automóviles de competición actuales son, en cierto modo, aviones inversos. ¿Por qué? Muy resumidamente, porque todas las leyes aerodinámicas aplicadas en un avión, también se aplican en los automóviles de competición. Eso sí, el objetivo en ambos casos es diferente: en un avión se busca la máxima fuerza vertical positiva (hacia arriba) y en un automóvil de competición se busca la máxima fuerza vertical negativa (hacia abajo). En otras palabras: un Boeing 737-800 aprovecha el flujo de aire para elevarse, mientras que un Fórmula 1 trata de aprovecharlo para obtener el máximo agarre posible.El funcionamiento del efecto suelo es igual al del ala de un avión
En el caso de los aviones, la sustentación y, por consiguiente, la elevación de la aeronave, se consigue en base a varias leyes y principios, entre los cuales encontramos la tercera ley de Newton (principio de acción y reacción), el efecto Coanda o el principio de Bernoulli. En el caso de los monoplazas, las leyes aerodinámicas que provocan ese agarre extra son exactamente las mismas, pero aplicadas de forma inversa.
Una aplicación concreta de ellas es el conocido como “efecto suelo”. Fue aplicado por primera vez en la Fórmula 1 por el equipo Lotus en la época de los setenta. El objetivo era claro: lograr la menor presión posible entre el suelo del coche y la pista para que aumentara la adherencia y, por lo tanto, la velocidad en curva.
¿Cómo lograron este objetivo los mecánicos e ingenieros de Lotus? Muy resumidamente, basaron sus innovaciones en las alas de los aviones. En ellas, el flujo de aire genera diversas fuerzas sobre el ala, al igual que diversos cambios de presión, los cuales resultan en una fuerza vertical. Para ello, se basan en tres leyes y principios:
Principio de Bernoulli. En la dinámica de fluidos, Bernoulli afirmó que un sólido no viscoso cuya densidad es invariable, la presión disminuye cuando la velocidad con la que circula es mayor. También ocurre el efecto contrario: a menor velocidad, mayor presión. Esto se resume en la famosa ecuación de Bernoulli.
Tercera ley de Newton. O principio de acción-reacción. Afirma que a cualquier fuerza ejercida sobre un cuerpo le corresponde otra igual y de sentido contrario. De esta forma, cuando golpeamos una pared (ejercemos una fuerza sobre ella), la pared ejerce una fuerza similar y de sentido contrario sobre nuestra mano (razón por la cual nos duele y no se derrumba con facilidad).
Efecto coanda. Cualquier fluido que circula alrededor de un sólido tiende a mantener una trayectoria paralela a la superficie. En otras palabras: las líneas de corriente de un fluido tienden a acercarse a la superficie del sólido curvo en lugar de mantenerse constantes.
Partiendo de estas tres leyes, explicar el funcionamiento del ala de un avión es relativamente sencillo:
Imaginemos las corrientes de aire como un grupo de láminas paralelas y maleables. Cuando el aire comienza a aproximarse al ala del avión, este conjunto de láminas se divide en dos masas diferenciables, una que sube por el estradós (zona superior del ala) y otra que se mantiene firme por el intradós (zona inferior del ala). Las que ascienden al estradós recorrerán una trayectoria mayor con una velocidad mayor; las que continúan por el intradós, recorrerán una trayectoria menor con una velocidad menor. Estas variaciones de velocidad afectarán a la presión.
Como podemos ver en la imagen, las “láminas” de aire que recorren el ala por la zona superior se adaptan al contorno del ala — efecto asociado a la viscosidad del fluido y al efecto Coanda. Dicha curvatura está generada por una fuerza centrípeta (perpendicular a la tangente de la curva en un punto cualquiera), originada a su vez por una diferencia de presión entre la cara superior a esta lámina y la cara inferior de esta lámina. Por lo tanto, conforme más próximos estamos a la cara superior del ala del avión, menor es la presión.
Si comparamos la presión de la lámina de aire más próxima al estradós (conocida como capa límite) con la lámina de aire más próxima al intradós, veremos cómo la presión de la zona superior es menor que la de la zona inferior. Esta diferencia de presiones genera una fuerza vertical conocida como fuerza de sustentación, la cual empuja el avión hacia arriba para lograr así el equilibro de fuerzas al que tienden todos los sistemas por inercia.
Como consecuencia de esto, las partículas de la zona superior se ven redirigidas hacia abajo (con una trayectoria diagonal) y aplican una fuerza al resto de partículas de aire inferiores cuando abandonan el contorno del ala (downwash). Aplicando la tercera Ley de Newton, surge entonces una fuerza igual y de sentido contrario, la cual también colabora a la sustentación de la aeronave.
Aquí también influyen otros parámetros como el ángulo de ataque, el grosor del sólido, los radios de curvatura del mismo, etc. Estos se modifican con el objetivo de mejorar la eficiencia del ala, añadir nuevas fuerzas en distintos puntos del ala y lograr por ejemplo el vuelo de aviones boca abajo; pero son despreciables para una explicación básica como esta.
¿Cómo se aplica todo esto en el efecto suelo de un automóvil de competición?
Ahora que conocemos el comportamiento de los flujos de aire alrededor del ala de una avión —y cómo estos permiten a la aeronave mantenerse en el aire—, conocer el efecto suelo es realmente sencillo. Simplemente, démosle la vuelta al ala del avión et voilà!. Y es que al invertir el ala del avión, las fuerzas son totalmente opuestas, generando así fuerzas negativas (hacia abajo).
Para comprenderlo mejor, observemos la siguiente imagen del Lotus 78, uno de los primeros Fórmula 1 en aplicar el efecto suelo:
En esta imagen podemos apreciar como el aire se divide nuevamente en dos, pero el estradós y el intradós están invertidos. De esta forma, las partículas con mayor velocidad y menor presión se sitúan en el suelo del monoplaza, generándose una diferencia de presión respecto a la zona superior del monoplaza que provoca una fuerza hacia abajo como respuesta.
De la misma forma, también identificamos corrientes de aire diagonales salientes, las cuales, por la tercera ley de Newton, generan una fuerza extra que “empuja” el monoplaza hacia la pista, otorgándole así un mayor agarre y, por consiguiente, una mayor velocidad en curva.
En el caso de la Fórmula 1, el efecto suelo quedó limitado a comienzos de la década de los ochenta. La razón no fue otra que la inseguridad del mismo. Los monoplazas comenzaron a recaer de forma excesiva en este efecto, lo que provocaba que la más mínima variación en los flujos de aire que circulaban por debajo del coche (la cual podría ser generada por por un bache o un piano elevado) se tradujera en un accidente grave. De hecho, esto se saldó la vida del famoso piloto Gilles Villeneuve.
En la actualidad, el efecto suelo sigue aprovechándose en los monoplazas de competición. La diferencia es que el fondo del mismo es totalmente plano —conocido como fondo plano—, limitando así la dependencia del mismo y protegiendo a los pilotos en caso de circular sobre un peralte. La magia de los ingenieros, en este caso, consiste en reducir los flujos de aire que circulan bajo el monoplaza sin tocar el fondo plano (ya sea con los alerones delanteros o con pequeños "labios" situados alrededor de los pontones). De esta forma, se consigue el mayor "vacío" posible.
La sostenibilidad por sí sola no es un objetivo adecuado. La palabra sostenibilidad en sí misma es inadecuada, porque no nos dice que es lo que realmente estamos intentando sostener.
En 2005, después de pasar dos años trabajando en mi tesis doctoral sobre diseño para la sostenibilidad, empecé a darme cuenta de que lo que realmente estamos intentando sostener es el patrón subyacente de salud, resiliencia y adaptabilidad que mantienen a este planeta en una condición en la que la vida en su totalidad pueda florecer. El diseño para la sostenibilidad es, en última instancia, el diseño para la salud humana y planetaria (Wahl, 2006b)
Una cultura humana regenerativa es saludable, resistente, y adaptable; se preocupa por el planeta y le importa la vida, consciente de que esta es la manera más efectiva de crear un futuro próspero para toda la humanidad. El concepto de resiliencia está estrechamente relacionado con la salud, en el sentido en el que describe la habilidad de recuperar funciones básicas vitales y reponerse de cualquier clase de desajuste o crisis. Cuando buscamos la sostenibilidad desde una perspectiva sistémica, estamos intentando sostener el patrón que conecta y fortalece al sistema en su conjunto. La sostenibilidad se refiere principalmente a la salud sistémica y a la resiliencia en diferentes dimensiones, desde la local, a la regional y global.
Los sistemas complejos pueden enseñarnos que, como participantes de un sistema eco-psicosocial complejo que está sujeto a ciertos límites biofísicos, nuestro objetivo debe ser la participación apropiada, no la predicción y el control (Goodwin, 1999a). La mejor manera de aprender a como participar de manera apropiada es poner más atención en las relaciones e interacciones sistémicas, aspirar a mantener la resiliencia y la salud del sistema en su totalidad, fomentar la diversidad y las redundancias en múltiples dimensiones, y facilitar la emergencia positiva, atendiendo a la calidad de las conexiones y a los flujos de información en el sistema. Este libro explora como se puede hacer esto. [Este es un extracto de un subcapítulo de Diseñando Culturas Regenerativas, Designing Regenerative Cultures publicado en 2016]
Usar el principio de precaución
Una propuesta para guiar una acción inteligente ante una complejidad dinámica y “no saber”, es aplicar el Principio de Precaución como marco que pretende evitar, en la medida de lo posible, acciones que tendrán un efecto negativo en la salud humana y medioambiental en el futuro. Desde la Carta Mundial para la Naturaleza de 1982 de las Naciones Unidas, al Protocolo de Montreal sobre Salud de 1987, la Declaración de Rio de 1992, el Protocolo de Kyoto y Rio+20 de 2012, nos hemos comprometido a aplicar el Principio de Precaución una y otra vez.
La Declaración de Compromiso de Wingspread sobre el Principio de Precaución afirma: “Cuando una actividad amenaza dañar la salud humana o al medioambiente, se deben tomar medidas de precaución incluso si algunas de las relaciones causa-efecto no estén totalmente establecidas científicamente” (Declaración Wingspread, 1998). El principio pone la carga de prueba de que cierta acción no es dañina en aquellos que proponen y ejecutan la acción, sin embargo la práctica general continúa permitiendo que sigan sin control todas las acciones que (¡todavía!) no se ha probado que tengan efectos dañinos potenciales. En pocas palabras, el Principio de Precaución se puede resumir de esta manera: se precavido ante la incertidumbre. Esto es lo que no estamos haciendo.
Aunque grupos de alto nivel de la ONU y muchos gobiernos nacionales han considerado reiteradamente que el Principio de Precaución es una manera sensata de orientar las acciones, el día a día muestra que es muy difícil de implementar, ya que siempre existirá cierto grado de incertidumbre. El Principio de Precaución podría detener potencialmente la innovación sostenible y bloquear nuevas tecnologías que puedan ser beneficiosas en base a que no se puede probar con certeza que estas tecnologías no producirán efectos secundarios inesperados en el futuro, que puedan ser perjudiciales para la salud humana y medioambiental.
¿Por qué no animar a diseñadores, técnicos, políticos y profesionales de la planificación a que evalúen sus propuestas en base a su potencial regenerativo, restaurativo y de soporte vital?
¿Por qué no limitar la escala de implementación de cualquier innovación a nivel local y regional hasta que su impacto positivo se demuestre inequívocamente?
Pretender diseñar para una salud sistémica puede que no nos salve de efectos secundarios inesperados y de la incertidumbre, pero ofrece un camino de prueba y error hacia una cultura regenerativa. Necesitamos urgentemente un Juramento Hipocrático para el diseño, la tecnología y la planificación: ¡No hagas ningún daño! Para hacer este imperativo ético operativo necesitamos una intención salutogénica (generadora de salud) detrás de todo diseño, tecnología y planificación: Necesitamos diseñar para la salud humana, de los ecosistemas y del planeta. De esta manera podremos transitar más rápidamente del insostenible “más de lo mismo” hacia innovaciones restauradoras y regenerativas que apoyen la transición hacia una cultura regenerativa. Hagámonos la siguiente pregunta:
¿Cómo creamos diseño, tecnología, planificación y decisiones políticas que permitan la salud humana, comunitaria y medioambiental?
Necesitamos responder al hecho de que la actividad humana durante los últimos siglos y milenios ha dañado el funcionamiento sano de los ecosistemas. La disponibilidad de recursos está disminuyendo por todo el mundo, mientras que la demanda aumenta a la vez que la población humana continua expandiéndose y continuamos erosionando el funcionamiento de ecosistemas debido a diseños irresponsables y estilos de vida de consumo desenfrenado.
Si afrontamos el reto de disminuir la demanda y el consumo a nivel mundial mientras reponemos recursos a través del diseño y la tecnología regenerativas, tendremos una oportunidad de salir del ojo del huracán y crear una civilización humana regenerativa. Este cambio implicará una transformación de los recursos naturales base de nuestra civilización, alejándonos de los combustibles fósiles y dirigiéndonos hacia recursos biológicos regenerados de manera renovable, junto a un aumento radical de reciclado y productividad de recursos. Bill Reed ha planeado algunos de los cambios que serán necesarios para crear una cultura verdaderamente regenerativa.
“En lugar de dañar menos al medioambiente, es necesario aprender cómo podemos participar de ese medioambiente –usar la salud de los sistemas ecológicos como base para el diseño. […] El salto significativo que tiene que dar nuestra cultura es cambiar de una visión del mundo fragmentada a un modelo mental de sistemas en su totalidad –encuadrar y entender las interrelaciones de los sistemas vivos de una manera integrada. Un enfoque local es una manera de alcanzar este entendimiento. […] Nuestro papel, como diseñadores y depositarios es cambiar nuestra relación actual a una que cree un sistema completo de relaciones mutuamente beneficiosas.”
–Bill Reed (2007:674)
Reed nombró al “pensamiento de sistemas completos” y al “pensamiento de sistemas vivos” como la base de un cambio hacía el modelo mental que necesitamos para crear una cultura regenerativa. En los capítulos 3, 4 y 5, exploraremos más detalladamente estos cambios de perspectiva necesarios. Van de la mano con una reformulación radical de lo que entendemos por sostenibilidad. Cómo explica Bill Reed:
“La sostenibilidad es una progresión hacia la consciencia funcional de que todas las cosas están conectadas; que los sistemas comerciales, de construcción, sociales, geológicos y naturales son realmente un solo sistema integrado de relaciones; que esos sistemas son co-participantes en la evolución de la vida.”
-Bill Reed, 2007
Una vez realicemos este cambio de perspectiva entenderemos la vida como “un proceso completo de continua evolución hacia unas relaciones más ricas, más diversas y mutualmente beneficiosas”. Crear sistemas regenerativos no es simplemente un cambio técnico, económico ecológico o social: tiene que ir de la mano con un cambio subyacente en la manera de pensar sobre nosotros mismos, nuestras relaciones con los otros y con la vida en su conjunto.
La figura 1 (abajo) muestra los diferentes cambios de perspectiva mientras transitamos desde el “más de lo mismo” hacía la creación de cultura regenerativa. El objetivo de crear culturas regenerativas trasciende e incluye a la sostenibilidad. El diseño restaurador pretende restaurar la autorregulación sana de los ecosistemas locales, y el diseño reconciliador va más allá haciendo explicita la intervención anticipatoria de la humanidad en los procesos de la vida y en la unión de la naturaleza y la cultura.
El diseño regenerativo crea culturas regenerativas capaces de aprender y transformarse continuamente en respuesta, y anticipándose, a cambios inevitables. Las culturas regenerativas salvaguardan y cultivan la abundancia biocultural para las generaciones humanas futuras y para la vida en su totalidad.
La “historia de separación” está alcanzando los límites de su utilidad y los efectos negativos de su visión del mundo y el comportamiento resultante asociado, están comenzando a afectar la vida en su totalidad. Al habernos convertido en una amenaza para la salud planetaria estamos aprendiendo a redescubrir nuestra relación íntima con toda forma de vida. La visión del Bill Reed de los sistemas regenerativos para una salud sistémica está en la misma línea que el trabajo pionero de gente como Patrick Geddes, Aldo Leopold, Lewis Mumford, Buckminster Fuller, Ian McHarg, E.F. Schumacher, John Todd, John Tillman Lyle, David Orr, Bill Mollison, David Holmgren, y muchos otros que han explorado el diseño en el contexto de la salud para el sistema en su conjunto.
Está surgiendo una nueva narrativa cultural, capaz de concebir y conformar una verdadera cultura regenerativa humana. Todavía no sabemos todos los detalles sobre como exactamente se manifestará esta cultura, y tampoco conocemos como podremos pasar de la actual situación del “mundo en crisis” a ese futuro próspero de una cultura regenerativa. Sin embargo, aspectos de este futuro ya están con nosotros.
Utilizando el lenguaje de “vieja historia” y “nueva historia” corremos el peligro de pensar en esta transformación cultural como la sustitución de la vieja historia por una historia nueva. Esa separación entre contrarios es en sí misma parte de la “narrativa de separación” de la “vieja historia”. La “nueva historia” no es una negación completa de la visión del mundo dominante actual. Incluye esta perspectiva pero deja de considerarla la única perspectiva, abriéndose a la validez y necesidad de múltiples maneras de conocimiento.
Aceptar la incertidumbre y la ambigüedad nos hace valorar múltiples perspectivas sobre nuestra participación adecuada en la complejidad. Estas son perspectivas que dan valor y validez no solo a la “vieja historia” de la separación, pero también a la “historia antigua” de unidad con la Tierra y el cosmos. Estas son perspectivas que pueden ayudarnos a encontrar un camino regenerativo para ser seres humanos en profunda relación, reciprocidad y comunión con la vida en su conjunto, adquiriendo la conciencia de ser co-creadores de la “nueva historia” de la humanidad.
Nuestra impaciencia y urgencia en obtener respuestas, soluciones y conclusiones demasiado rápido es comprensible viendo el creciente sufrimiento individual, colectivo, social, cultural y ecológico, pero esta tendencia de favorecer respuestas en lugar de profundizar en las preguntas es en sí mismas parte de la vieja historia de separación.
El arte de la innovación cultural transformativa se trata, en gran medida, de hacer las paces con “no saber” y profundizar más en las cuestiones, asegurándonos que estamos haciendo las preguntas correctas, poniendo atención en nuestras relaciones y como todos podemos sacar adelante un mundo no solo por lo que hacemos sino por la calidad de nuestro ser. Una cultura regenerativa surgirá de encontrar y vivir nuevas maneras de relacionarse con uno mismo, con la comunidad y con la vida en su conjunto. La base para la creación de culturas regenerativas es una invitación a vivir las cuestiones juntos.
Por Daniel Christian Wahl
[Este es un extracto de un subcapítulo de Diseñando culturas regenerativas, Designing Regenerative Culturespublicado en 2016. La versión en Castellano se esta preparando para publicación en 2020 con Editorial EcoHabitar.] For the English original click here
El pescado es una fuente destacada de proteínas, grasas y ciertas vitaminas. Los peces que consumimos pueden clasificarse de distintas formas. La más conocida es según su aporte de grasa, teniendo pescado azul o graso, pescado blanco o magro y pescado semigraso.
Prácticamente todo el mundo ha oído hablar del pescado blanco y más aún del pescado azul. Muchos sabrán que este último es rico en omega-3 y habrá quien pueda citar algunas especies, la más famosa el salmón.
Pero quizá mucha menos gente sepa en qué se basa realmente esta clasificación y si existen más tipos de pescado.
Lo cierto es que los peces que llenan los mostradores de las pescaderías, pueden clasificarse de varias formas. Podrían distinguirse por el tipo de agua, encontrando peces de río y peces de mar. O por su forma, como el pescado plano tipo gallo o el anguiliforme como el congrio.
De todas ellas la más conocida es la que clasifica al pescado según su carne.
Aquí encontraremos pescados grasos, es decir con un elevado porcentaje de grasa corporal, y pescado magro, con un menor porcentaje de grasa. Entre ambos, se incluye una categoría intermedia que es la de pescados semigrasos.
Pero este clasificación de los peces, es más conocida por los populares nombre de pescado blanco o pescado azul: el primero se refiere a los pescados magros y el segundo a los grasos.
Frente a estos, el pescado blanco, como el bacalao o el lenguado, aportan menor cantidad de estos ácidos grasos pero a su vez son menos calóricos.
Desde del punto de vista nutricional el pescado de manera generalizada es un gran aporte de proteínas y ciertas vitaminas y sales minerales.
En cuanto a su contenido protéico, el pescado, sin importar demasiado la especie, conlleva entre un 13% y un 20% de proteínas. Estas además son de alta calidad, por su contenido en aminoácidos esenciales y por su fácil digestión.
Por otro lado, este alimento también supone una fuente destacada de vitaminas A y D. En los pescados magros estas vitaminas se localizan en el hígado del animal.
En cuanto a minerales, el pescado destaca en calcio y el fósforo, aunque también supone un aporte significativo de hierro y cobre, e incluso yodo en las especies de agua salada.
Por todo ello, las recomendaciones nutricionales aconsejan tomar entre 1 y 4 raciones de pescado o marisco a la semana.
A continuación te contamos en más detalle las diferencias entre pescado blanco y azul.
Pescado azul
Los pescados clasificados como azules son las especies más grasas, con un porcentaje de grasa corporal por encima del 6%, que en algunas especies puede llegar incluso a superar el 25%.
Dentro de esta clasificación encontramos especies muy conocidas como el salmón, el atún, la sardina, la caballa, el arenque, la anchoa, bóquerón o el jurel entre otros.
En cuanto a valor nutricional el pescado azul como hemos visto es más rico en grasa —especialmente en verano, cuando la alimentación y las condiciones del animal son más favorables—. A pesar de este mayor contenido, cabe señalar, que estas son ricas en ácidos grasos poliinsaturados, es decir se consideran grasas saludables.
El pescado azul también aporta una importante cantidad de vitaminas liposolubles, principalmente vitaminas A y D.
En cuanto a las proteínas, como se ha indicado, todas las especies de pescado tienden a aportar porcentajes similares de proteínas, siendo estas de alta calidad por contener los aminoácidos esenciales que necesita el organismo, y a su vez por su fácil digestión.
Las especies de agua salda como el atún, la sardina, la caballa, incorporan cantidades destacadas de yodo.
Por otro lado, un aspecto negativo es que los grandes peces de mar, como el atún, o el esturión, es que están más expuestos a ciertos contaminantes del medio ambiente, siendo catalogados como algunas de las especies de pescados que más mercurio pueden conllevar.
Pescado blanco
Como pescado blanco se conoce a los peces magros, es decir aquellos con poco porcentaje de grasa, por debajo del 2,5%.
Algunas de las especies más conocidas de pescado blanco son la acedia, la bacaladilla, el bacalao, la dorada, la lubina, el lenguado o el rodaballo, entre otros.
En cuanto a sus características nutricionales, este tipo de peces conlleva una mayor proporción de agua, que el pescado azul, debido a que contiene menos cantidad de grasas. Esto le convierte en un pescado menos calórico, más fácil de digerir, pero que a su vez conlleva un menor aporte de omega-3.
Otras de las diferencias es que si bien el pescado blanco también es una fuente importante de vitaminas A y D, estas se localizan en el hígado y en el aceite derivado de estas especies.
Pescado semigraso
A medio camino entre el blanco y el azul, se encuentran aquellos peces con un porcentaje de grasa de entre el 2,5% y el 6%. Este pescado es catalogado como semigraso, denominación menos conocida.
Algunas de las especies de pescado semigraso más consumidas son el emperador, la trucha, la merluza, el salmonete, el rape, o el besugo.
De entre estos pescados, tipos como el emperador, el salmonete o el rape también se encuentran entre los peces con mayor tasa de mercurio en su interior.
Ya es oficial, los equipos han apoyado por unanimidad el Reglamento Técnico de F1 2021 que se había propuesto. Los cambios sustanciales están en la aerodinámica como ya os explicamos en artículos previos. Los motores seguirán exactamente igual, por lo que no se espera la entrada de nuevos motoristas nuevos. Además, según han comentado Nikolas Tombazis, implicado en el desarrollo de este nuevo reglamento y que ha podido tener datos del prototipo que han probado en el túnel de viento, los coches serían unos 3 o 3.5 segundos más lentos que los actuales, pero más manejables.
Especialmente se han estado buscando mejoras en cuanto a los adelantamientos, con menor carga aerodinámica y simplificando el alerón delantero para poder acercarse más al coche de delante y coger el rebufo. Esto a mi particularmente no me agrada demasiado, porque me recuerda a los alerones de otras categorías, mucho más simples, como la Indy. Pero si ayuda a mejorar el espectáculo, bienvenidos sean los cambios. No obstante, siempre los equipos suelen sorprender y lograr que las diferencias de tiempo estimadas de pérdida de tiempo sean menores a lo previsto. Ha ocurrido este año y otros años con cambios importantes en los reglamentos técnicos…
Detalles de la F1 2021
Aquí tienes más destalle sobre el nuevo reglamento técnico y las variaciones en el formato de los fines de semana de F1 2021.
Los cambios que afectan al coche
Los motores crecerán de tamaño para permitir a los motoristas ahorrar en algunas partes que ahora son más complejas para compactar la unidad de potencia.
Los pilotos más altos no tendrán tanta desventaja como ahora, ya que se han cambiado partes del chasis.
Con un suelo estándar para que los equipos ganen ventaja con esta parte.
Se evitarán los materiales exóticos que cuestan mucho dinero. Los equipos podrán construir ciertas partes, pero el diseño será siempre el que de la FIA.
Solo en algunos pequeños componentes tendrán libertad para los diseños, pero los tendrán que hacer públicos y accesible al resto de equipos (open-source).
Se simplifica el ala delantera mucho. Ahora se pierde un 45% de carga aerodinámica o downforce cuando el coche se acerca a ‘un coche de distancia’ tras otro. Pero en 2021 solo será del 14%. Si se aleja un poco, a dos coches de distancia, eso los hace perder 32%, mientras que en 2021 sería solo del 6%.
Otro de los cambios importantes es el peso del monoplaza, que sube de 743 a 768 kg, ya que se montarán neumáticos de 18″.
Además, se introducirán las famosas piezas estándar y nuevos componentes de seguridad para los coches.
Los desarrolladores tendrán limitado el desarrollo de las transmisiones para ahorrar. Solo tienen un comodín para usarlo una vez cada cinco años. Es decir, solo la pueden rediseñar por completo una vez cada 5 años.
También se ha simplificado la suspensión. Ya no se podrá usar la hidráulica. Las mantas de los neumáticos se permitirán solo hasta 2022. Y los frenos delanteros pasarán de los 278 mm a los 330mm, aunque tendrán una geometría más simple, esperando que en 2023 se suministren de forma estándar…
El techo presupuestario será de 175 millones de dólares, es decir, unos 157 millones de euros para las 21 carreras del calendario de ese año. Aumentará o bajará un millón por cada carrera que se quite o se agregue por temporada. Esto incluye a los gastos del equipo, pero se excluye de él los gastos de marketing o actividades fuera de la pista. Hasta el 31 de marzo de 2021 será voluntario presentar los presupuestos financieros, de ahí en adelante será obligatorio. No cumplir con esto supondrá sanciones deportivas, pero también la desclasificación del campeonato.
Se reduce el uso del túnel de viento y herramientas de simulación. Eso hará que los equipos tengan mayor incertidumbre al llegar a los circuitos.
Los monoplazas serán más robustos debido a los cambios, eso hará que no pierdan tantas piezas en colisiones o toques…
Los cambios que afectan a formato
El coche del viernes tendrá que ser el mismo que se use el domingo en carrera. No se podrá cambiar como ocurre ahora.
Se fija a 25 el número máximo de carreras por temporada.
Se endurece el toque de queda para evitar que se trabaje por las noches. Con un número máximo de horas que los ingenieros, mecánicos y el resto de personal debe trabajar.
Los equipos estarán obligados a rodar con debutantes en los Libres 1 de 2021.
Nuevas carreras para el calendario F1 2021 y probablemente lleguen más en el futuro.
Al final no se ha alterado las sesiones, ni se ha agregado la Q4, ni la parrilla invertida, ni otras cosas de las que se ha hablado… No se ha querido alterar el ADN de la F1 como ha comentado Liberty Media, pero lo cierto es que con muchos de los cambios sí que se ha alterado.