¿ESTÁ MUERTO EL ENFOQUE SISTÉMICO?

familiaespiral

Habiendo acumulado más de 45 años de experiencia laboral, tanto como empleado y ejecutivo en muy distintas empresas de todos los tamaños, de origen nacional como internacional y en las más diversas actividades, ya sea de producción como de servicios o de educación, me he dado cuenta que el enfoque de sistemas está totalmente ausente en la mente de los directivos.

volumeAbsorptionGlassOnVolumen sistemica

Además, desde hace unos 20 años me he dedicado a la enseñanza a nivel universitario y de posgrado en programas de negocios y administración y mejoramiento de organizaciones, notando que los alumnos llegan a los cursos carentes de estos conceptos.

De aquí se puede concluir que el enfoque sistémico ya pasó a mejor vida y que deben existir otros modelos que explican mejor la vida de las organizaciones, pero esto no parece ser así.  No es que haya muerto, puesto que nunca ha terminado de nacer. No se ha sembrado, ni cultivado, y por lo tanto está totalmente ausente de la mente de los líderes organizacionales y los demás niveles de las organizaciones. El cultivo está pendiente de hacerse.

porque-utilizar-un-enfoque-sistemico-1-728 23-de-mayo-del-2012-enfoque-sistmico-1-728

“¿Y …?”, se puede preguntar el lector, así como responderse que el mundo ha seguido como si nada, principalmente el de las organizaciones, sin necesidad de estos conceptos. Ahora bien, esto no es así de intrascendente, ya que se ha dejado en un segundo plano la conciencia de que las organizaciones son organismos sociales vivos.  Como tales, reciben del medio ambiente una serie de elementos que los nutren y les permiten hacer lo que tienen que hacer, y a su vez, deben entregar una serie de productos y servicios, según lo requerido.

Cuando está ausente la idea de que las organizaciones son sistemas vivos y que están abiertos al intercambio con su entorno, los líderes  suelen errar el diseño de las estrategiasy retrasar su avance, o más aún, llevarlas al fracaso. En estas épocas es notoria la influencia de la globalización, de la apertura de las comunicaciones y de su inmediatez; sin embargo, los directivos en muchos casos actúan como si no hubiera más mundo que el que alcanzan con la vista.

Metodología de sistemas duros 46001057

Ahora el entorno externo a las organizaciones, sobre el cual no se puede tener control, pide y a veces exige para poder interactuar, condiciones y características que hace 20 años no interesaban. Se hace énfasis en la importancia de actuar con Responsabilidad Social,ser sustentable, comprar y vender a precios justos, en fin, proyectar hacia afuera de la organización una vida organizacional ética.

Al existir una poderosa fuerza de globalización en las comunicaciones, resulta que ahora la actuación de las organizaciones se conoce en todo el mundo. Lo malo y negativo vuela y corre mucho más rápido entre los consumidores y la opinión pública que las buenas actuaciones y el buen servicio. La imagen del buen servicio y la buena calidad se trasmite de boca en boca, con un efecto bastante duradero.

Pero ¿a qué se refiere la “Teoría General de Sistemas”? Pues quiere decir que la única manera significativa de ver a las organizaciones es como un sistema social. Estos conceptos no son nuevos, están cerca de cumplir un  siglo, pero no han terminado de sembrarse en el mundo de las organizaciones.

Si hay que ir a las definiciones, vale la pena tomar la que dice que un sistema viene a ser“untodo unitario organizado, compuesto por dos o más partes, componentes o subsistemas interdependientes y delineado por límites identificables por su suprasistema ambiente” (Kast & Rosenzweig, 1988).

diagnostico-sistemico-1 Dinámica espiral h

De ella  vale la pena enfatizar, por ahora, que las organizaciones, vistas desde el enfoque sistémico son interdependientes de su suprasistema ambiental. Este ambiente externo no solo se referirá a los competidores, proveedores, factores macroeconómicos, mundiales y nacionales, sino a los ecológicos y los del ambiente climático.

Lo que se hace o deja de hacer en una organización no solo repercute dentro de ella, sino en otras organizaciones que están en su entorno cercano y lejano. Es como cuando se tira una piedra en un estanque, va produciendo olas que se alejan de su centro. Lo que se hace afecta a otros, y lo que los demás hacen o deciden, invariablemente nos afecta.

En estos párrafos se ha querido hacer ver que la mayoría de los líderes están ayunos de los conceptos administrativos que les permitan conducir hacia el mejoramiento a sus organizaciones, sin importar si éstas son de negocios o no lucrativas. Se ha querido enfatizar que la “Teoría General de Sistemas” constituye un enfoque global desde el que se puede entender todo tipo de sistemas, entre ellos los organizacionales.

Referencias

Kast, F., & Rosenzweig, J. (1988). Administración en las oranizaciones. Enfoque de sistemas y contingencias (2a ed.). (M. A. Malfavón, Trad.) México: McGraw Hill.

Fernando Menéndez González

Universidad Iberoamericana (UIA)

Anuncios

EL FUTURO ES HOLOGRÁFICO

nivel 13

1413989125_124869_1414172645_noticia_normal (1)

– La investigación científica de esta tecnología explota con aplicaciones revolucionarias

“Ayúdame Obi Wan Kenobi, eres mi única esperanza”. No era la actriz Carrie Fisher repitiendo una de tantas citas legendarias de La guerra de las galaxias. Era una estudiante del MIT, vestida de princesa Leia, demostrando que transmitir en vídeo un holograma, uno de los sueños de siempre de la ciencia ficción, era ya una realidad. La cruz de la moneda que, tres años después de la experiencia, “aún recibe correos de fans. Y no le gusta. No quiere que la conozcan como la princesa Leia porque está haciendo cosas mucho más interesantes”, revela su profesor, Michael Bove (Missouri, 1960), líder de un equipo de investigación en el Media Lab del MIT.

Holograma_de_Obiwan

Más allá de la anécdota, la tecnología holográfica vive un momento dulce. Aplicaciones para la salud prometen simplificar el diagnóstico médico con dispositivos no mayores que la yema de un pulgar. En el mundo de la informática, estas esculturas de luz pueden llegar a multiplicar en un lustro la cantidad de memoria disponible en los ordenadores. En China, la compañía Takee Technologyle ganó la partida al futuro móvil de Amazon mostrando unsmartphone capaz de crear estas imágenes en 3D. Microsoft y Skype investigan cómo revolucionar la videoconferencia con holografías de los interlocutores. Y hace un par de semanas,Apple patentó un dispositivo para poder tocar e interactuar con estas imágenes.

Médicos de bolsillo

hqdefault

Se sostiene con dos dedos, porque mide apenas unos centímetros. Es un dispositivo holográfico desarrollado por un grupo de investigación de la Universidad de Cambridge que sirve para acelerar el diagnóstico médico. Su funcionamiento es similar al medidor de pH y cloro de una piscina. Se analiza un fluido, la orina del paciente por ejemplo, y el ingenio genera un patrón de color que devuelve en solo tres minutos un holograma que cambia de color cuando entra en contacto con la sustancia que se desee medir, glucosa en el caso de esta investigación.

“Usamos nuevos materiales como hidrogeles de metacrilato que reaccionan a la sustancia química que queramos. Podría ser cualquier tipo de aplicación clínica donde se requieran pruebas de orina o de sangre”, afirma Ali K. Yetisen (Izmir, 1986), encargado de fabricar estos dispositivos en el grupo de investigación de biotecnología que dirige el profesorChristopher R. Lowe. La otra clave son los láseres de alta energía que permiten ahorrar mucho tiempo en crear un holograma: “Si antes llevaba unos 10 pasos, nosotros podemos hacerlo en un par”. El tiempo para que estos aparatos pudieran salir al mercado, “de cinco a 10 años”, porque la verificación de los diagnósticos en humanos y ensayos clínicos son un proceso arduo y riguroso.

Dispositivo holográfico de diagnóstico médico de la Universidad de Cambridge que altera su color al contacto con una sustancia en concreto de un fluido, por ejemplo: la glucosa.

Memoria inabarcable

Mientras el ordenador cuántico no llega, la holografía puede ofrecer también una revolución para la memoria informática. Al contrario que el almacenamiento magnético y óptico, que guardan los datos en una superficie, esta técnica permite guardar los datos en un volumen. El problema es que un láser tiene que leer esta información desde un determinado ángulo.

Un equipo de investigación de la Universidad de California de Riverside ha encontrado una manera de combinar el almacenamiento magnético y holográfico para revolucionar la capacidad de ordenadores y discos duros. El sistema, bautizadoMagnonic Holographic Memory, se queda con el almacenamiento electrónico convencional, pero usando un tipo de ondas, las spin, que operan a una longitud mucho menor. De la holografía coge esa capacidad de guardar datos en 3D. “Si conseguimos refinar la técnica, según nuestras estimaciones de la onda más pequeña que podríamos usar [en torno a cien nanómetros, la diezmillonésima parte de un milímetro], seremos capaces de meter un terabyte en un centímetro cuadrado”, afirma Alexander Khitun, líder de esta investigación. Comparado con un disco duro portátil actual, esta capacidad multiplicaría por 31 la tecnología existente.

El prototipo de circuito holográfico y convencional integrado del profesor Alexander Khitun de la Universidad de California de Riverside.

Las ventajas de contar con este trabajo en paralelo de ambos sistemas tienen, según Khitun, múltiples aplicaciones: “Por ejemplo, el reconocimiento facial es algo que por el volumen de datos que maneja le cuesta mucho a los ordenadores convencionales. Una computadora que tuviera integrado un sistema holográfico podría dedicarlo a esas tareas que a la electrónica tradicional le son demasiado costosas”.

El prototipo de momento no llega al objetivo. En un circuito de dos bits, el grupo de Khitun ha conseguido encerrar ondas de una longitud de 10 micrómetros, es decir, cien veces más amplia que el ideal que permitirá alcanzar ese terabyte por centímetro cuadrado. “Hay muchos desafíos tecnológicos aún que resolver, pero creo que siendo optimistas podemos esperar tener un prototipo funcional en cinco años”. Michael Bove, investigador del MIT, es más conservador en la viabilidad económica e industrial de este tipo de investigación: “El problema de la memoria holográfica es que en esos cinco o 10 años en que se refine un modelo experimental, la tecnología convencional puede haber evolucionado hasta hacerla obsoleta o inviable por los costes de fabricación”.

La revolución del ‘holovídeo’

Las imágenes estáticas holográficas ya son posibles. Pero esas ilusiones tridimensionales e interactivas que ha recreado Hollywood en superproducciones como Prometheus o Iron Manaún tienen mucho trecho por delante. El Media Lab del MIT es puntero en conseguir video holográfico. En 2011, conseguir plasmar muy rudimentariamente a una falsa Princesa Leia. Ahora han llegado a proyectar en el espacio a una resolución aún baja: 640×480 píxeles.

Una mariposa holográfica en la tecnología de vídeo del MIT. La resolución es de 640×480 píxeles.

“Para que un holograma se mueva, para tener vídeo en alta definición, necesitamos hacer los píxeles mucho más pequeños. Tan pequeños como para meter unos 2.000 en un milímetro cuadrado”, explica Michael Bove, director de un grupo de investigación en el Media. Y hay otros desafíos: “Nuestras pantallas de momento son como las de las teles antiguas, cajas. Estamos refinando la tecnología para conseguir que sean planas”.

Pero el equipo de Bove ya ha conseguido vislumbrar ese futuro: “Mis estudiantes han logrado ya hologramas para una pantalla del tamaño equivalente a unsmartphone. De ahí a una televisión holográfica que usar en casa queda mucho. Tal vez unos 10 años para que podamos ver las primeras aplicaciones comerciales”. Pero por mucho que prometa la tecnología, el sueño de ver a Leia flotando en el aire desde cualquier ángulo aún no está resuelto. Porque todo holograma conocido se proyecta desde una pantalla. Es decir, que Leia, vista desde el lugar equivocado, sería solo una voz suplicando: “Ayúdame Obi-Wan Kenobi, eres mi última esperanza”.

Fuente:

http://elpais.com

NUEVA APROXIMACIÓN AL CERO ABSOLUTO CON MOLÉCULAS MAGNÉTICAS

Un-metodo-disenado-por-fisicos-espanoles-corrige-los-errores-del-ordenador-cuantico_image_380

Investigadores del Instituto de Ciencia de Materiales de Aragón (ICMA) y otros centros internacionales han desarrollado un método para enfriar por debajo de -272,15 grados Celsius usando una molécula-imán: Gd7. Esta podría sustituir al escaso y caro helio-3, empleado hasta ahora para alcanzar esas bajísimas temperaturas en diversas técnicas de enfriamiento.

trap_cooling temperaturas-zero-absoluto_thmwde

Más información sobre:
cero absoluto
helio-3
Gd7
magnetismo
1 / 1

Estructura de Gd7(OH)6 y su posición en una red. / E.Palacios-M.Evangelisti et al.

Un equipo internacional de investigadores, con científicos del Instituto de Ciencia de Materiales de Aragón (ICMA, CSIC-Universidad de Zaragoza), ha logrado por primera vez enfriar por debajo de -272,15 grados Celsius (justo por encima del cero absoluto que es -273,15 ºC) utilizando moléculas magnéticas. El estudio se ha publicado en la revista Nature Communications.

Según los autores, el hallazgo puede revolucionar las técnicas de enfriamiento empleadas en aparatos de resonancia magnética, satélites o licuadores de hidrógeno y gas natural (imprescindible para su transporte) entre otras muchas utilidades, reduciendo además notablemente su coste.

Es la primera vez que se logra enfriar a menos de un grado Celsius del cero absoluto utilizando moléculas magnéticas

Para este trabajo, el equipo ha desarrollado una innovadora y eficaz técnica de ‘enfriamiento sub-kelvin’, basada en el uso de la molécula-imán Gd7, compuesta por gadolinio (Gd) y otros elementos. Esta tiene un magnetismo que triplica al del hierro, con una estructura parecida a la de un copo de nieve y unas peculiaridades en su comportamiento que hacen doblar la eficiencia de los métodos utilizados hasta ahora basados en el isótopo helio-3.

Sin embargo, el gas refrigerante helio-3 no existe en la naturaleza, se produce artificialmente en reactores nucleares y en 2012 rondaba los 5.000 € por gramo. Se calcula que en todo el mundo solo hay unos 30 kilos y quien tiene helio-3 no lo vende, por lo que se podría decir que no hay mercado.  Además, al ser un gas termina por fugarse a la atmósfera siendo imposible recuperarlo.

Un gramo de Gd7 producido en laboratorio no cuesta más de 100 euros, se puede sintetizar en grandes cantidades e incluso el precio bajaría mucho si se generase de forma industrial.  Es un sólido que no se pierde ni se estropea y su eficiencia es el doble que la del gas: para conseguir la misma refrigeración se gasta la mitad de energía.  Incluso duplica la eficiencia de los sistemas y prototipos actuales de enfriamiento magnético a bajas temperaturas que utilizan otros materiales conocidos hace ya 20 años.

Colaboración europea

El profesor Elias Palacios y el doctor Marco Evangelisti han desarrollado en los laboratorios de bajas temperaturas del ICMA, un sistema original de medida que permite observar de modo directo, y verificar experimentalmente, las propiedades refrigerantes del Gd7.  Una técnica novedosa que consigue mayor precisión que las medidas magneto-térmicas convencionales, que se limitan a estimaciones indirectas.

Por su parte, el profesor Eric J. L. McInnes y su grupo de investigación de la Universidad de Manchester (Reino Unido) fueron quienes lograron sintetizar la compleja molécula Gd7. Y las simulaciones por ordenador del grupo del profesor Jürgen Schnack, de la Universidad alemana de Bielefeld, muestran que la disminución gradual del campo magnético aplicado hace que esta molécula primero se enfríe, a continuación se caliente y finalmente vuelva a enfriarse hasta alcanzar una temperatura mínima, muy cercana al cero absoluto en la escala Kelvin. Este comportamiento complejo difiere y mejora el rendimiento del helio-3 y ha sido verificado experimentalmente en el ICMA.

000000

Referencia bibliográfica:

Joseph W. Sharples, David Collison, Eric J.L. McInnes, Jürgen Schnack, Elias Palacios, Marco Evangelisti.“Quantum signatures of a molecular nanomagnet in direct magnetocaloric measurements”.Nature Communications, 2014.

Zona geográfica: España
Fuente: SINC
Fuente original:

¿UN CÓDIGO GENÉTICO OCULTO?

solapado2 pln

20 octubre 2014

El código genético es el conjunto de reglas que permiten traducir una secuencia denucleótidos, presente en el ARN, en la secuencia de aminoácidos de una proteína. Esta traducción es posible porque cada aminoácido se encuentra codificado por tres nucleótidos concretos a los que llamamos codón. Es un código casi universal, que funciona en todos los seres vivos conocidos. Un código no exento de complejidad pues al traducirlo no cambiamos sólo de idioma, sino incluso de sintaxis. Se pasa de un lenguaje de cuatro letras, las correspondientes a los diferentes nucleótidos que componen el ARN, a otro de veinte, los distintos aminoácidos proteicos.

johann_gregor_mendelpost

Una de las características más llamativas de este código genético es que es degenerado yredundante. Esto quiere decir que la mayor parte de los aminoácidos son codificados por más de un codón. Hay 61 codones para sólo 20 aminoácidos… Es decir, hay codonessinónimos, que portan la misma información. Tradicionalmente, se consideraba que las mutaciones sinónimas no tenían ninguna trascendencia biológica dado que no alteraban la naturaleza del aminoácido codificado. Se hablaba de mutaciones silenciosas. Este panorama, sin embargo, ha cambiado drásticamente a lo largo de los últimos diez años. Hoy sabemos que la degeneración del código genético influye en procesos como el control y coordinación de la expresión de genes o el correcto plegamiento de las proteínas. Hasta el momento, más de cincuenta enfermedades humanas han sido ya relacionadas con la existencia de mutaciones sinónimas, por ejemplo.

genotipo

Está completamente demostrado que las células no utilizan de forma indistinta los codones sinónimos. Existe una clara preferencia en función de las especies y de las circunstancias metabólicas en las que la traducción tenga lugar. Se dice que el código genético estásesgado; hay codones preferidos. Todo indica, por tanto, que existe una información adicional, más allá de la mera traducción. Una información que debe estar presente de alguna forma en el ADN y/o en el ARN mensajero (ARNm), la molécula encargada de trasladar la información codificada en los genes a los ribosomas, las nanomáquinas que producen las proteínas. Una información que constituye un auténtico código genético oculto, que porta una información no explícita que sólo ahora se está empezando a vislumbrar. Un código que ejerce su influencia en la toma de decisiones acerca de cuándo y cómo se lee cada gen, cada secuencia de ADN o ARN, y no sólo en lo que sería la traducción directa de nucleótidos en aminoácidos. Un código que no afecta a la transmisión de la información propiamente dicha, sino a las reglas que la regulan. A cómo y cuándo se transcribe la información almacenada en el genoma.

codigo-genético-960x623

Según se va avanzando en el entendimiento de este nuevo código, surgen más y más evidencias de que la complejidad de un organismo no radica en su número de genes, como inicialmente se pensó, sino en su regulación. Es este avance el que permite explicar la sorpresa inicial que supuso descubrir que el genoma humano, el del organismo que creíamos como el más complejo, tuviese escasamente veinte mil genes. Un organismo aparentemente tan anodino como el arroz puede tener más del doble, por ejemplo. Un organismo que ni siquiera piensa… Y efectivamente parece ya también claro que este código genético no explícito puede influir poderosamente en esta regulación, especialmente controlando la expresión de los genes y la velocidad de la traducción del ARN en proteínas.

Simplificando un tanto, se puede decir que el control de la expresión de los genes se ejerce a través de la acción de una gran variedad de proteínas, que conocemos como factores de transcripción, que modulan precisamente la conversión del mensaje de ADN en ARN. Se habla de transcripción porque se utiliza un lenguaje casi idéntico, en el que sólo cambia una de las letras utilizadas, uno de los nucleótidos. La regulación la ejercen uniéndose, o no, a regiones concretas del ADN que actúan como auténticos interruptores que encienden, o apagan, la expresión de genes. Una mutación sinónima en una de estas regiones no cambiaría la naturaleza del aminoácido codificado, pero sí la de la secuencia de ADN que contiene dicho codón, haciéndola más o menos reconocible por el correspondiente factor. Es decir, podría cambiar drásticamente la cantidad y naturaleza de las proteínas producidas, conduciendo a la aparición de patologías originadas por fallos en la regulación de la transmisión de la información del código, aunque no en el contenido literal de la misma.

bioteknologia

El otro aspecto, la velocidad a la que los ribosomas producen las proteínas, influye tanto en la fidelidad del proceso como en su correcto plegamiento. Un ribosoma que vaya demasiado rápido, o demasiado despacio, cometerá más errores. Los ribosomas, por otra parte, lo que sintetizan son cadenas lineales de aminoácidos que para ser funcionalmente activas tienen que plegarse en forma de estructuras tridimensionales concretas, que se denominan conformaciones nativas. Variaciones en esta velocidad influyen, a su vez, en la cinética del plegamiento y pueden conducir a conformaciones erróneas, no funcionales. Es decir, existe una velocidad óptima de producción para cada proteína. Cuando la proteína es muy grande, el propio ribosoma produce pausas para favorecer este correcto plegamiento. Ya se sabe que la secuencia del ARNm influye decisivamente en la velocidad a la que actúa el ribosoma a través de la formación de pequeñas estructuras, resultantes de interacciones entre nucleótidos, y de la disponibilidad de otras moléculas de ARN, los ARN de transferencia (ARNt), que son los que transportan el aminoácido correcto para cada codón concreto. Por un lado, un cambio sinónimo en un codón puede, por tanto, alterar la estructura del ARNm, haciendo que varíe la velocidad a la que lo lee el ribosoma. Por otro, puede cambiar la disponibilidad de los ARNt. Normalmente, los codones sinónimos más frecuentes se corresponden también con los ARNt más abundantes. Si una mutación sinónima produce un codón poco frecuente, la disponibilidad del ARNt correcto será menor y, por ello, la velocidad de traducción disminuirá, pudiéndose alterar la conformación final de la proteína.

En definitiva, este nuevo código genético oculto, regulador, no explícito, que sólo ahora estamos empezando a comprender, nos permite volver a situarnos en el centro del Universodel que parecíamos haber sido desplazados por los resultados iniciales del Proyecto Genoma Humano. Tenemos pocos genes, pero su regulación es compleja.Presumiblemente, extremadamente compleja en organismos tan importantes como nosotros… Nuestra visión antropocéntrica de la Naturaleza queda así temporalmente a salvo. Veremos hasta cuándo.

Bibliografía recomendada

Hunt RC, Simhadri VL, Iandoli M, Sauna ZE, Kimchi-Sarfaty C (2014) Exposing synonymous mutations. Trends in Genetics 30, 308-321.

Ivanova NN, Schwientek P, Tripp HJ, Rinke C, Pati A, Huntemann M, Visel A, Woyke T, Kyrpides NC, Rubin EM (2014) Stop codon reassignments in the wild. Science 344, 909-913.

Martínez del Pozo, A. (2010) ¿Estaba Christian Anfinsen en lo cierto? Anales de la Real Sociedad Española de Química 106, 96-103.

Weatheritt RJ, Babu MM (2013) The hiden codes that shape protein evolution. Science 342, 1325-1326.

Álvaro Martínez del Pozo

Profesor e investigador, Universidad Complutense de Madrid

Fuente:

http://www.bbvaopenmind.com

MATEMÁTICAS PARA “LEER” EL ARTE

OpenMind-manuel-de-leon-Matematicas-para-un-mundo-sostenible NikeSavvas1

Si hubiera que elegir una sola palabra para caracterizar el trabajo de Ingrid Daubechies, bien podría ser “interdisciplinariedad”. Esta catedrática de la Universidad de Duke (Estados Unidos), hoy presidenta de la Unión Matemática Internacional (IMU), comenzó su carrera como física teórica e inicio una transición hacia las matemáticas motivada por la gran necesidad de nuevas herramientas de este tipo de la que adolecía su disciplina de origen. En el año 2012 recibió el Premio FBBVA Fronteras del Conocimiento por sus trabajos en ondículas, que ha sido aplicado, por ejemplo, al estándar de compresión de imágenes JPEG 2000.

“El análisis de imagen puede usarse para distinguir el trazo de un artista”

Cuando-Dali-conocio-a-Freud_image800_

Daubechies se deja llevar por el interés que le suscitan problemas de otras áreas, como el arte: “Alguien llamó mi atención sobre el hecho de que el análisis de imagen puede usarse para distinguir el trazo de un artista” y comprobar, por ejemplo, la autenticidad de una obra.

El ultimo trabajo que ha llevado a cabo, y sobre el que hablará en su conferencia en AIMS 2014, trata precisamente sobre ello. Daubechies y, junto a otros sus colaboradores de laUniversidad de Bruselas (Bélgica) y el Museo de Arte de Carolina del Norte (Estados Unidos),han desarrollado un algoritmo que permite visualizar los trazos originales de los artistas a través de rayos X, lo que permite conocer mejor la técnica utilizada, las condiciones de elaboración de la pintura y el estado de conservación.

Entre los siglos XII y XVII, los artistas europeos pintaban en tableros de madera. Posteriormente, en los siglos XIX y XX, los conservadores adelgazaron estos tableros y colocaron un bastidor, ya inseparable de la obra, para prevenir posibles daños. Estos bastidores, sin embargo, dificultan el estudio de la obra original a través de rayos X, una técnica muy utilizada actualmente para estudiar las condiciones de la pintura.

Hasta ahora era posible eliminar la imagen del bastidor de la obtenida con rayos X de manera manual, si bien se trataba de una tarea complicada que se podía llevar a cabo tan solo en un número limitado de obras pictóricas. Los investigadores pensaron que una forma mas automatizada seria de gran ayuda para los conservadores de los museos. Los resultados obtenidos han resultado ser satisfactorios, y semejantes a las técnicas empleadas hasta la fecha. Y es que las matemáticas y el arte caminan de la mano en más ocasiones de las que pensamos.

Este texto es un extracto de un reportaje original de Lorena Cabeza para el ICMAT. Puedes encontrar el texto completo aquí.

aproximarsetextofilosofico_openmind

Instituto de Ciencias Matemáticas (ICMAT)

Centro mixto de investigación matemática formado por el Consejo Superior de Investigaciones Científicas (CSIC) y tres universidades de Madrid: la Autónoma (UAM); Carlos III (UC3M); y Complutense (UCM).

Fuente:

http://www.bbvaopenmind.com