Imagen con fines ilustrativos
Dic 2013
Unidad Coordinadora

Heurísticas de optimización combinatoria para la clasificación de datos

Equipo de Trabajo

Nombre completo
Rol
Escuela
Juan José Fallas Monge
Coordinador
Matemática
Jeffrey Chavarría Molina
Investigador
Matemática

En el presente proyecto de investigación se realizó la implementación de las heurísticas de algoritmo genético, enjambre de partículas (EP) y búsqueda tabú (BT) para el estudio del problema de clasificación por particiones con datos cuantitativos. En total se implementaron cuatro algoritmos, dado que en el caso de búsqueda tabú se diseñaron dos variantes. Una de ellas constituyó en la generación de vecindarios mediante transferencias de individuos de una clase a otra; mientras que la otra consistió en la construcción de los vecinos mediante el movimiento de los centros de gravedad de las clases (BTCG).

Los algoritmos fueron aplicados a veinte tablas de datos tomadas de la literatura. Además, se diseñaron ocho tablas adicionales de mayor tamaño y complejidad, para verificar el rendimiento de los algoritmos. Se realizó, además, un análisis de la variabilidad de los resultados, en función de los parámetros de las diferentes heurísticas. Esto permitió determinar, para cada una de ellas, la combinación de parámetros que generó el mejor rendimiento posible en cada heurística. Además, se realizó una comparación de la eficiencia de las heurísticas implementadas, lo cual permitió generar una jerarquización de ellas como función del rendimiento, siendo BTCG y EP las que mostraron mejores resultados.

  1. Se logró la implementación de tres heurísticas de optimización combinatoria para estudiar el problema de particionamiento de individuos en presencia de datos cuantitativos (algoritmo genético, enjambre de partículas y búsqueda tabú). Con la característica adicional que la heurística de búsqueda tabú fue implementada siguiendo dos estrategias diferentes para la generación de vecinos. Esto potenció el haber culminado con cuatro algoritmos heurísticos para el estudio del problema en cuestión (PRIMER OBJETIVO ESPECIFÍCO).  

  2. Del proceso de investigación se derivaron un conjunto de estrategias que potencializaron el rendimiento de las heurísticas. Como ejemplos particulares se pueden citar: la mejora de k−medias en todas las heurísticas, el método de paro en todas las heurísticas, la mejora de reinicio en las heurísticas de búsqueda tabú y la definición del operador de cruce y el operador de selección en el algoritmo genético. 

  3. Se realizó un análisis de los parámetros en cada uno de los algoritmos, del cual se desprendieron los valores que deben asignarse a los diferentes parámetros de las heurísticas para potenciar su rendimiento (SEGUNDO OBJETIVO ESPECÍFICO).  

  4. Se realizó una comparación del rendimiento, con respecto a los porcentajes de atracción y tiempos de ejecución, de las tres heurísticas implementadas en la investigación. Esto permitió jerarquizar a las heurísticas de búsqueda tabú mediante movimiento de centros gravedad (BT-CG) y enjambre de partículas en su versión EP-1, como las heurísticas de mejor rendimiento. Aportando evidencia que al aumentar significativamente la cantidad de individuos que conforman la tabla de datos, es la heurística BT-CG la que experimenta menos aumento en los tiempos de ejecución (TERCER OBJETIVO ESPECÍFICO).  

  5. Se diseñó una heurística híbrida entre las dos mejores heurísticas, a saber, entre enjambre de partículas y búsqueda tabú (CUARTO OBJETIVO ESPECÍFICO). Se advierte que a pesar de las diferentes aristas exploradas y que el algoritmo híbrido generó buenos porcentajes de atracción, no cumplió con la expectativa de mejorar las heurísticas previamente implementadas. Los altos tiempos de ejecución fue un punto que en cierta medida hace concluir que el proceso de hibridación no fue del todo exitoso. 

Implementar heurísticas de optimización combinatoria para estudiar el problema de la clasificación por particiones en presencia de datos cuantitativos y el diseño e implementación de una nueva heurística híbrida de optimización para el estudio de dicho problema.  

  1. Implementar las siguientes tres heurísticas para abordar el problema de clasificación por particiones en presencia de datos cuantitativos: algoritmo genético, enjambres de partículas y búsqueda tabú.  
  2. Explorar la variabilidad de los resultados en cada una de las heurísticas implementadas en función de sus parámetros.  
  3. Comparar la eficiencia de las heurísticas implementadas.  
  4. Diseñar e implementar un algoritmo híbrido que permita mejorar las soluciones. 
Imagen con fines ilustrativos
Jun 2014
Unidad Coordinadora

Técnicas de precondicionamiento en paralelo

Equipo de Trabajo

Nombre completo
Rol
Escuela
Luis Ernesto Carrera Retana
Coordinador
Matemática
Geovanni Figueroa Mata
Investigador
Matemática

El objetivo principal de la investigación fue diseñar e implementar en paralelo una técnica de precondionamiento con el fin de resolver sistemas de ecuaciones lineales provenientes de la solución numérica de ecuaciones diferenciales parciales; la característica común de estos sistemas lineales es su gran tamaño y el hecho de que la matriz de coeficientes asociada es rala. Se diseño e implementó en paralelo una técnica de precondicionamiento, basada en la factorización incompleta LU (ILU), y se aplicó a problemas obtenidos de la colección de matrices ralas de la Universidad de Florida. El precondicionador fue probado en matrices no simétricas y matrices simétricas no definidas positivas. Los mejores resultados se obtuvieron en el caso de las matrices simétricas no definidas positivas. 

Diseñar e implementar técnicas de precondicionamiento en paralelo.  

 

  1. Investigar sobre la existencias de las diferentes técnicas de precondicionamiento.  
  2. Analizar cuáles de las técnicas de precondicionamiento estudiadas son suceptibles de ser paralelizadas y aplicadas a métodos iterativos para la resolución de sistemas lineales.  
  3. Diseñar un algoritmo en paralelo para alguna de estas técnicas de precondicionamiento.  
  4. Implementar utilizando programación en paralelo el algoritmo diseñado.  
  5. Probar y depurar la técnica de precondicionamiento desarrollada sobre algunos sistemas de ecuaciones lineales de prueba
Imagen con fines ilustrativos
Dic 2014
Unidad Coordinadora

Modelo de Visualización del Conocimiento en el uso de tecnologías y tecnologías digitales(ModelTec)

Equipo de Trabajo

Nombre completo
Rol
Escuela
Jorge Mauricio Monge Fallas
Coordinador
Matemática

La visualización del conocimiento es un campo de estudio reciente(2005) que aparece en el área de la administración del conocimiento, este juega un papel importante en la transferencia del conocimiento. La visualización del conocimiento alcanza el objetivo de transferir el conocimiento haciendo uso de distintos tipos de visualización. Por lo que los tipos de visualización que se utilizan, la intensidad con la que deben ser aplicados, la complementariedad que deben tener, la claridad y la estructura con la que se lleve a cabo su ejecución son factores importantes a considerar. El marco y el modelo de visualización del conocimiento fue desarrollado por el arquitecto suizo Remo Burkhard, este marco general de visualización orienta el uso de las representaciones visuales para la transferencia del conocimiento. Además han colaborado en este nuevo campo de investigación: Martín Eppler, y Michael Meier entre otros. 

En estos procesos de visualización la tecnología viene a convertirse en un muy buen aliado, nos da la posibilidad de tener múltiples representaciones de un concepto en pantalla y con la posibilidad de que por su naturaleza dinámica se puedan realizar generalizaciones sobre el mismo. Estos procesos de múltiples representaciones son fundamentales en la teoría de representaciones semióticas de Duval.

Con el marco general de visualización y la teoría de representaciones semióticas, parecía oportuno la búsqueda de un modelo para el uso de tecnologías digitales y no digitales que incorporaran la visualización del conocimiento. Este fue el objetivo principal de este proyecto. Partimos del campo de la visualización del conocimiento, pasamos por la teoría de representaciones semióticas de Duval, nos trasladamos al modelo para formación de profesor desarrollado por Shulman y denominado PCK, el cual posteriormente fue visto como un modelo integrador por Gew-Newsome y por último Mishra y Koehler incorporan la componente tecnológica dando origen al TCPK. Este acrónimo fue cambiado en el 2008 a TPACK por Thompson y Mishra. 

Es en este modelo donde consideramos oportuno pág. 4 de 59 incorporar la visualización del conocimiento y lo he denominado TPACK*. El reto parece ser muy claro, tomar el modelo e implementarlo en la enseñanza con tecnología por un periodo considerable y evaluar su ejecución. Lo considero un reto, dado que por su composición el profesor debe en principio tener el dominio sobre la parte disciplinar, a esto se le agrega el saber y las habilidades necesarias para la implementación de la tecnología y por último el conocimiento y competencias necesarias en el campo de la visualización del conocimiento.

Establecer un modelo de visualización del conocimiento para el uso de las tecnologías y tecnologías digitales 

  1. Crear un modelo prototipo a partir del modelo planteado por Burchard en la visualización del conocimiento y las investigaciones en el campo. 
  2. Diseñar los elementos del marco general de visualización que se utilizaran para la transferencia de conocimiento. 
  3. Implementar el modelo como guía para el uso adecuado de la tecnología y tecnologías digitales en la transferencia de conocimiento. 
  4. Validar el modelo en distintos contextos donde se utilice la tecnología y tecnologías digitales para la transferencia de conocimiento. 
Imagen con fines ilustrativos
Jun 2014
Unidad Coordinadora

Sistema automático de clasificación de abejas sin aguijón (Apidae: Meliponini) basado en el contorno y venación de sus alas

Equipo de Trabajo

Nombre completo
Rol
Escuela
Geovanni Figueroa Mata
Coordinador
Matemática
Juan Pablo Prendas Rojas
Investigador
Matemática

La estrategia para la obtención y análisis de resultados fue trabajar con una muestra pequeña de imágenes en las que se calibraron los procesos de eliminación de fondo, parametrización SIFT y determinación de correspondencias; luego se entrenó el algoritmo con una muestra más grande y finalmente se validaron los cálculos en otra muestra de imágenes totalmente independiente a las utilizadas en las etapas anteriores. 

Se construyeron tres colecciones: una de especímenes de abejas montada en alfileres entomológicos, otra de a las derechas anterior y posterior montadas en un portaobjetos con un bálsamo de Canadá como medio de preservación inerte y una tercera colección de fotografías de estas placas. Se desarrolló un sistema de discriminación de especies de abejas sin aguijón costarricenses basado en la parametrización SIFT aplicada a fotografías de sus alas. Según la literatura sistemas de discriminación con alguna similitud al desarrollado, han alcanzado tasas de eficiencia por encima de 90%, pero han trabajado a nivel de género únicamente o bien con pocas especies. El sistema que se desarrolló tiene un porcentaje de éxito en la discriminación de especie de 86,5 mientras que la discriminación por género llegó al 97,52%, trabajando con 18 especies y 10 géneros. 

La investigación realizada nos permitió concluir que la información de las alas de las abejas es un buen discriminador en la identificación de la especie a la que pertenecen una abeja, sin embargo, un análisis detallado de las asignaciones de especies equivocadas nos permitió concluir que en algunas especies las alas son realmente muy parecidas, por lo cual, es necesario tomar en cuenta otros parámetros para su clasificación.

En un sistema de discrimación se espera que el porcentaje de éxito sea cercano a 100. Con la discriminación de abejas nativas sin aguijón a nivel de género se ha cumplido con esta expectativa, sin embargo, es necesario mejorar el porcentaje de identificación de especie. Con la idea de mejorar el porcentaje de éxito para la discriminación de especies se consultó con los biólogos del CINAT, expertos en estudios apícolas, y se decidido que es necesario incorporar algunos discriminadores de especies que no están en el ala, tales como colores de otras partes del cuerpo, vellosidad, tamaño de patas o antenas u otras. Al igual que en otras abejas sin aguijón, como Paratrigona Schwarz y Plebeia sp., especies del género Nogueirapis se reconocen principalmente por las diferencias en el patrón de color de las obreras. Tales diferencias de color son a menudo apoyados por otros rasgos morfológicos incluidos el tamaño del cuerpo, así como la forma y proporciones de las diferentes estructuras membranosas. 

La propuesta es hacer que el sistema cuando tenga ‘duda’ sobre la especie, ya sea por la existencia de valores muy cercanos al máximo de coincidencias o por coincidencias múltiples, se torne en un sistema semi asistido. Por ejemplo, se ha determinado que las especies Trigona silvestriana y Trigona fulviventris tienen alas muy similares que podrían confundir al sistema, sin embargo estas especies se diferencian en la coloración del abdomen. Con algunas preguntas sencillas al usuario, sin necesidad de entrenamiento ni gasto excesivo en laboratorios, el sistema mejoraría sin duda el porcentaje de detección por especie. Otra posibilidad interesante es considerar la georreferencia de la imagen y que esta ingrese al sistema como un nuevo parámetro discriminador. 

Además, se ha pensado que a futuros el sistema podría ser llevado a ambientes menos controlados y ponerlo a disposición de los meliponicultores. Sería un gran avance la implementación del sistema en algún dispositivo móvil y que el preprocesado identifique el ala de la abeja incluso con la presencia del resto del cuerpo. Además, con el diseño de una interfaz para el usuario y el mantenimiento en un servidor los meliponicultores e investigadores apícolas tendrían una herramienta muy valiosa que podría ser usada incluso vía web. 


Desarrollar un sistema automático de clasificación taxonómica de abejas sin aguijón nativas de Costa Rica, a partir del procesado digital de imágenes de sus alas.

Imagen con fines ilustrativos
Dic 2014
Unidad Coordinadora

iReal 2.0: Interfaces en ambientes de realidad virtual (2013-2014)

Equipo de Trabajo

Nombre completo
Rol
Escuela
Jorge Mauricio Monge Fallas
Coordinador
Matemática
Franklin Hernández Castro
Investigador
Diseño Industrial
David Segura Solís
Investigador
Diseño Industrial

Para el proyecto se tenía que definir una estrategia sobre el uso y el desarrollo de los elementos de la interface, así como el software y hardware necesarios para proyectar, en tiempo real, ambientes tridimensionales en los que se pueda experimentar fenómenos espaciales de forma que el usuario esté inmerso en el ambiente, ya sea física o virtualmente. 

Estas interfaces tridimensionales ya fueron exploradas inicialmente por varios integrantes del grupo eScience (incluyendo a los investigadores Franklin Hernández y José Castro), quienes visitaron en marzo del 2010 el encuentro PRAGMA 18 en San Diego California. En esta visita se pudo observar el estado del arte en varios países de los más avanzados en esta área, entre ellos Estados Unidos, Canadá, Japón, India y Corea.

Estas interfaces fueron investigadas y se desarrollaron varias iniciativas en el proyecto iReal 1.0., lo que claramente fue la base para el desarrollo de iReal 2.0. El proyecto iReal ha ido consolidando el laboratorio de visualización que se había planteado años atrás. El desafío consistía en la visualización de información (en alta resolución) en forma de ambientes tridimensionales virtuales y aun más retador: la manipulación de esos sistemas. Este último es el objetivo fundamental alanzado en iReal 2.0.

Uno de los aspectos importantes en este proyecto era contar con una configuración adecuada del sistema de visualización inmersiva “cave”. Esta configuración adecuada a la tecnología elegida en su momento (Alioscopy), nos permitió tener un sistema más robusto y estable, de tal forma que centramos nuestros esfuerzos en dos líneas: desarrollo de contenido 3D Aliocopy (autoestereoscopico lenticular) y el desarrollo de la interface.

En cuanto al contenido para visualizar en el “cave”, primero se hizo la configuración del cluster,
poniéndose a funcionar el sistema completo, para posteriormente iniciar pruebas en el desarrollo de contenido 3D de Alioscopy. En este caso, este fue el mayor desafío y el principal aporte de este proyecto.

La configuración final para controlar, vía software el clúster del “cave”, se realizó a través de la
implementación del framework de Realidad Virtual “CalVR”, un sistema desarrollado por la Universidad de California, San Diego. Proyecto que inicio en el año 2010 y el cual ha sido pionero en el campo de la investigación visual (http://ivl.calit2.net/wiki/index.php/CalVR).

Para la etapa relacionada con la interface, se utilizaron las herramientas de desarrollo que utilizan las aplicaciones para OS X sistema operativo de Apple y el iOS 7 sistema operativo de las iPads, iPods y iPhone. Esta decisión se basó principalmente en el hecho de que este sistema es el más maduro del mercado en el uso de gestos y por tanto la parte de la investigación que se desarrolló sobre estos sistemas touchscreens se vio beneficiada por esta condición. El grupo de datos base para el desarrollo de la interface fue el proyecto de eBridge.

A nivel de hardware, se logró una configuración estable del laboratorio de visualización científica ”cave”, con 6 nodos que cuentan con GPUs de alto desempeño, con comunicación de red basada en fibra óptica. Por el lado del software se logró implementar el framework de visualización inmersiva CalVR, el cual nos permite por medio de algunos parámetros, definir las configuraciones para la autoestereoscopia que requiere los monitores Alioscopy.

A nivel de interface, se logró desarrollar una aplicación para iPhone y iPad para controlar el “cave” (disponible en App Store de Apple llamada iReal), basada en los requerimientos de visualización del proyecto eBridge. Además la aplicación incorpora la funcionalidad de comunicarse con el “cave” a través de un socket de forma inalámbrica.

A nivel del clúster y el desarrollo de contenido 3D, se logró sistematizar el desarrollo y despliegue de contenido Alioscopy en el “cave” que nos permitirá diversificar las aplicaciones de este sistema de visualización. Además, paralelamente se a instalado una nueva configuración para el control del TDW (sistema normal de visualización) a través de SAGE (“Scalable Adaptive Graphics Environment”) y OmegaLib. La idea de este trabajo en paralelo es contar con un sistema de visualización más robusto y complementario.

El SAGE es una arquitectura de transmisión de gráficos que habilita un acceso interactivo, una
visualización y la capacidad de compartir gran cantidad de datos, en una variedad amplia de
resoluciones, formatos, fuentes, con mucha facilidad de uso, permitiendo hacer pruebas de concepto con el objetivo de llevar todo el sistema a una nueva configuración del “cave”.

OmegaLib es un Framework de aplicaciones de multivista para ambientes de realidad híbrida (HREs), que consiste en una combinación de ambientes immersivos, con mosaicos de monitores de alta resolución. Un HREs logra crear un ambiente 2D/3D transparente que soporta un análisis rico en información, como también una simulación en realidad virtual.

Desarrollar una herramienta que permitiera visualizar y analizar los datos
generados por los sensores del proyecto eBridge en el laboratorio de visualización inmersiva del
programa de eScience.

  1. Diseñar la estrategia de visualización y control de los datos.
  2. Desarrollar las sub-rutinas necesarias para poner en práctica las estrategias diseñadas en el objetivo anterior.
  3. Implementar las sub-rutinas en una aplicación funcional que se pueda correr en forma autónoma.
  4. Validar con un focus group¿ la versión alfa de la herramienta.
Imagen con fines ilustrativos
Jun 2014
Unidad Coordinadora

SIPEG (Simulaciones para la enseñanza de la geometría)

Equipo de Trabajo

Nombre completo
Rol 
Escuela
Alexánder Borbón Alpízar
Coordinador
Matemática
Marco Vinicio Gómez Gutierrez
Investigador
Matemática

En este documento se describen los fundamentos y resultados obtenidos después del trabajo realizado en el proyecto que se denominó SIPEG (Simulaciones para la enseñanza de la geometría). Entre los objetivos que se plantearon en este proyecto estuvo el diseño, validación e implementación de simulaciones y guías de trabajo con problemas matemáticos para cada uno de los objetivos del área de geometría que fueron identificados en el nuevo programa de estudio del Ministerio de Educación Pública, para el nivel de sétimo año. Además, se realizó una investigación cuantitativa sobre el impacto en el aprendizaje de los estudiantes participantes después del uso de estas unidades didácticas, todas ellas con la validación por parte de jueces expertos. 

Para la recolección de la información se llevó a cabo una intervención pedagógica en el aula con estudiantes de octavo nivel, con la aplicación de las simulaciones creadas con el uso del programa gratuito GeoGebra, esto para realizar una comparación estadística sobre conocimientos adquiridos en geometría. En un segundo momento se realizó la intervención en el aula con estudiantes de sétimo año, donde fueron aplicados los diferentes problemas que se plantearon en cada una de las guías. Para la medición cuantitativa se aplicaron dos pruebas (pre-test y postest) de conocimiento sobre resolución de problemas en el área de geometría, esto para establecer el alcance de las habilidades en el conocimiento matemático. Para la valoración de la actitud de los estudiantes ante la resolución de problemas se aplicaron dos diferenciales semánticos. 

Entre los principales resultados de la investigación se tiene que no se encontraron diferencias significativas en el sentir de los estudiantes al enfrentarse a los problemas matemáticos cuando se utiliza la metodología tradicional contra la metodología de resolución de problemas, sin embargo, sí se encontraron diferencias significativas en la percepción hacia los problemas a favor de los estudiantes que utilizaron la metodología de resolución de problemas, por último, se determinó que la metodología tradicional obtiene mejores resultados que la metodología de resolución de problemas al enfrentarse a un test de conocimientos matemáticos.

Diseñar, implementar y validar un conjunto de simulaciones con el programa GeoGebra para apoyar el desarrollo de algunos objetivos propuestos en el programa de la educación secundaria en el área de la geometría para el nivel de sétimo año, la población a la que va dirigido el producto final es justamente la de sétimo nivel de secundaria de nuestro país

Imagen con fines ilustrativos
Dic 2015
Unidad Coordinadora

Programa para fortalecer la apropiación social de la matemática y el aprendizaje continuo

Equipo de Trabajo

Nombre completo
Rol
Escuela
Manuel Murillo Tsijli
Coordinador
Matemática
Alberto Soto Aguilar
Investigador
UNED
Anabelle Castro Castro
Investigadora
Matemática
José Pablo Jimenez Madrigal
Investigador
Ciencias Naturales y Exactas
Margot Martínez Rodríguez Fulbright
Investigadora
UCR
Alejandra León Castellá
Investigadora
Jubilada TEC

El proyecto se asume como parte de una trayectoria de trabajo interinstitucional, para  mejorar la educación y apoyar la divulgación de la matemática. La meta es generar una apropiación social de la matemática en la población; mediante productos y eventos para diferentes públicos que fomente el aprendizaje formal e informal de la matemática.

Los componentes principales son:

  1. El Festival Internacional de Matemática  (para educadores) que se realiza cada  dos años y que  se quiere abrir a un público más amplio. 

  2. Programas radiales y podcasts de Matex1minuto.

  3. Un Museo Viajante de Ciencias y Matemática.

Generar una apropiación social de la matemática en la población; mediante productos y eventos para diferentes públicos que fomente el aprendizaje formal e informal de la matemática.

Imagen con fines ilustrativos
Dic 2016
Unidad Coordinadora

Bio-DENA: detección de esporas de Nosema en abejas Africanizadas mediante análisis automático de imágenes

Equipo de Trabajo

Nombre completo
Rol
Escuela
Juan Pablo Prendas Rojas
Coordinador
Matemática
Melvin Ramírez Bogantes
Investigador
Matemática
Geovanni Figueroa Mata
Investigador
Matemática
Marianyela Ramírez-Montero
Investigadora
 
Rafael Ángel Calderón-Fallas
Investigador
 
Carlos Manuel Travieso-González
Investigador
 

Las abejas polinizan una gran variedad de especies de plantas, incluyendo los cultivos agrícolas. Se estima que cerca del 30% del alimento consumido por la población mundial es derivado de cultivos polinizados por abejas. La infección por Nosemiasis es una de las principales causas de la pérdida de colmenas a nivel mundial. Los métodos de laboratorio para el diagnóstico del nivel de infección por este microsporidio son lentos, caros y demandan la presencia de un experto. Se propone un sistema automático, confiable y económico de cuantificación de infección por Nosema, a partir del procesamiento digital de imágenes. Con el uso de técnicas de segmentación de imágenes, caracterización de objetos y conteo de formas se han reproducido las técnicas de Cantwell y Hemocitómetro de manera automática. Para el conteo de esporas se implementaron tres descriptores el tamaño, la excentricidad y la circularidad, de manera tal que son invariantes a la escala y rotación de las imágenes. Se trabajó con un total de 375 fotografías agrupadas en carpetas de 5, las cuales fueron previamente etiquetadas por un experto según el nivel de infección (muy leve, leve, moderado, semifuerte y fuerte). Con ello se alcanzó un porcentaje de diagnóstico correcto de infección del 84%.

La Nosemiasis es una enfermedad causada por el microsporidio Nosema sp.  (Microspora, Nosematidae), el cual afecta el tracto digestivo de las abejas adultas (Bailey y Ball, 1991). Anteriormente, se consideraba que la Nosemiasis en abejas melíferas, Apis mellifera, era causada por Nosema apis; mientras que la abeja asiática, Apis cerana, era infectada por Nosema ceranae (Higes et al., 2006).

Actualmente se ha determinado la presencia de N. ceranae en abejas melíferas en diferentes países europeos (causando serios problemas), relacionándola como una de las principales causas del Sindrome de Despoblamiento de la colmena (SDC) (Higes et al., 2005).  Recientemente, determinamos la presencia de N. ceranae en Costa Rica, afectando diferentes zonas apicolas.  Reportes sobre la presencia de Nosema en abejas meliferas en Costa Rica, son aislados (Calderón et al., 2008).  El Laboratorio de Patologia Apicola del Centro de Investigaciones Apicolas Tropicales (CINAT), ha venido analizando la incidencia de enfermedades, especificamente de Nosema, en abejas adultas.  Actualmente la identificación y el contenido se realizan observando las esporas de Nosema al microscopio.  Este procedimiento es laborioso, y además es importante la experiencia de la persona que observa la muestra (Calderón y Ramirez, 2010).

La detección de esporas de Nosema mediante análisis automático de imágenes será una herramienta de análisis que facilitará el estudio del microsporidio Nosema spp.  El principal objetivo será desarrollar un sistema inteligente que permita la detección y el conteo de esporas de Nosema en muestras procesadas de abejas africanizadas. Lo anterior permita conocer de manera más amplia la relación hospedero-parásito entre Nosema y abejas africanizadas a partir del procesado de videos digitales.

Diagnosticar de manera confiable y eficiente, el nivel de infección por
Nosemiasis en una colmena a partir de fotografías

Imagen por omisión
Dic 2016
Unidad Coordinadora
Unidad participante

Visualización de placas tectónicas: iReal 3.0

Equipo de Trabajo

Nombre completo
Participación
Escuela
Jorge Mauricio Monge-Fallas
Coordinador
Matemática
Franklin Hernández-Castro
Investigador
Diseño Industrial
David Segura-Solís
Investigador
Diseño Industrial

El Observatorio Vulcanológico y Sismológico de Costa Rica (OVISCORI) cuenta con datos de la actividad sísmica en nuestro país desde 1984, con los años, el observatorio se ha ido actualizando y mejorando tanto en la recolección de los datos como la precisión de los mismo. Para el día de hoy se cuenta con 32 años de recolección de datos, la mayoría de los cuales son accesibles en forma digital. Muchos de estos datos históricos, almacenados en forma de hipocentros (latitud, longitud y profundidad) son generados por el roce o deslizamiento de puntos de acumulación de energía entre las placas tectónicas. 

Es posible filtrar los datos en función de su profundidad, de este modo, hipocentros de menos de 40 km se pueden considerar causados por fallas locales y en general hipocentros de entre 40 km y 200 km de profundidad, se consideran en su mayoría causados por deslizamientos entre placas tectónicas. La idea general del proyecto consistió en tomar los datos almacenados en estos 32 años y visualizar los sismos bajo la superficie del país además poder inferir la geometría de las placas tectónicas que convergen en nuestro país.Además con la posibilidad de usar tanto el “cave” como el TDW de iReal para generar una visualización inmersiva y tridimensional de las placas tectónicas en nuestro país y con ella los sismólogos puedan hacer análisis detallados de la geometría de las mismas y cómo esta influye en el comportamiento sísmico en algunas zonas del país

Hacer un análisis de las placas tectónicas de Costa Rica a través de la visualización inmersiva y tridimensional de las mismas.

Contactos

Coordinador

Teléfono: 
Correo: 
Imagen por omisión
Dic 2016
Unidad Coordinadora
Unidad participante

Visualización de placas tectónicas: iReal 3.0

Equipo de Trabajo

Nombre completo
Participación
Escuela
Jorge Mauricio Monge-Fallas
Coordinador
Matemática
Franklin Hernández-Castro
Investigador
Diseño Industrial
David Segura-Solís
Investigador
Diseño Industrial

El Observatorio Vulcanológico y Sismológico de Costa Rica (OVISCORI) cuenta con datos de la actividad sísmica en nuestro país desde 1984, con los años, el observatorio se ha ido actualizando y mejorando tanto en la recolección de los datos como la precisión de los mismo. Para el día de hoy se cuenta con 32 años de recolección de datos, la mayoría de los cuales son accesibles en forma digital. Muchos de estos datos históricos, almacenados en forma de hipocentros (latitud, longitud y profundidad) son generados por el roce o deslizamiento de puntos de acumulación de energía entre las placas tectónicas. 

Es posible filtrar los datos en función de su profundidad, de este modo, hipocentros de menos de 40 km se pueden considerar causados por fallas locales y en general hipocentros de entre 40 km y 200 km de profundidad, se consideran en su mayoría causados por deslizamientos entre placas tectónicas. La idea general del proyecto consistió en tomar los datos almacenados en estos 32 años y visualizar los sismos bajo la superficie del país además poder inferir la geometría de las placas tectónicas que convergen en nuestro país.Además con la posibilidad de usar tanto el “cave” como el TDW de iReal para generar una visualización inmersiva y tridimensional de las placas tectónicas en nuestro país y con ella los sismólogos puedan hacer análisis detallados de la geometría de las mismas y cómo esta influye en el comportamiento sísmico en algunas zonas del país

Hacer un análisis de las placas tectónicas de Costa Rica a través de la visualización inmersiva y tridimensional de las mismas.

Contactos

Coordinador

Teléfono: 
Correo: