Geotráfico: visualización de las cizallas en Costa Rica (iReal 4.0)

Investigadores

Nombre completoParticipación
Jorge Mauricio Monge-FallasCoordinador
Franklin Hernández-CastroInvestigador
David Segura-SolísInvestigador

La situación sismológica de Costa Rica es muy especial, en el mundo hay más de 50.000 kilómetros de zonas de subducción y solo el 2% tiene la particularidad de no ser submarinas. Costa Rica cuenta con dos penínsulas que se asientan en zonas con esas características.

Por esta razón el territorio nacional está en continuo movimiento de forma heterogénea con varias áreas de movimiento con dinámicas muy distintas. Las zonas límite entre estas áreas son las zonas de cizalla, y dan origen a gran cantidad de terremotos de origen local. La cizalla es el efecto de corte que hace que las dos partes separadas por el esfuerzo se deslicen una respecto a la otra. Su efecto es la generación de fallas.

El Ovsicori (Observatorio Vulcanológico y Sismológico de Costa Rica) cuenta actualmente con 85 estaciones de monitoreo, ubicadas a lo largo de todo el territorio nacional que permiten tener un monitoreo constante del movimiento del territorio.

Este proyecto pretende, visualizar por primera vez, un año de movimientos de la superficie del país, mostrando de forma de animación cuáles áreas están en contacto con cuáles otras y qué potencial de peligro puede desarrollarse. Este tipo de visualización con animación en el tiempo no existe en el país y ayudará a la comprensión de la compleja mecánica sísmica.

Contacto

Imagen con fines ilustrativos
Dic 2011
Unidad Coordinadora

Personas investigadoras

Nombre completoRol
Geovanni Figueroa MataCoordinador
Luis Ernesto Carrera RetanaInvestigador

El poder de cálculo incorporado en las unidades de procesamiento gráfico (GPU's) de las nuevas tarjetas de video Nvidia ha permitido aplicar el procesamiento en paralelo a la solución de problemas que requieren de una gran cantidad de cálculoS y que no están ligados al ambiente gráfico,  para el cual fueron originalmente creadas.  En este proyecto se pretende aplicar esta tecnología a la solución de sistemas lineales mediante métodos interativos.

Diseñar e implementar un método en paralelo para la solución de sistemas de ecuaciones lineales.  

a) Investigar sobre la existencias de métodos iterativos para la solución de sistemas lineales.  

b) Analizar cuál de los métodos iterativos analizados es susceptible de ser paralelizado. 

c) Diseñar un algoritmo paralelo para dicho método iterativo.  

d) Implementar usando programación paralela dicho algoritmo.  

e) Probar y depurar el algoritmo desarrollado sobre algunos sistemas lineales. 

Las principales conclusiones a las que hemos llegado después de realizar esta investigación son:  

El paradigma de programación CUDA es una tecnología que resulta muy eficiente al resolver problemas en los cuales se requieren realizar muchas tareas independientes sobre una gran cantidad de datos. En general los métodos iterativos son eficientes para resolver sistemas de ecuaciones lineales de gran tamaño. Para los métodos estudiados se diseñaron e implementaron versiones en paralelo usando los paradigmas CUDA y OpenMP con éxito. Aunque CUDA es una herramienta muy poderosa no es aplicable de forma eficiente a cualquier tipo de problema, esta especialmente diseñada para ejecutar muchas tareas independientes sobre grandes cantidades de datos. 

En los casos en que el método de Gauss-Seidel convergía más rápido que el método del gradiente conjugado, el método del gradiente conjugado convergía aun así con bastante rapidez. La eficiencia de CUDA se ve mermada cuando se hacen accesos a la memoria global, pareciera que esto se presenta sobre todo cuando se realiza una operación de escritura. Esto es un punto muy importante al diseñar algoritmos para esta arquitectura. De las pruebas realizadas con OpenMP (cuadro 4.3) el tiempo de ejecución no mejora significativamente después de que se utilizan más de 5 procesadores. El desempeño de OpenMP mejora significativamente conforme el tamaño de la matriz aumenta (cuadro 4.4). Esto se debe a que el tiempo que se pierde en el proceso de dividir el trabajo se recupera por la mayor cantidad del mismo. De las pruebas realizadas pareciera que OpenMP es más eficiente que CUDA en matrices “grandes”, creemos que la razón de esto es una combinación de lo que se acotaba en el ítem anterior y de que muchos accesos (escritura) a memoria global reducen el desempeño de CUDA. En algunos casos sobre todo para matrices muy grandes por encima de los sesenta millones de entradas creemos que se puede mejorar la convergencia aplicando alguna técnica de precondicionamiento, incluso en aquellos casos en los que no se logro la convergencia, por ejemplo con el método de GaussSeidel (cuadro 4.4 y 4.5), una técnica de estas podría ayudar. 

Imagen con fines ilustrativos
Dic 2011
Unidad Coordinadora

Personas investigadoras

Nombre completo

Participación

Escuela

Luis Gerardo Meza CascanteCoordinadorMatemática
Evelyn Agüero CalvoInvestigadoraMatemática

Evaluación de los aprendizajes en matemática en la educación media

El proyecto de investigación que se formula en este documento, pretende generar conocimiento sobre las características técnicas de las pruebas escritas que utilizan los profesores de matemática de la educación media, en el Cantón Central de Cartago.  

El proyecto pretende establecer niveles de concordancia, medidos porcentualmente, de cumplimiento de las normas establecidas por el MEP para el diseño de pruebas escritas y de Items, asf como el apego a las directrices teóricas en la formulación de pruebas escritas y de elaboración de Items. Nos inspira la convicción de que la calidad técnica de las pruebas resulta factor crítico en la evaluación de los aprendizajes.  

Este conocimiento resultante de alta relevancia para vincular la docencia universitaria, en la formación de profesores de matemática, con la investigación educativa, y para propiciar actividades de extensión y de acción social que permiten la formulación de programas de capacitación de los profesores de matemática en servicio.

a.)Hay un alto porcentaje de cumplimiento de las directrices emitidas por el MEP para la elaboración de las pruebas escritas, tanto en los aspectos formales como en la construcción de los ítems. 

b.)Los ítems de "Selección única "y los de "Respuesta corta "son los más utilizados en la modalidad de ítemes objetivos. Los otros tipos de ítems permitidos por los lineamientos del MEP, muestran una presencia muy poco significativa en comparación con estas dos opciones. 

c.)La "Resolución de ejercicios "y la "Resolución de problemas "son los ítemes de desarrollo más utilizados, aunque la segunda opción en menor cantidad que la primera. 

d.)Los ítemes de "Selección única "cumplen satisfactoriamente todos los criterios, salvo el referente a la homogeneidad de las opciones. No obstante, se encontraron ítems de esta modalidad con errores de contenido matemático. 

e.)Las pruebas incluyen ítems de "Selección única "o de "Respuesta corta", que deben tener una asignación de un punto, por así disponerlo las directrices del MEP, con similar dificultad que ítems de desarrollo con puntajes superiores. Este hallazgo revela una seria deficiencia en el diseño de las pruebas. 

f.)Existe un uso camuflado de ítems de "Falso o Verdadero ", los que no están autorizados por las directrices del MEP. 

g.)Algunas pruebas evalúan reiteradamente el mismo conocimiento, lo que atenta contra la validez y la confiabilidad de los exámenes como instrumentos de medida. 

Imagen con fines ilustrativos
Dic 2011
Unidad Coordinadora

Persona investigadora

Nombre completoRol
Luis Ernesto Carrera RetanaCoordinador

El Análisis de Componentes Principales (ACP) es una técnica multivariada que analiza una tabla de datos en el cual las observaciones están descritas mediante muchas variables cuantitativas, dependientes e intercorrelacionadas.  Su fin es extraer información importante de la tabla para representarla como un conjunto de nuevas variables ortogonales llamadas componentes principales, y mostrar los patrones de similitud de las observaciones y de las variables como puntos en mapas.  Lo que se busca en el presente proyecto es implementar la técnica de ACP en computadoras de alto rendimiento que programación en paralelo tanto en CPU's (unidades de procesamiento central) como de GPGPU's (unidades de procesamiento gráfico de proposito general), que ofrecen la solución de  problemas con una gran cantidad de datos, cuyo análisis fuera prohibitivo en computadoras de rendimiento normal.

Imagen con fines ilustrativos
Dic 2011
Unidad Coordinadora

Personas investigadoras

Nombre completoRol
José Bernardino Rosales OrtegaCoordinador

En este apartado desarrollaremos algunos de los conceptos básicos que serán usados en la parte principal del proyecto. La mayoría de resultados, sobre acciones de tipo tame, se pueden encontrar en el muy interesante libro [3]. Los resultados básicos que se necesitan tienen que ver con acciones de grupos sobre variedades. De hecho toda mi labor en los últimos años ha girado en torno a las acciones de grupos sobre variedades pseudo-Riemannianas. En este estudio nos hemos visto en la necesidad de amalgamar una gran cantidad de teorías matemáticas las cuales por sí mismas son importantes, y algunas de ellas algo complicadas. En este sentido nuestro proyecto integra áreas como el análisis, el ´algebra y la geometría, para citar los más relevantes. Nos interesa, del análisis, que nuestras medidas sean ergódicas, y es por eso que la primera sección se basa en generalidades sobre acciones ergódicas y acciones de tipo tame. Este ´ultimo tipo de acción ha sido popularizada por Zimmer. Otro tipo de acciones que usaremos son las llamadas acciones algebraicas. Este tipo de acciones pertenecen al área de la geometría algebraica. Por eso en la segunda sección damos los elementos básicos sobre conjuntos algebraicos y la llamada topología Zariski. En las dos secciones anteriores todo lo expuesto es conocido, es decir aparece en algún libro o en algún artículo. Sin embargo, en la sección tercera hablamos del famoso teorema de Densidad de Borel, y por primera vez enunciamos y probamos un nuevo teorema. Este nuevo teorema viene siendo la versión semisimple del teorema de Densidad de Borel. Al mismo tiempo usamos esta nueva versión para calcular la envoltura algebraica, un concepto el cual fue inventado por Zimmer, y calculamos tal envoltura algebraica en un caso muy particular y del cual haremos uso posteriormente. En la última sección, antes de probar el resultado principal del proyecto, enunciamos, sin prueba, el teorema del centralizador de Gromov. Se hace la advertencia que tal teorema implica varios puntos pero que sólo hemos puesto el que nos interesa para nuestra labor. 

El objetivo en este trabajo es considerar técnicas provenientes de diversas aéreas de la matemática, tales como el análisis, el algebra y la geometría, para dar una prueba de una versión semisimple de la llamada representación integral de Gromov. La llamada representación de Gromov prueba la existencia de una representación del grupo fundamental de una variedad M en un grupo de matrices. Lo grandioso de tal representación es que la clausura de Zariski de la imagen de tal representación es localmente isomorfa al grupo original. 

El proyecto en cuestión sirvió de plataforma para lograr una aplicación inmediata del celebrado teorema del centralizador de Gromov. Cabe señalar que se logró poner tal resultado en un contexto más general que lo encontrado en la literatura, a saber el contexto de grupos de Lie semisimples y acciones algebraicas. Se cumplieron los objetivos, tanto generales como específicos que se apuntaron en el inicio del proyecto. Dos aspectos importantes a señalar en esta parte tienen que ver con la bibliografía y el tiempo en ejecutar el proyecto. En primer lugar, quiero defender la compra de libros y artículos en el ´área de matemáticas y física teórica, ya que no tenemos en nuestra biblioteca del ITCR los libros para iniciarse en los orfrm[o]–genes de casi cualquier área de la matemática, y mucho menos revistas. Tampoco contamos con grupos amplios o al menos reducidos de investigadores con los cuales interactuar.

Imagen con fines ilustrativos
Dic 2012
Unidad Coordinadora
Unidad participante

Personas investigadoras

Nombre completoRol
Jorge Mauricio Monge FallasCoordinador
Franklin Hernández CastroInvestigador
José Castro MoraInvestigador
Milton Enrique Villegas LemusInvestigador
Luis Alexander Calvo ValverdeInvestigador

El objetivo de iReal era desarrollar la tecnología para dotar al TEC de una instalación de realidad virtual. Para el proyecto se tenía que definir una estrategia sobre el uso y el desarrollo de los elementos de la interface, del software y hardware necesarios para proyectar en tiempo real ambientes tridimensionales en los que se pueda experimentar fenómenos espaciales de forma que el usuario esté inmerso en el ambiente ya sea física o virtualmente. Estas interfaces tridimensionales están muy poco desarrollado en el mundo. Al inicio del proyecto varios integrantes del grupo eScience (incluyendo a los investigadores Franklin Hernández y José Castro ) visitaron en marzo del 2010 el encuentro PRAGMA1 18 en San Diego California. En esta visita se pudo observar el estado del arte en varios países de los más avanzados en esta área, entre ellos Estados Unidos, Canadá, Japón, India y Corea entre otros. La parte de hardware del área está muy adelantada, sin embargo, el problema que persiste radica en la visualización de información (en alta resolución) en forma de ambientes tridimensionales virtuales y aun más crítico: la manipulación de esos sistemas. Los métodos: uno de los aspectos importantes en este proyecto era la definición de la tecnología. Se decidió por un sistema Tiled Display Wall (TDW) para la visualización de datos científicos en forma de “cave” (cueva) y los display tipo Alioscopy tecnología autoestereóscopica (3D sin lentes). El otro aspecto importante era el desarrollo de la interface. Para ello utilizamos las herramientas de desarrollo que utilizan las aplicaciones para OS X sistema operativo de Apple y el iOs5 sistema operativo de las iPads y iPhone. Esta decisión se basó principalmente en el hecho de que este sistema es el más maduro del mercado en el uso extensivo de gestos y por tanto la parte de la investigación que se desarrolló sobre estos sistemas touchscreens se vió beneficiada por esta condición. Además el elemento base para el desarrollo de la interface fue el proyecto de eBridge. Por último tenemos el apartado que tiene que ver con el “cave” , configuración del cluster y el desarrollo de contenido 3D de Alioscopy. En este caso, la configuración !nal se realizó a través de Rocks 5.4 (una versión de linux) y se utilizó Chromium (una versión del sistema optiPortal) para desplegar los sistemas de visualizaciones complejas escritas en OpenGL para la presentación de la ilusión de tridimensionalidad en el “cave”. 

El objetivo de tener un laboratorio de visualización científica con el potencial de generar un ambiente inmersivo se logró. El desafío siguiente parece claro, desarrollar aplicaciones para la visualización de información en este ambiente, proveniente de resultados de otros proyectos. 

Imagen con fines ilustrativos
Dic 2013
Unidad Coordinadora

Personas investigadoras

Nombre completoParticipaciónEscuela
Paulo García DelgadoInvestigadorMatemática
Randall Blanco BenamburgInvestigadorMatemática

Creencias de los docentes de Matemática, a nivel de secundaria, sobre la Evaluación en Matemática

 

El presente estudio se desarrolló con el objetivo de explorar las creencias que tienen los docentes de matemática de la provincia de Cartago acerca de la evaluación de los aprendizajes, con una muestra de 107 docentes que laboran en centros educativos de secundaria de esa provincia durante el curso lectivo 2013. Para el estudio se diseñó un cuestionario en el cual se solicitó información general del docente y algunos datos sobre su formación académica, además de escalas tipo Likert para medir sus creencias en cuanto a los instrumentos de evaluación, características y usos de la evaluación. Los datos obtenidos se analizaron utilizando la prueba de esfericidad de Bartlett y se determinó el coeficiente KMO para luego realizar un análisis de conglomerados K-medias. A partir de los datos obtenidos se lograron clasificar los docentes en cuatro grupos según las creencias manifestadas en el instrumento: los conformes con la práctica tradicional, los que más valoran la prueba escrita pero no los análisis de confiabilidad y validez, los más conformes con el sistema y más disconformes con el sistema

1. Diseñar y validar un instrumento que permita identificar las creencias de los docentes de matemáticaa nivel de secundaria sobre la evaluación en Matemática. 2. Categorizar las respuestas emitidas por los docentes sobre las creencias en evaluación. 3. Contrastar las respuestas de los docentes de matemática sobre sus creencias en evaluación conlos referentes teóricos de evaluación.

A pesar de que la investigación en el campo del pensamiento del profesor ha ido en crecimiento anivel internacional, contar con un instrumento que permita medir las creencias de los docentes enaspectos relacionados con la evaluación de los aprendizajes no es una tarea sencilla ni acabada.La presente investigación ha permitido obtener un cuestionario validado por expertos con elcual se obtuvo información confiable y podrá ser adaptado y mejorado para utilizarse en futurasinvestigaciones similares. 

Existe una diversidad de pensamiento en cuanto a evaluación de los aprendizajes en secundaria.Solo un grupo pequeño de los docentes que participaron en el estudio (19%) manifiestan discon-formidad con la manera tradicional de concebir la evaluación. 

No existe uniformidad entre las creencias acerca de las características de la evaluación, ni sobreel uso que se le debe dar a la información que provean las diferentes pruebas que se aplican a losestudiantes para medir conocimientos.•Las concepciones que muestran los docentes sobre las pruebas escritas y su relación con el apren-dizaje difieren de las indicadas por autores como Stufflebeam (1987), Conbrach (1963) e Imbernón(2000) citados por Giné y Parcerisa (2007)[6] quienes plantean una concepción de la evaluaciónmás integral y de ayuda en la toma de decisiones. 

La formación brindada por las universidades a los docentes encargados de enseñar Matemáticaen la educación secundaria podría no estar respondiendo a las necesidades reales que tienen estosprofesionales en su práctica, dado que un 59% de los participantes en el estudio manifiestan noestar conformes con su formación en esta área.

Imagen con fines ilustrativos
Dic 2013
Unidad Coordinadora

Personas investigadoras

Nombre completoRol
Juan José Fallas MongeCoordinador
Jeffrey Chavarría MolinaInvestigador

En el presente proyecto de investigación se realizó la implementación de las heurísticas de algoritmo gen ético, enjambre de partículas (EP) y búsqueda tabú (BT) para el estudio del problema de clasificación por particiones con datos cuantitativos. En total se implementaron cuatro algoritmos, dado que en el caso de búsqueda tabú se diseñaron dos variantes. Una de ellas constituyó en la generación de vecindarios mediante transferencias de individuos de una clase a otra; mientras que la otra consistió en la construcción de los vecinos mediante el movimiento de los centros de gravedad de las clases (BTCG). Los algoritmos fueron aplicados a veinte tablas de datos tomadas de la literatura. Además, se diseñaron ocho tablas adicionales de mayor tamaño y complejidad, para verificar el rendimiento de los algoritmos. Se realizó, además, un análisis de la variabilidad de los resultados, en función de los parámetros de las diferentes heurísticas. Esto permitió determinar, para cada una de ellas, la combinación de parámetros que generó el mejor rendimiento posible en cada heurística. Además, se realizó una comparación de la eficiencia de las heurísticas implementadas, lo cual permitió generar una jerarquización de ellas como función del rendimiento, siendo BTCG y EP las que mostraron mejores resultados. 

Implementar heurísticas de optimización combinatoria para estudiar el problema de la clasificación por particiones en presencia de datos cuantitativos y el diseño e implementación de una nueva heurística híbrida de optimización para el estudio de dicho problema.  

  1. Implementar las siguientes tres heurísticas para abordar el problema de clasificación por particiones en presencia de datos cuantitativos: algoritmo genético, enjambres de partículas y búsqueda tabú.  
  2. Explorar la variabilidad de los resultados en cada una de las heurísticas implementadas en función de sus parámetros.  
  3. Comparar la eficiencia de las heurísticas implementadas.  
  4. Diseñar e implementar un algoritmo híbrido que permita mejorar las soluciones. 
  1. Se logró la implementación de tres heurísticas de optimización combinatoria para estudiar el problema de particionamiento de individuos en presencia de datos cuantitativos (algoritmo genético, enjambre de partículas y búsqueda tabú). Con la característica adicional que la heurística de búsqueda tabú fue implementada siguiendo dos estrategias diferentes para la generación de vecinos. Esto potenció el haber culminado con cuatro algoritmos heurísticos para el estudio del problema en cuestión (PRIMER OBJETIVO ESPEC´IFICO).  
  2. Del proceso de investigación se derivaron un conjunto de estrategias que potencializaron el rendimiento de las heurísticas. Como ejemplos particulares se pueden citar: la mejora de k−medias en todas las heurísticas, el método de paro en todas las heurísticas, la mejora de reinicio en las heurísticas de búsqueda tabú y la definición del operador de cruce y el operador de selección en el algoritmo genético. 
  3. Se realizó un análisis de los parámetros en cada uno de los algoritmos, del cual se desprendieron los valores que deben asignarse a los diferentes parámetros de las heurísticas para potenciar su rendimiento (SEGUNDO OBJETIVO ESPECÍFICO).  
  4. Se realizó una comparación del rendimiento, con respecto a los porcentajes de atracción y tiempos de ejecución, de las tres heurísticas implementadas en la investigación. Esto permitió jerarquizar a las heurísticas de búsqueda tabú mediante movimiento de centros gravedad (BT-CG) y enjambre de partículas en su versión EP-1, como las heurísticas de mejor rendimiento. Aportando evidencia que al aumentar significativamente la cantidad de individuos que conforman la tabla de datos, es la heurística BT-CG la que experimenta menos aumento en los tiempos de ejecución (TERCER OBJETIVO ESPECÍFICO).  
  5. Se diseñó una heurística híbrida entre las dos mejores heurísticas, a saber entre enjambre de partículas y búsqueda tabú (CUARTO OBJETIVO ESPECÍFICO). Se advierte que a pesar de las diferentes aristas exploradas y que el algoritmo híbrido generó buenos porcentajes de atracción, no cumplió con la expectativa de mejorar las heurísticas previamente implementadas. Los altos tiempos de ejecución fue un punto que en cierta medida hace concluir que el proceso de hibridación no fue del todo exitoso.