Escalabilidad y Uso de T´ecnicas Foco+Contexto en Atlas M´edicos 3D

Trabajo de Tesis presentado al Departamento de Ingenier´ıa de Sistemas y Computaci´on

por

Oscar Ariza

Asesor: Pablo Figueroa Ph.D.

Para optar al t´ıtulo de Maestr´ıa en Ingenier´ıa de Sistemas

Facultad de Ingenier´ıa - Departamento de Ingenier´ıa de Sistemas y Computaci´on Universidad de Los Andes

Julio 2006 Escalabilidad y Uso de T´ecnicas Foco+Contexto en Atlas M´edicos 3D

Aprobado por:

Pablo Figueroa Ph.D., Asesor

Jos´eTiberio Hern´andez Ph.D.

Gabriel Ma˜nana Ph.D.c

Fecha de Aprobaci´on Tr`es bon les gˆateaux d’avoine... Merci petit pingouin!

iii Reconocimientos

Este trabajo cont´ocon el apoyo financiero y acad´emico de la Facultad de Medi- cina de la Universidad de Los Andes, especialmente del profesor Gustavo Valbuena

M.D. Ph.D. quien aport´osus conocimientos y experiencia sobre anatom´ıa y fisiolog´ıa del ri˜n´on humano, sobre software educativo para medicina y sobre los requerimien- tos, necesidades y caracter´ısticas que deb´ıan ser tratados en el proyecto.

Gabriel Mart´ınez y Santiago Leal, estudiantes de Facultad de Artes de la Univer- sidad de Los Andes, colaboraron con el dise˜no e implementaci´on de los modelos anat´omicos del ri˜n´on humano que conformaron el contenido 3D del proyecto.

iv Resumen

Este trabajo muestra los esfuerzos realizados alrededor de la construc- ci´on de un ambiente interactivo con integraci´on de contenidos 3D y 2D, permitiendo explorar jerarqu´ıas de objetos tridimensionales a diferentes niveles de detalle. En cada uno de dichos niveles de detalle el usuario est´aen capacidad de interactuar con el contenido por medio de herramientas de manipulaci´on y exploraci´on, as´ıcomo observar las relaciones de las partes 3D con contenidos 2D como videos, im´agenes, hipertexto e informaci´on volum´etrica. Se exploran algunas t´ecnicas de foco+contexto para facilitar las tareas de selecci´on y comprensi´on de estructuras jer´arquicas com- plejas. Adicionalmente, el ambiente propuesto puede ser configurado y ejecutado en PC o ambientes inmersivos con el fin de ofrecer una aplicaci´on escalable que permita intercambiar los dispositivos y las t´ecnicas de interacci´on involucradas. A manera de ejemplo se toma el ri˜n´on humano como contenido para representar una herramienta pedag´ogica alternativa en el proceso de ense˜nanza/aprendizaje de anatom´ıa, fisio- log´ıa y patolog´ıa.

Palabras claves: Atlas 3D del ri˜n´on humano, Material educativo 3D, Modelo 3D del ri˜n´on humano, Ilustraci´on m´edica, T´ecnicas de foco+contexto, InTml, Realidad virtual.

v ´Indice

Dedicatoria III

Reconocimientos IV

Resumen V

Lista de Tablas 5

Lista de Figuras 6

I. Introducci´on 10

II. Objetivos 12 2.1. Motivaci´on ...... 12 2.2. Objetivos...... 12

III. Trabajo previo 14 3.1. Atlasycontenidom´edico ...... 14 3.2. Software educativo para medicina ...... 18 3.3. T´ecnicas de visualizaci´on Foco+Contexto ...... 22 3.3.1. Aspectosgenerales...... 22 3.3.2. Clasificaci´on ...... 24 3.3.3. Propiedades ...... 24 3.3.4. T´ecnicas ...... 25 3.3.5. Otrast´ecnicas ...... 40 3.4. Revisi´on de t´ecnicas de Tiling ...... 44 3.4.1. Definici´on ...... 45 3.4.2. T´ecnicasdetiling ...... 46

1 3.4.3. Tiling2D...... 47 3.4.4. Tiling3D...... 47

IV. Metodolog´ıa y dise˜no de un prototipo de material educativo 51 4.1. Roles ...... 51 4.2. An´alisis de las necesidades educativas ...... 52 4.3. Relaciones profesor-estudiante-contenido ...... 53 4.4. Caracter´ısticas del material educativo ...... 54

V. Definici´on de requerimientos 56 5.1. Variables de entorno relacionadas con la aplicaci´on ...... 56 5.1.1. Poblaci´onobjetivo...... 56 5.1.2. Areadecontenido´ ...... 57 5.1.3. Necesidadeducativa ...... 57 5.2. Variablesdecomunicaci´on ...... 58 5.3. Requerimientos ...... 60

VI. Soluci´on propuesta 62 6.1. Tiposdecontenido ...... 62 6.1.1. Modelos3D ...... 62 6.1.2. Informaci´onvolum´etrica ...... 64 6.1.3. Contenidomultimedia2D...... 65 6.2. Estructuradedatosdesoporte ...... 67 6.2.1. Informaci´onalmacenada ...... 69 6.3. Herramientas...... 70 6.3.1. C´amara...... 70 6.3.2. Herramientasdecorte...... 70 6.3.3. Edici´ondecontenido ...... 71 6.3.4. Representaci´onfotorealista ...... 73

2 6.4. T´ecnicasdeFoco+Contexto ...... 74 6.4.1. Relaciones de contenencia y cambio de escala ...... 75 6.4.2. Visualizaci´on...... 75 6.5. Usodet´ecnicasdetiling ...... 76 6.6. Esquema general de funcionamiento ...... 78

VII.Escalabilidad 81 7.1. Arquitectura ...... 81 7.2. EditorInTml...... 82 7.2.1. Dispositivosdeentrada ...... 84 7.2.2. Dispositivosdesalida ...... 84 7.2.3. T´ecnicas de interacci´on ...... 84 7.2.4. T´ecnicasdeFoco+Contexto ...... 87 7.2.5. Objetosgr´aficos ...... 87 7.3. AmbientePCconvencional ...... 89 7.4. AmbienteGeowall ...... 90

VIII.Evaluaci´on de los ambientes propuestos 92 8.1. Descripci´on del experimento ...... 92 8.1.1. EncuestaPQ...... 94 8.1.2. EncuestaITQ ...... 95 8.2. Hip´otesis ...... 96 8.3. M´etodo...... 96 8.3.1. Etapasdelexperimento ...... 96 8.3.2. An´alisisdelosdatos...... 97 8.4. Resultados ...... 98 8.5. Discusi´on...... 103

IX. Conclusiones 105

3 Ap´endice A. — Protocolo de evaluaci´on 107

Ap´endice B. — Resultados de la evaluaci´on 120

Referencias 122

4 ´Indice de cuadros

1. Dispositivosutilizados ...... 59 2. Controlesutilizados...... 59 3. Resultados estad´ısticos del factor de control ...... 99 4. An´alisisdelfactordecontrol...... 99 5. Resultados estad´ısticos del factor sensorial ...... 100 6. An´alisisdelfactorsensorial...... 100 7. Resultados estad´ısticos del factor de distracci´on ...... 101 8. An´alisis del factor de distracci´on ...... 102 9. ResultadosdelaencuestaITQ...... 103

5 ´Indice de figuras

1. Esquemadelnefr´on...... 16 2. KidneySimulationProject ...... 17 3. Contenidom´edico3D...... 17 4. Contenido m´edico interactivo ...... 18 5. T´ecnicaPad...... 26 6. T´ecnicaPad++...... 27 7. T´ecnica de ´arboles hiperb´olicos ...... 30 8. T´ecnicadeDOFsem´antico...... 31 9. T´ecnicade´arbolesDOI...... 32 10. Implementaci´ondelframeworkf+c ...... 35 11. T´ecnicaflipzooming ...... 37 12. T´ecnicaZUI...... 38 13. T´ecnicade´arbolesradiales...... 41 14. Men´ufisheye ...... 41 15. T´ecnicaconetree ...... 42 16. T´ecnicatreemap ...... 42 17. T´ecnicaJPE...... 43 18. T´ecnicatablelens ...... 43 19. T´ecnicas de visualizaci´on de jerarqu´ıas de software ...... 44 20. Conjunto de cardinalidad propuesto por Karen y Culic ...... 45 21. Conjunto v´alido de tiling de Wang ...... 47 22. Cubos de Wang constituidos por geometr´ıa 3D ...... 48

6 23. CubodeWang ...... 49 24. Cubos de Wang definidos con distribuciones de Poisson ...... 49 25. Codificaci´on binaria en cubos de Wang ...... 50 26. Modelos3Dcreadosparaelproyecto ...... 63 27. Informaci´onvolum´etrica ...... 65 28. Contenidodetipoimagen ...... 66 29. Contenidodetipovideo ...... 66 30. Contenidodetipohipertexto...... 67 31. Relaciones de nivel de detalle y contenencia entre partes anat´omicas . 68 32. Par´ametrosdelac´amara ...... 70 33. Tiposdecorte3D...... 72 34. Herramienta de corte sobre secciones del glom´erulo ...... 73 35. Representaci´onfotorealista ...... 73 36. Ejemplos de representaci´on fotorealista ...... 74 37. Im´agenesdemicroscop´ıa ...... 75 38. Prototipo definitivo de la t´ecnica de ´arbol hiperb´olico...... 76 39. CubosdeWang...... 77 40. EjemplodecubosdeWang...... 78 41. Funcionamiento ...... 79 42. GUIdelaaplicaci´on ...... 80 43. Arquitectura...... 82 44. EditorInTml ...... 83 45. Filtros InTml para dispositivos de entrada ...... 85 46. Filtros InTml para dispositivos de salida ...... 85 47. Filtros InTml para controlar el flujo de la aplicaci´on ...... 86 48. FiltrosInTmlparacontrolareventos ...... 86

7 49. Filtros InTml para procesar cantidades y mediciones ...... 87 50. Filtros InTml para las t´ecnicas Foco+Contexto ...... 88 51. Filtros InTml para las t´ecnicas de selecci´on y manipulaci´on...... 88 52. FiltrosInTmlparaobjetosgr´aficos ...... 89 53. AmbientePC ...... 89 54. SistemaGeoWall ...... 90 55. AmbienteGeoWall ...... 91 56. EjemplodeAmbienteGeoWall...... 91 57. Escala num´erica para las respuestas ...... 94 58. Diagramade cajas y puntos para el an´alisis FC ...... 99 59. Diagrama de cajas y puntos para el an´alisis FS...... 100 60. Diagramade cajas y puntos para el an´alisis FD ...... 101 61. Diagrama de puntos para los tiempos empleados en las tareas . . . .102 62. Aplicaci´on del ambiente PC en ejecuci´on y los dispositivos asociados . 108 63. Aplicaci´on del ambiente GeoWall en ejecuaci´on y los dispositivos aso- ciados ...... 109 64. Muestra de objeto seleccionado y posici´on de c´amara para ejecutar la tarea...... 109 65. Paneldeselecci´on...... 111 66. Panel de manipulaci´on de la c´amara ...... 111 67. Panel de visualizaci´on con el resultado de la manipulaci´on de la c´amara112 68. Muestradeobjetoparaejecutarlatarea ...... 112 69. Paneldemanipulaci´ondelobjeto ...... 113 70. Panel de visualizaci´on con el resultado de la manipulaci´on del objeto 113 71. Muestra de objeto y plano de corte para ejecutar la tarea ...... 113 72. Panel de manipulaci´on del plano de corte ...... 114

8 73. Panel de visualizaci´on con el resultado de la manipulaci´on del plano decorte ...... 114 74. Disposici´on de los dispositivos de interacci´on para el ambiente GeoWall115 75. Distribuci´on de los botones del FingerMouse ...... 116 76. Par´ametros de manipulaci´on de la c´amara por medio de los trackers . 117 77. Operaci´on del plano de corte por medio de los trackers ...... 119

9 Cap´ıtulo I

Introducci´on

Durante siglos se ha usado la ilustraci´on como una herramienta para el proceso de aprendizaje en Medicina. Las ilustraciones han permitido describir de una manera es- quem´atica los hallazgos sobre el cuerpo humano y centrar la atenci´on de estudiantes en los objetos de aprendizaje, sin la complejidad ni los problemas relacionados con la obser- vaci´on directa. Por ser el cuerpo una estructura tridimensional, es interesante ver c´omo las nuevas t´ecnicas de visualizaci´on pueden ser usadas en el ´area de ilustraci´on m´edica.

La mayor´ıa del material pedag´ogico para medicina que se utiliza actualmente es principal- mente 2D: fotograf´ıas, microscop´ıas, im´agenes de cortes (sagital, axial, etc.), los cuales no muestran informaci´on de profundidad ni de referencia o contexto, y por lo tanto dificultan la comprensi´on de la funcionalidad o de la forma tridimensional de lo observado. Aunque existe gran variedad de contenido multimedia, no se presenta una integraci´on del contenido con base en las relaciones entre las partes anat´omicas que se presentan.

Se plantea como hip´otesis que el uso de herramientas 3D puede facilitar el entendimien- to de estructuras complejas, presentando su estructura a diferentes niveles de detalle en combinaci´on con el despliegue de informaci´on 2D relacionada y con el uso de herramien- tas que faciliten la exploraci´on, manipulaci´on y comparaci´on entre los diferentes tipos de

10 contenido multimedia.

En el resto del documento, se presentar´auna aplicaci´on interactiva 3D que, a modo de caso de estudio, concentra su contenido en el ri˜n´on humano y que busca mejorar los elementos disponibles para un m´edico en su proceso de ense˜nanza/aprendizaje de la anatom´ıa y fi- siolog´ıa del cuerpo humano, con base en nuevas t´ecnicas de visualizaci´on tridimensional, la disponibilidad de ambientes gr´aficos de alto desempe˜no (como son los computadores con tarjetas aceleradoras para juegos) y la creaci´on de herramientas de configuraci´on que faciliten su uso en diferentes sistemas operativos y ambientes de hardware.

11 Cap´ıtulo II

Objetivos

2.1. Motivaci´on

Este proyecto surgi´ode la necesidad de utilizar herramientas sofisticadas para trans- mitir conceptos complejos, principalmente aquellos que implican el entendimiento a nivel espacial de estructuras anat´omicas complicadas como el nefr´on 1 y su relaci´on con otros

´organos a escalas de mayor o menor tama˜no. Otra causa esta relacionada con la falta de ambientes integradores de contenido multimedia y modelos anat´omicos trimensionales.

2.2. Objetivos

Se tiene como objetivo principal, desarrollar una aplicaci´on interactiva con contenido tridimensional que facilite la ense˜nanza y el aprendizaje de la anatom´ıa y la fisiolog´ıa del ri˜n´on humano, especialmente de su estructura microsc´opica. Otros objetivos m´as espec´ıfi- cos son:

Implementar un ambiente 3D que permita visualizar la estructura del ri˜n´on humano.

Esto es, una aplicaci´on con soporte para la visualizaci´on de partes anat´omicas com-

plejas en tres dimensiones, configuraci´on de c´amaras, materiales, texturas, luces,

etc.

1Unidad funcional del ri˜n´on humano.

12 Desarrollar mecanismos que permitan explorar y visualizar la estructura del ri˜n´on a distintos niveles de detalle, desde la visi´on macrosc´opica a la microsc´opica, por medio de t´ecnicas de interacci´on y controles visuales sofisticados que faciliten su comprensi´on.

Crear t´ecnicas de interacci´on apropiadas para llevar a cabo tareas de exploraci´on y manipulaci´on, facilitando el uso de la aplicaci´on por parte de profesores y estudian- tes.

Ofrecer herramientas de configuraci´on que permitan ejecutar la aplicaci´on en di- ferentes ambientes de hardware y software, ofreciendo la capacidad de combinar o intercambiar las t´ecnicas de interacci´on y los contenidos involucrados.

13 Cap´ıtulo III

Trabajo previo

Este cap´ıtulo presenta el estado del arte relacionado con los temas estudiados para el desarrollo de este proyecto. Son presentados los resultados de trabajos e investigaciones previos sobre atlas m´edicos, software acad´emico para medicina, t´ecnicas de foco contexto y escalabilidad en aplicaciones de realidad virtual.

3.1. Atlas y contenido m´edico

Existen en el mercado ambientes que presentan la anatom´ıa y fisiolog´ıa del ri˜n´on hu- mano mediante animaciones 2D, tambi´en hay sistemas inmersivos que permiten visualizar

´organos u ofrecen mecanismos de navegaci´on que facilitan la b´usqueda de anomal´ıas y mejoran los diagn´osticos [15].

En general, las aplicaciones m´edicas contempor´aneas est´an relacionadas con procesos de reconstrucci´on 3D del ri˜n´on humano o animal a nivel macro, pues la elaboraci´on de t´ecni- cas para reconstruir tejidos o estructuras a nivel micro como el nefr´on o el glom´erulo se encuentra en su etapa inicial [41][63][40]. La mayor´ıa de las reconstrucciones existentes del ri˜n´on, resultado de t´ecnicas de captura como angiograf´ıa, IRM1 o TAC2, est´an orientadas a la creaci´on de informaci´on volum´etrica como apoyo a la interpretaci´on y al diagn´ostico, visualizando la estructura de inter´es sin ofrecer alternativas de simulaci´on o exploraci´on interactiva. En t´erminos generales el material encontrado se puede clasificar de la siguiente

14 forma: Colecciones de im´agenes de apoyo al diagn´ostico, proyectos de simulaci´on del ri˜n´on, modelos 3D est´aticos y aplicaciones interactivas para internet. Los siguientes p´arrafos des- criben estos tipos de material.

Las colecciones de im´agenes de apoyo al diagn´ostico componen atlas para el estudio de la anatom´ıa del ri˜n´on, dichas colecciones en su mayor´ıa son realizadas por artistas del dibujo

2D y 3D. Pueden estar compuestas por fotograf´ıas de modelos reales a escala (cer´amica, materiales pl´asticos, etc.) de las partes anat´omicas del ri˜n´on [12], las cuales son ordenadas tem´aticamente con el fin de complementar la informaci´on ofrecida en algunos libros o sitios web.

Algunas fotograf´ıas provienen de procesos de corrosi´on sobre muestras de tejido o tra- tamientos con siliconas con el fin de recuperar y visualizar el aspecto tridimensional de estructuras internas como el nefr´on o el glom´erulo [52][62], pero en la mayor´ıa de los casos los conjuntos de fotograf´ıas son ofrecidos como material de apoyo para la ense˜nanza de interpretaci´on o diagn´ostico m´edico [51], sin ofrecer informaci´on tridimensional que facilite la comprensi´on de las estructuras que componen el ri˜n´on, sus relaciones espaciales o de proporcionalidad. Existen conjuntos de im´agenes que son presentadas a manera de tutorial o laboratorios virtuales para mostrar partes anat´omicas a distintos niveles de detalle y/o el proceso de filtrado realizado por el ri˜n´on [1]. Hay ilustraciones que agregan informaci´on acerca de profundidad [51], pero no conservan las relaciones de escala ni las proporciones existentes en las partes anat´omicas reales. El ”proyecto del humano visible”[37], un con- junto de datos para un hombre y para una mujer que representan aproximadamente 17

GB de informaci´on, contiene pilas de fotograf´ıas reales, im´agenes de resonancia magn´etica y tomograf´ıas computarizadas del cuerpo humano completo a una resoluci´on del orden de

1/3 de mil´ımetro, las cuales permiten realizar reconstrucciones del ri˜n´on a nivel macro con

15 Figura 1: Esquema del nefr´on. Fuente: http://hpd.botanic.hr el fin de hacer visualizaciones de informaci´on volum´etrica. Existen en internet aplicacio- nes relacionadas [2][38] que permiten interactuar con las pilas de im´agenes para visualizar o hacer cortes sobre las ´areas que contienen los ri˜nones y poder observar las relaciones espaciales y de contexto que tienen con respecto a otros ´organos que componen el cuerpo humano [32]. Sin embargo, los par´ametros de adquisici´on y la resoluci´on utilizados para obtener estas im´agenes no permiten que sean procesadas para obtener informaci´on de las estructuras microsc´opicas contenidas cuyas dimensiones est´an en el orden de micras, y por consiguiente, dificultan la reconstrucci´on de tejidos u ´organos como el nefr´on o el glom´erulo.

Los modelos de simulaci´on buscan integrar toda la informaci´on biol´ogica funcional y es-

tructural en una arquitectura que permita simular el comportamiento del ri˜n´on mam´ıfero

en condiciones m´edicas normales, patol´ogicas o de mutaci´on gen´etica, entre otras. [57]

Dicha arquitectura contiene un m´odulo de simulaci´on que define un modelo matem´atico

[35] del comportamiento de las unidades funcionales del ri˜n´on en respuesta a diferentes

est´ımulos o compuestos qu´ımicos resultado del funcionamiento metab´olico. Los modelos

3D del ri˜n´on [7] muestran informaci´on est´atica resultado de reconstrucciones de angio-

graf´ıas o geometr´ıa creada por artistas en aplicaciones para modelado 3D, y por lo tanto

no pueden ser manipulados para brindar interactividad o producir simulaciones. Existen

algunos sitios web comerciales que ofrecen modelos 3D del ri˜n´on y de sus principales par-

tes funcionales a diferentes niveles de complejidad [60][59]. Las aplicaciones interactivas

16 Figura 2: Kidney Simulation Project. Fuente: http://www.dis.unimelb.edu.au

Figura 3: Contenido m´edico 3D. Fuente: http://www.med-ars.it

17 Figura 4: Contenido m´edico interactivo.Fuente: http://www.foxnewmedia.de para internet representan gran parte del material disponible sobre el funcionamiento del ri˜n´on con fines pedag´ogicos o ilustrativos [44][54][25][56]. Este tipo de material esta desa- rrollado en su mayor´ıa como animaciones 2D y no contiene modelos tridimensionales ni simulaciones basadas en modelos formales. Existen adem´as problemas con la compren- si´on de escalas y medidas, ya que las animaciones se presentan sin relaci´on de tama˜no ni de contexto. Este tipo de material presenta animaciones de procesos fisiol´ogicos como intercambio, transporte de fluidos, ´osmosis y procesos metab´olicos en relaci´on con otros

´organos del cuerpo humano como el h´ıgado, el coraz´on y los pulmones. Algunas de las aplicaciones web encontradas complementan su contenido con hipertexto y evaluaciones con retroalimentaci´on en l´ınea [29]. Aunque estas herramientas y el material mencionados presentan una funcionalidad interesante para el estudiante, son inherentemente 2D y por lo tanto limitadas para comprender una estructura tridimensional.

3.2. Software educativo para medicina

Con respecto al desarrollo de software educativo para medicina, este proyecto esta basado en la taxonom´ıa propuesta en [42][43] que clasifica este tipo de aplicaciones seg´un su contenido y el control de aprendizaje propuesto. De esta forma, dentro de los ambientes de ense˜nanza aprendizaje existen dos met´aforas que permiten determinar el papel de profesores y/o estudiantes:

18 Met´afora de transmisi´on

Se enfatiza en el flujo eficiente desde una fuente (profesor o materiales de ense˜nanza

especializados en la exposici´on clara de ideas y la habilidad para escuchar) hacia un

grupo de estudiantes.

Met´afora de di´alogo

Profesores y estudiantes tienen la responsabilidad mutua de adquirir conocimiento,

el profesor desarrolla el papel de facilitador en el proceso de aprendizaje.

Teniendo en cuenta las met´aforas anteriores se presentan dos enfoques que las complemen- tan/contraponen generando los posibles escenarios de aprendizaje:

Aprendizaje dirigido por el profesor

El profesor es responsable de decidir qu´ey c´omo ense˜nar unos contenidos predeter-

minados que son evaluados bajo un esquema de motivaci´on basado en recompensas

y castigos.

Aprendizaje autodirigido

El estudiante autorregula su tiempo y los contenidos, creando su propia experiencia

de aprendizaje, la cual est´abasada en la soluci´on de problemas, la curiosidad y

motivaciones internas como la autoestima.

En otras palabras, existen enfoques sistem´aticos para crear ambientes de aprendizaje [42].

En el enfoque educativo algor´ıtmico, el aprendizaje se orienta hacia la definici´on y realiza- ci´on de secuencias predeterminadas de actividades que buscan lograr metas mensurables.

Dichas actividades se planean para una poblaci´on espec´ıfica y se busca que sean ejecutadas de la manera esperada para lograr buenos resultados. Este enfoque da estructura y preci- si´on al proceso de aprendizaje y facilita el aprendizaje de contenidos confusos y complejos.

Por otro lado, El enfoque educativo heur´ıstico busca desarrollar la capacidad de autoges- ti´on del acto de aprendizaje, dicho aprendizaje se realiza a trav´es del descubrimiento y de

19 las situaciones basadas en la experiencia por medio de dispositivos heur´ısticos (micromun- dos, ambientes para explorar, etc.) que hacen posibles las vivencias y la reproducci´on de situaciones. Se hace una distinci´on entre la transmisi´on de la experiencia adquirida por el profesor y la transmisi´on de los modelos o interpretaciones de dicha experiencia hacia los estudiantes.

El uso del computador, ya sea como material de apoyo/complemento a la educaci´on o como medio de ense˜nanza/aprendizaje, requiere del desarrollo de materiales educativos computarizados (MEC) [43][42]. Teniendo en cuenta los enfoques presentados, un MEC puede ser clasificado de la siguiente forma:

MEC de tipo algor´ıtmico

El aprendizaje se realiza por transmisi´on de conocimiento, el dise˜nador del MEC en-

capsula secuencias de actividades de aprendizaje que conducen al estudiante seg´un

los objetivos planteados y donde el estudiante tiene la responsabilidad de asimi-

lar el m´aximo de conocimiento que se le transmite. Se puede realizar la siguiente

subclasificaci´on:

1. Sistema tutorial

Secuencia predefinida y controlada de tareas que busca presentar contenidos

espec´ıficos con cierto grado de interacci´on (el estudiante puede decidir la se-

cuencia de tareas o el sistema puede ajustarlas din´amicamente conforme al

desempe˜no del estudiante). Este sistema ofrece alta motivaci´on, informaci´on

de retorno diferencial e inmediata, ritmo propio y secuencia controlable. Como

todo m´etodo de ense˜nanza/aprendizaje esta compuesto por 4 fases: Fase intro-

ductoria en la que se genera la motivaci´on, se centra la atenci´on y se favorece la

percepci´on selectiva, Fase de orientaci´on inicial en la que se lleva a cabo la co-

dificaci´on, el almacenaje y la retenci´on de lo aprendido, fase de aplicaci´on que

20 conlleva evocaci´on y transferencia de lo aprendido y fase de retroalimentaci´on

en donde se demuestra lo aprendido y se recibe retroalimentaci´on y refuerzo.

2. Sistema de ejercitaci´on y pr´actica

Busca reforzar las fases de aplicaci´on y retroalimentaci´on del sistema anterior

para estudiantes que ya adquirieron conocimientos y destrezas en otro medio

y que est´an interesados en practicarlas. Mejora la motivaci´on, el refuerzo y la

reorientaci´on en caso de intentos fallidos o errores (modo ”intente otra vez”).

MEC de tipo heur´ıstico

El dise˜nador del MEC crea ambientes ricos en situaciones que el estudiante debe explorar conjeturalmente. El estudiante debe llegar al conocimiento a partir de la experiencia, creando sus propios modelos o interpretaciones de pensamiento, los cua- les tambi´en pueden ser evaluados por medio del MEC. Se puede realizar la siguiente subclasificaci´on:

1. Simuladores y juegos educativos

Simplificaciones del mundo real que facilitan la resoluci´on de problemas, ejecu-

ci´on de procedimientos, control de las caracter´ısticas de un fen´omeno, respuesta

a circunstancias espec´ıficas, etc. Deben permitir generar o proponer situacio-

nes a resolver en las que el estudiante interact´ua en un modo a ver que pasa

si....

2. Lenguajes sint´onicos

Lenguajes que no requieren aprendizaje adicional y que permiten comunicarse

con el computador para ejecutar comandos. El profesor promueve en el estu-

diante la soluci´on de problemas por medio de la descomposici´on de sus partes

(estrategia ”divide y vencer´as”), hasta llegar a enunciados que tienen soluci´on

directa por medio de los comandos mencionados.

21 3. Sistemas expertos con fines educativos

Sistemas de computaci´on capaces de representar y razonar (procedimientos de

inferencia) acerca de alg´un dominio del conocimiento, resolver problemas y dar

consejo al estudiante inexperto.

3.3. T´ecnicas de visualizaci´on Foco+Contexto

Debido a que en la gran mayor´ıa de las aplicaciones de visualizaci´on se requiere pre- sentar m´as informaci´on de la que puede ser presentada simult´anea y adecuadamente, es necesario maximizar el espacio visual por medio de su separaci´on en dos m´odulos:

1. Foco

Parte de la informaci´on de m´as inter´es para el usuario y que por lo tanto debe ser

mostrada con el m´aximo detalle posible.

2. Contexto

El resto de la informaci´on que debe ser mostrada. Debido a que en la mayor´ıa de

los casos el espacio asignado para desplegar el contexto es reducido en comparaci´on

con el foco, es necesario utilizar t´ecnicas que permitan determinar su grado de

importancia para eliminar informaci´on irrelevante y mostrar la informaci´on restante

con menor detalle en comparaci´on con el foco.

Las siguientes secciones describir´an los aspectos generales encontrados sobre este tipo de visualizaciones, mostrar´an el funcionamiento de las t´ecnicas m´as importantes o que tienen m´as relevancia con respecto al proyecto de tutoriales 3D para medicina y finalmente presentar´an algunas consideraciones a tener en cuenta.

3.3.1. Aspectos generales

El problema general de las t´ecnicas de foco+contexto es tratar de visualizar toda una jerarqu´ıa de informaci´on dentro de una regi´on que es mas grande que el dispositivo de

22 despliegue (crt, palm display, etc.) y tratar de utilizar t´ecnicas de interacci´on (scrolling, panning) para mover la regi´on y tratar de explorarla completamente. El problema princi- pal es que el usuario no puede ver la relaci´on entre la parte visible (mediante el dispositivo de despliegue) con la jerarqu´ıa completa debido al tama˜no de los ´arboles en los que se almacenan las jerarqu´ıas de informaci´on y a su crecimiento exponencial. La soluci´on, en t´erminos generales, es brindar la posibilidad de observar la jerarqu´ıa completa (o una re- presentaci´on de la misma) y al mismo tiempo mostrar la regi´on de inter´es.

La visualizaci´on de informaci´on en ocasiones trata de mostrar datos de los cuales el usuario no tiene o no puede crear una imagen mental apropiada. El resultado de una visualiza- ci´on es una estructura gr´afica que permite mostrar los datos (o una parte de ellos) en la pantalla para que el usuario aprenda, tome una decisi´on o realice tareas de exploraci´on y reconocimiento. Sin embargo, el problema que atacan las t´ecnicas de foco+contexto es tratar de mostrar la estructura gr´afica de manera conveniente cuando el tama˜no requerido para mostrar los datos excede el tama˜no de la pantalla y es necesario hacer escalamientos

(posiblemente consecutivos) y mostrar la relaci´on entre la porci´on de datos que se esta vi- sualizando y el conjunto total de datos. Se debe aclarar que los m´etodos de foco+contexto est´an limitados al ´area visible de una pantalla de computador o el dispositivo de despliegue utilizado. Una de las causas de las visualizaciones foco+contexto es la necesidad de tener a la mano informaci´on en por lo menos dos niveles de detalle diferentes y desplegados de manera simult´anea.

Otra definici´on de foco+contexto parte de las siguientes tres premisas:

El usuario debe tener acceso visual a la informaci´on como un todo (contexto) e

informaci´on detallada (foco) de manera simult´anea.

La intersecci´on de la informaci´on perteneciente al foco y al contexto debe ser vac´ıa.

23 La informaci´on perteneciente al foco y al contexto debe ser combinada en una ´unica

fuente de visualizaci´on din´amica (una o varias pantallas seg´un convenga) en los

mismos t´erminos en que funciona la visi´on humana.

3.3.2. Clasificaci´on

Los m´etodos de foco+contexto se pueden clasificar en tres grupos [24]:

1. M´etodos espaciales

La visualizaci´on es distorsionada para asignar mas espacio al foco de inter´es y dis-

tribuir el espacio restante en el contexto. Algunas t´ecnicas que utilizan este m´etodo

son: ”Fish Eye”, ”Hyperbolic trees”, ”Document lens”, ”Stretchable rubber sheets”,

descritos a continuaci´on.

2. M´etodos dimensionales

El usuario puede posicionar un ”localizador”sobre los objetos de la visualizaci´on

para ver diferentes representaciones de los mismos objetos. Algunas t´ecnicas que

utilizan este m´etodo son ”Magic lenses”, ”Tool glasses”, descritos a continuaci´on.

3. M´etodos basados en se˜nales

Los objetos con cierto grado de inter´es o caracter´ısticas dentro de la visualizaci´on

pueden ser destacados por medio del uso de marcas visuales para que sean recono-

cidos f´acilmente por el usuario sin ocultar el contexto. Algunas t´ecnicas que utilizan

este m´etodo est´an relacionadas con los filtros visuales que permiten modificar la

saturaci´on de color o el brillo en las aplicaciones de informaci´on geogr´afica y afines.

3.3.3. Propiedades

Algunas propiedades que deben estar presentes en las visualizaciones foco+contexto de jerarqu´ıas de informaci´on son:

Ofrecer un espacio adecuado para mostrar la informaci´on asociada a cada nodo.

24 Permitir que el usuario entienda la relaci´on entre el nodo seleccionado como foco de

inter´es y el contexto que lo rodea.

Permitir al usuario realizar b´usquedas r´apidas sobre la jerarqu´ıa.

Ocupar un espacio fijo sobre la pantalla y eliminar al m´aximo el uso de scrolling.

Con respecto a la visualizaci´on de informaci´on, es necesario definir tres aspectos: El con- junto de datos a visualizar, el tipo de representaci´on gr´afica que tendr´an los datos y el grado de manipulaci´on o interacci´on que permitir´an dichas representaciones. Para definir el conjunto de objetos de la visualizaci´on que pertenecen al contexto, es recomendable definir su grado de importancia as´ı:

Importancia a priori

Importancia del objeto con respecto a la estructura jer´arquica de informaci´on a la cual pertenece. Por ejemplo, los ´organos principales del cuerpo humano aplicar´ıan a este tipo de importancia dentro de una jerarqu´ıa que permite explorar toda la anatom´ıa humana desde el nivel macro al celular. Este tipo de importancia puede ser predeterminado antes de iniciar el proceso de visualizaci´on por medio de indicadores de prioridad o grados de inter´es (degree of interest - DOI).

Importancia a posteriori

Importancia del objeto con respecto al estado actual de la visualizaci´on, la cual depen- de del foco de inter´es seleccionado, la distancia al foco y/o a la ra´ız de la jerarqu´ıa de informaci´on, la prioridad definida como importancia .a priori”, etc.

3.3.4. T´ecnicas 3.3.4.1. T´ecnica PAD

Es un plano 2D infinito de informaci´on poblado por objetos (datos) y/o portales que

tiene como objetivo crear, mover, revisar y comparar informaci´on a diferentes escalas. Es

25 Figura 5: T´ecnica Pad. utilizado para aprovechar la memoria visual del usuario en espacios reducidos de trabajo en los que se busca visualizar grandes cantidades de datos organizados geogr´aficamente

[46]. Los objetos est´an organizados geogr´aficamente; cada objeto ocupa una regi´on muy bien definida dentro de la superficie PAD. Para realizar tareas de navegaci´on son utili- zados ”portales”para hacer zoom sobre diferentes regiones del Pad o apuntar hacia otros portales (por ejemplo el icono de un directorio en un sistema operativo).

Hay dos t´ecnicas que permiten variar la apariencia de los objetos dentro del PAD:

Semantic zooming

El usuario var´ıa el zoom hacia el objeto para cambiar su apariencia, tipo o cantidad

de informaci´on.

Portal filters

Cambian la visualizaci´on utilizada para mostrar los datos asociados a un objeto

(bar-, pie, etc.). La densidad espacial de los objetos visualizados dentro del

Pad crece geom´etricamente a medida que el usuario hace zoom. Cada uno de los

objeto dentro del Pad est´adefinido por una ”direcci´on”(posici´on y escala) y una

regi´on (rect´angulo posicionado seg´un la direcci´on). El grado de aumento (zoom) de

un objeto var´ıa de acuerdo a su escala y a los siguientes par´ametros:

26 Figura 6: T´ecnica Pad++.

• Rango de visibilidad

Los objetos solo son ´utiles (en el proceso de visualizaci´on) en un rango definido

de escala.

• Rango de transparencia

Los objetos aparecen m´as o menos opacos de acuerdo con el aumento que

realiza el usuario sobre el Pad.

Para que Pad sea usado para construir interfaces de usuario requiere una estructura de alto nivel llamada ”PAD object”que interpreta los eventos y controla los objetos gr´aficos.

La salida gr´afica del Pad requiere un manejo complejo para la creaci´on y destrucci´on de objetos gr´aficos (basado en su posici´on y escala) y el despliegue recursivo de los portales de acuerdo a los objetos gr´aficos que despliegan.

3.3.4.2. PAD++

Esta t´ecnica permite navegar y realizar b´usquedas a trav´es de espacios de informaci´on grandes por medio de manipulaci´on directa (panning y zooming). Permite visualizar e in- teractuar con estructuras complejas de informaci´on a varios niveles de detalle en espacios reducidos por medio de variaciones en la escala de los objetos contenidos [8]. Pad++ sopor- ta un conjunto predeterminado de objetos: texto, gr´aficas, im´agenes, portales e hipertexto.

Adicionalmente, a manera de extensiones soporta controles de interfaz como botones, etc.

Algunos de los conceptos utilizados en Pad++ son:

27 Portales

Objetos que permiten visualizar vistas de ´areas no visibles pertenecientes a la su-

perficie Pad++.

Lentes

Objetos que permiten alterar la apariencia (m´ultiples representaciones para un mis-

mo conjunto de datos) o el comportamiento de los objetos visibles pertenecientes a

la superficie Pad++.

Zoom sem´antico

Variaci´on de la visualizaci´on de los datos seg´un la escala usada para representarlos.

La organizaci´on de objetos gr´aficos dentro de un espacio multi-resoluci´on de tama˜no fijo en donde adem´as los objetos son representados por un grafo, genera dificultades en la representaci´on visual de los objetos cuando la resoluci´on o la escala cambia y se presentan intersecciones, cruces y falta de espacio para posicionar de manera organizada los objetos.

Estos tipos de problemas son causados por el crecimiento exponencial que tienen estruc- turas comunes como ´arboles de datos. Pad++ est´adise˜nado para visualizar informaci´on jer´arquica, haciendo que los datos que se encuentran en niveles profundos de la jerarqu´ıa sean visualizados a una escala menor y puedan ser observados a posteriori por medio de zoom.

Pad++ propone que la visualizaci´on refuerce la estructura narrativa o la secuencia de etapas animadas, que permiten que el usuario visite o revise toda la jerarqu´ıa de datos sin perder el contexto por medio de la inferencia de progreso que realiza el usuario cuando percibe la direcci´on y la cantidad de informaci´on visualizada. Esta opci´on tambi´en es ´util para explorar de manera no lineal una jerarqu´ıa de informaci´on por medio de la predefi- nici´on de rutas. Sin embargo, s´olo es ´util para estructuras peque˜nas o que adoptan una estructura narrativa circular.

28 Una forma de representar un espacio multiescala es describirlo anal´ıticamente por me- dio de diagramas ”scale-space”que permiten visualizar de manera simult´anea todos los niveles de escala en los que puede ser representada una misma estructura foco+contexto, con el fin de analizar la relaci´on entre el manejo del espacio fijo en que se posicionan los objetos (eje x) y los cambios de escala (eje y). De la misma forma, estos diagramas per- miten definir adecuadamente el orden de los comandos de activaci´on (portales), zooming y panning para visualizar un objeto determinado dentro de la jerarqu´ıa de datos. Algunos de los factores de eficiencia tomados en cuenta en la implementaci´on de Pad++ son:

Indexado espacial

Manejo del la b´usqueda y procesamiento gr´afico por medio de los envoltorios con-

vexos de los objetos.

Clustering

La estructura jer´arquica que almacena los datos es procesada por medio de un ´arbol

balanceado para optimizar su procesamiento.

Nivel de detalle y Clipping

Uso de varias versiones de los objetos gr´aficos a diferentes resoluciones y eliminaci´on

de geometr´ıa no visible para facilitar su representaci´on y visualizaci´on.

Manejo de regiones

Restringir la actualizaci´on de la superficie de visualizaci´on a las regiones que regis-

tran cambios.

Frame rate ajustable

Mantener un flujo perceptivo constante para el usuario.

29 Figura 7: T´ecnica de ´arboles hiperb´olicos.

3.3.4.3. T´ecnica de Jerarqu´ıa hiperb´olica

Las jerarqu´ıas hiperb´olicas son t´ecnicas de foco+contexto del tipo ”fisheye”que repre- sentan de manera uniforme una estructura jer´arquica de informaci´on en un plano hiperb´oli- co para luego aprovechar un espacio de visualizaci´on con tama˜no fijo de forma circular

(disco unitario) para visualizar dicha jerarqu´ıa mostrando foco+contexto y ajustando au- tom´aticamente el foco [26].

El navegador hiperb´olico que propone esta t´ecnica inicialmente muestra un ´arbol con la ra´ız en el centro, permitiendo que esta posici´on la ocupe otro nodo cuando es seleccio- nado como nodo de inter´es o foco. La cantidad de espacio que ocupa un nodo dentro de la estructura circular decae de acuerdo a una funci´on continua que depende de la distan- cia que hay entre el centro a la posici´on que ocupa dicho nodo dentro del ´arbol. De esta forma, el contexto puede incluir varias generaciones de padres, conexiones e hijos (evitan- do sobreposici´on); permitiendo explorar la jerarqu´ıa sin perder la noci´on del espacio y la distribuci´on de dicha estructura.

En un navegador de este tipo, es posible visualizar aproximadamente 100 nodos en una ventana circular contenida dentro de una ventana de 600x600 p´ıxeles. Una de las ventajas es que el cambio de escala es una consecuencia de la distorsi´on din´amica que es llevada a cabo cuando el usuario cambia el nodo de inter´es para que ´este sea visualizado en el

30 Figura 8: T´ecnica de DOF sem´antico. centro y en un ´area mayor. Representando la jerarqu´ıa de informaci´on en el plano hi- perb´olico permite controlar la porci´on de la jerarqu´ıa seleccionada como foco de inter´es que requiere mas espacio sin comprometer la visualizaci´on del resto de la jerarqu´ıa. El plano hiperb´olico en que es representada la jerarqu´ıa de informaci´on es definido en una geometr´ıa no Euclidiana en la cual las l´ıneas paralelas divergen entre s´ı, aprovechando de manera conveniente una de las propiedades de un c´ırculo dentro de este plano, mediante la cual la circunferencia crece exponencialmente con su radio, haciendo que se tenga mas espacio disponible cuando incrementa la distancia desde el centro. Adicionalmente, dicha distancia (entre conexiones, padres e hijos) se mantiene aproximadamente igual indepen- dientemente de la posici´on dentro del c´ırculo.

Esta t´ecnica permite cambiar la representaci´on gr´afica de los nodos sin afectar su distribu- ci´on sobre el c´ırculo o disco unitario de visualizaci´on. Adicionalmente, son recomendadas transiciones animadas para facilitar la comprensi´on de usuario sobre la redistribuci´on de los nodos cuando cambia el foco de inter´es y marcas de color o etiquetas gr´aficas temporales que permitan revisar la direcci´on y el tipo de las relaciones que componen la jerarqu´ıa.

3.3.4.4. Semantic Depth of Field (SDOF) Focus+Contexto

Esta t´ecnica 2D se basa en variaciones en el efecto e campo e profundidad (Depth of field - DOF) usado en fotograf´ıa y cinematograf´ıa, sin embargo, las variaciones no

31 Figura 9: T´ecnica de ´arboles DOI. afectan los objetos seg´un se relevancia y no su distancia por medio de la definici´on de una sem´antica (Semantic depth of field - SDOF) [24]. Cada uno de los objetos presentes en la visualizaci´on debe tener asignado un valor de relevancia (r, que toma los valores de 0 a 1 inclusive). Para esta t´ecnica, una posible funci´on de relevancia puede ser una funci´on

(continua) de nivel de inter´es (Degree of interest - DOI) que transforma los valores de r en un di´ametro que es utilizado para distorsionar la imagen por medio de otra funci´on de remueve las frecuencias altas y reduce el contraste con el objetivo de distorsionar los objetos irrelevantes despu´es de haber seleccionado el foco de inter´es.

3.3.4.5. Arboles´ de grado de inter´es (DOI)

Esta t´ecnica de visualizaci´on foco+contexto, incluida en otra categor´ıa como ARUI

(Attention Reactive User Interface), permite representar jerarqu´ıas de informaci´on por

medio de ´arboles en los cuales cada uno de los nodos tiene asignado un nivel o grado

de inter´es que permite determinar la posici´on, el tama˜no y la informaci´on adicional que

ser´adesplegada dentro de la superficie de visualizaci´on (pantalla). Visto de otra forma, re-

emplaza la distorsi´on presentada en otras t´ecnicas, mediante cambios de tama˜no y detalle

en el nodo que es seleccionado como foco de inter´es para manejar la atenci´on del usuario

y la facilidad del acceso a los datos asociados a dicho nodo [11].

32 Los ´arboles de grado de inter´es han sido utilizados en navegadores de informaci´on, dia- gramas organizacionales, visualizaci´on de sitios Web, visualizaci´on de estad´ısticas Web, diagramas de flujo de red y bases de datos distribuidas. Esta t´ecnica emplea cuatro m´eto- dos para procesar los nodos de ´arboles foco+contexto:

1. Filtrado l´ogico

El despliegue de los nodos es determinado autom´aticamente de acuerdo a su grado

de inter´es: DOI = II - DNI. La importancia intr´ınseca (II) de un nodo es definida

por su distancia a la ra´ız y el segundo par´ametro se determina por el n´umero de

nodos que deben ser recorridos para llegar al nodo de inter´es o distancia al foco

de inter´es (DNI). Por ´ultimo, el DOI de cada nodo es comparado con un umbral

predeterminado para decidir si es desplegado o no. Este m´etodo es tomado de la

t´ecnica ”Fisheye”, debido a esto presenta los mismos problemas cuando existen

muchas uniones entre los nodos.

2. Distorsi´on geom´etrica

Se define una funci´on que distorsiona el ´area central de despliegue, la cual tiene

tama˜no fijo, para mostrar el nodo de inter´es con un tama˜no mayor a los dem´as

haciendo que ´estos sean mostrados a un menor tama˜no y menos distancia entre ellos

a medida que se alejan del centro. Este m´etodo es tomado de la t´ecnica ”Hyperbolic

tree”.

3. Zoom sem´antico

La representaci´on de los nodos cambia a medida que se hacen operaciones de au-

mento visual sobre ellos y se alcanzan umbrales predefinidos que permiten que el

usuario visualice diferentes representaciones del nodo que solo tienen significado en

la escala definida por el aumento. Es posible que adem´as de cambiar la representa-

ci´on se revelen estructuras adicionales pertenecientes a cada nodo, adem´as, cuando

un nodo alcanza un umbral en el que no requiere inter´es del usuario se utilizan

33 recursos como la abreviaci´on de su etiqueta, rotaci´on/oclusi´on de sus contenidos o

eliminaci´on visual cuando alcanza una escala muy peque˜na. Este m´etodo es tomado

de la t´ecnica ”Pad”.

4. Compresi´on del contexto

Cuando se selecciona uno de los nodos del ´arbol (jerarqu´ıa de informaci´on), ´este se

expande para visualizar su contenido, los otros nodos se colapsan y los m´as lejanos

son representados en forma agregada. Este m´etodo es tomado de la t´ecnica Cone

tree.

Esta t´ecnica re´une los m´etodos mencionados para implementar una aplicaci´on foco+contexto que cumple con los siguientes requerimientos:

Evitar el despliegue de nodos con un grado de inter´es bajo por medio del uso del

filtrado l´ogico.

Definir varios niveles de informaci´on por medio de cambios de escala geom´etrica

seg´un el DOI de cada nodo.

Escalar los contenidos de los nodos de a cuerdo a la magnitud determinada por el

zoom sem´antico y reducir el n´umero de nodos expandidos por medio del m´etodo

para comprimir el contexto.

Facilitar el entendimiento de los cambios realizados en la estructura por medio de

transiciones animadas.

3.3.4.6. Framework para visualizaciones foco+contexto

Este framework hace una diferenciaci´on entre la manipulaci´on o interacci´on que se lleva a cabo sobre la representaci´on gr´afica de los datos y la manipulaci´on de la visuali- zaci´on como tal. Dicho de otra forma, define una visualizaci´on foco+contexto como una

34 Figura 10: Implementaci´on del framework f+c. visualizaci´on de segundo nivel (visualizaci´on de una visualizaci´on), en donde la visuali- zaci´on de primer nivel es la encargada de visualizar la representaci´on de los datos y la de segundo nivel agregar los artefactos necesarios para modificar la primera visualizaci´on para presentar su foco y contexto simult´aneamente [9].

De la misma forma, es necesario aclarar que es posible realizar manipulaciones sobre ambos niveles de visualizaci´on, por ejemplo, cambiar el color o la apariencia de un objeto corresponder´ıa a una manipulaci´on a la visualizaci´on de primer nivel y la realizaci´on de zoom o cambio de contraste representar´ıa una manipulaci´on de segundo nivel. Lo ante- rior se lleva a cabo con el prop´osito de separar y desacoplar con claridad los diferentes tipos de interacci´on. El framework define la siguiente notaci´on para cada uno de los niveles:

Visualizaci´on de primer nivel Dado un conjunto de datos a visualizar [D], una re-

presentaci´on visual de lo datos V y la interacci´on o manipulaci´on disponible dentro de la

visualizaci´on I (que puede afectar a V o [D]), la visualizaci´on de primer nivel de los datos se define como:

IV ([D],V,I) (1)

Visualizaci´on de segundo nivel Tomando como base la visualizaci´on de primer nivel que va a ser afectada [IV ], una visualizaci´on para desplegar los datos realizados sobre

el primer nivel V 2 la interacci´on o manipulaci´on disponible dentro de la visualizaci´on de

35 segundo nivel I”, la visualizaci´on de segundo nivel se define como:

IV ”([IV ], V ”,I”) (2)

Dentro del segundo nivel, la interacci´on (I”) debe permitir la selecci´on del foco de inter´es y cambiar la visualizaci´on acorde a dicha selecci´on. Adicionalmente, I.es responsable de consultar el primer nivel (IV) para determinar posibles par´ametros del segundo nivel como el grado de inter´es DOI, el nivel de detalle de un objeto de acuerdo a su distancia con respecto al foco y la definici´on del conjunto de objetos que conforman el contexto, como resultado, se obtiene un indicador del grado de importancia W(.,x) de cada objeto (x) con respecto al foco (.).

Una vez determinados los grados de importancia de cada uno de los objetos a visuali- zar, V”puede determinar el conjunto de objetos y los par´ametros usados por IV para actualizar los cambios de foco y contexto. Para esto V”debe usar una funci´on de umbral T que depende de los par´ametros de la pantalla s, la resoluci´on r y los recursos computacio- nales disponibles c: T( s, r, c ). Por ´ultimo el contenido de la visualizaci´on de primer nivel

IV se determina seg´un los grados de importancia y el umbral predeterminado as´ı: (W(.,x)

¿T). La visualizaci´on de segundo nivel V.esta conformada por los siguientes m´odulos:

F+C layout manager

Determina como se posicionan los componente u objetos dentro del ´area de la pan-

talla, puede ser implementada de diferentes formas dando lugar al uso de diferentes

t´ecnicas de foco+contexto, definiendo el comportamiento de los objetos ante cambios

de foco o adici´on/eliminaci´on de objetos en la jerarqu´ıa de informaci´on.

F+C visualizer

Se encarga de pintar (recursivamente, si se trata de una visualizaci´on jer´arquica

en donde fueron definidos varios niveles de visualizaci´on: V, V”, etc.) los objetos

seleccionados por el m´odulo anterior.

36 Figura 11: T´ecnica flip zooming.

3.3.4.7. Fishears

Esta t´ecnica incluye es uso m´etodos foco+contexto en un ambiente multimodal por medio de un h´ıbrido entre despliegue gr´afico y audio 3D. El objetivo es afrontar el proble- ma del espacio limitado de las pantallas y al mismo tiempo reducir el tiempo empleado y la dificultad de relocalizaci´on del usuario cuando finaliza una tarea asociada a un foco de inter´es por medio de un despliegue constante del contexto con la ayuda de audio 3D, de esta forma el usuario se concentra en la ejecuci´on de tareas sobre el foco de inter´es y en la exploraci´on necesario para la selecci´on de los mismos [28].

Esta t´ecnica es utilizada en la ejecuci´on de tareas sobre puntos posicionados en mapas.

El usuario usa una pantalla para visualizar su localizaci´on sobre un mapa y determinar si ha alcanzado un foco de inter´es para realizar una tarea asociada a dicho foco. Por otro lado, utiliza un dispositivo de audio 3D sobre su cabeza para orientarse en el contexto y determinar la direcci´on que debe tomar (con controles acoplados a la pantalla) para alcanzar el lugar de inter´es determinado. La intensidad o detalle con que se presenta el audio de un objeto dentro del contexto est´adeterminado por unas zonas de prioridad que dependen de la importancia .a priori”.

37 Figura 12: T´ecnica ZUI.

3.3.4.8. Flip zooming

Est´at´ecnica foco+contexto se basa en la diferenciaci´on de tama˜nos en una superficie de despliegue de tama˜no fijo, presentando el foco centrado ocupando aproximadamente el 50 % del ´area visual y el contexto en el ´area restante posicionado en la periferia con respecto al foco. Es una t´ecnica bastante simple que no implica deformaciones espaciales ni transformaciones geom´etricas costosas en t´erminos computacionales. Las representaciones gr´aficas para mostrar el contexto pueden ser res´umenes (en el caso de colecciones de texto) o iconos. Sin embargo, solo funciona adecuadamente con un n´umero peque˜no de objetos y no puede mantener relaciones jer´arquicas visuales entre el foco y el contexto aunque permite realizar b´usquedas interactivas [53].

3.3.4.9. Contexto e interacci´on en ZUI (Zoomable User Interfaces)

Esta t´ecnica propone el uso de contextos temporales que son desplegados por medio de una capa (layer) con transparencia sobre la vista que muestra el foco de inter´es al usuario.

Adicionalmente, se puede mostrar otra capa con el hist´orico o el recorrido que ha realizado el usuario sobre la jerarqu´ıa (met´afora YAH1 [10]). La capa de contexto puede contener una representaci´on de la jerarqu´ıa de informaci´on visualizada (se˜nalizando la posici´on ac- tual del usuario) u otras ayudas visuales que permiten que el usuario reconozca el contexto

1You Are Here, t´ecnica de interacci´on para navegaci´on

38 del foco de inter´es. El manejo de la transparencia sobre las capas, permite que el usuario tenga acceso visual simult´aneo a varias de estas [28][19].

La exploraci´on del contexto puede incluir algunos m´etodos de zoom sem´antico para opti- mizar el despliegue de los nodos de informaci´on cuando la jerarqu´ıa es muy grande o la representaci´on gr´afica de los nodos es compleja. Las ayudas temporales (activadas o desac- tivadas seg´un lo requiera el usuario) ofrecidas por esta t´ecnica se resumen de la siguiente forma:

Capa de contexto

Permite que el usuario seleccione el foco de inter´es con respecto a la representaci´on

global de la jerarqu´ıa de informaci´on.

Capa con la ruta hist´orica de navegaci´on

Permite que el usuario re-visite la ruta que tomo dentro de la jerarqu´ıa de informa-

ci´on para alcanzar la posici´on actual.

Representaci´on de la jerarqu´ıa de informaci´on

Esta representaci´on gr´afica de la jerarqu´ıa (por medio de t´ecnicas como ´arboles

hiperb´olicos, ”tree cones”, etc.) permite que el usuario siempre revise en que parte

de la jerarqu´ıa se encuentra y adem´as permite que el usuario se localice (met´afora

de tele-transportaci´on) en otro lugar de la jerarqu´ıa de manera r´apida.

La interacci´on con el usuario se realiza a trav´es de controles que permiten variar la escala de cada una de las capas as´ıcomo su nivel de transparencia. Este enfoque requiere una clara diferenciaci´on entre la visualizaci´on del foco de informaci´on y las vistas asociadas a las representaciones gr´aficas de los contextos. Otra consecuencia favorable de este tipo de controles es que el usuario puede identificar r´apidamente cual es la capa de contexto que mas le facilita la selecci´on del foco de inter´es. Por otro lado, los gestos realizados por

39 el usuario deben ser definidos cuidadosamente para que no interfieran con la ejecuci´on de actividades sobre el foco de inter´es.

La capa con la ruta de navegaci´on debe codificar el orden de navegaci´on y la relaci´on

(tama˜no, apariencia, distancia, etc.) entre los nodos que han sido visitados y mostrar de manera muy tenue los siguientes nodos que pueden ser visitados. Tanto la capa con la representaci´on de la jerarqu´ıa como la de contexto deben codificar con marcas visuales las caracter´ısticas de los objetos (escala, tipo, etc.). Adicionalmente, se deben etiquetar los objetos con sus respectivos identificadores (c´odigos, nombres, etc.) por medio de ”tool tips.o mecanismos similares. Este etiquetado puede ser activado con un cursor por medio

de cron´ometros para no sobrecargar la visualizaci´on, se recomiendan otro tipo de marcas

que permitan identificar r´apidamente los ancestros y descendientes cuando un nodo es

seleccionado como foco de inter´es. Esta t´ecnica propone el uso de un control de men´us

(¸control menu”) para realizar las operaciones b´asicas de pan, zoom, etc., este men´uopera

seg´un el contexto y se opera por medio de la combinaci´on de selecci´on y movimientos del

rat´on.

3.3.5. Otras t´ecnicas

Radial Layout

Visualizaci´on de jerarqu´ıas de informaci´on por medio de ilustraciones que muestran

los nodos del ´arbol orientados desde el centro (ra´ız) de manera radial variando el

tama˜no de cada nodo seg´un su distancia a la ra´ız [61].

Fisheye

Representaci´on del foco de inter´es por medio de distorsi´on 2D y presentaci´on del

foco por medio de informaci´on perif´erica [16].

40 Figura 13: T´ecnica de ´arboles radiales.

Figura 14: Men´ufisheye.

41 Figura 15: T´ecnica cone tree.

Figura 16: T´ecnica treemap.

Cone Tree

Visualizaci´on de un ´arbol en 3D que permite seleccionar nodos de inter´es por medio de la rotaci´on de las uniones de los nodos. Sin embargo, requiere de animaciones para mantener la informaci´on de contexto y no funciona bien con jerarqu´ıas grandes

[49].

Treemaps

Visualizaci´on de jerarqu´ıas de informaci´on por medio del fraccionamiento de todo el espacio para mostrar el nodo de inter´es y sus descendientes, asignando espacio seg´un las propiedades de los nodos. Sin embargo, se pierde el contexto cuando la selecci´on del foco de inter´es ha recorrido varios niveles en la jerarqu´ıa debido a que no se muestran los ancestros. Algunas implementaciones permiten establecer relaciones de contenencia por medio del uso de c´ırculos jerarquizados (nested) [20].

Java pyramids explorer

Visualizaci´on y exploraci´on de jerarqu´ıas de informaci´on en 3D por medio de la integraci´on de las API Java 2D y OpenGL con t´ecnicas de interacci´on del tipo

42 Figura 17: T´ecnica JPE.

Figura 18: T´ecnica tablelens.

VRML. La selecci´on de focos de inter´es se realiza a trav´es de comandos para colapsar

o expandir sub´arboles de la jerarqu´ıa [30].

Aplicaciones comerciales

Existen algunas aplicaciones comerciales 2 del tipo foco+contexto, desarrolladas

con el objetivo de brindar soporte a tareas relacionadas con el procesamiento de

jerarqu´ıas de informaci´on grandes como reconocimiento de patrones, redise˜no, co-

rrelaci´on, visualizaci´on de taxonom´ıas complejas, etc. por medio de la definici´on de

eventos y diferentes tipos de representaciones gr´aficas.

Adicionalmente, otros proyectos utilizan t´ecnicas de visualizaci´on para presentar

jerarqu´ıas de informaci´on relacionadas con el desarrollo de software, aunque sin

2http://www.inxight.com

43 Figura 19: T´ecnicas de visualizaci´on de jerarqu´ıas de software.

brindas soporte a m´etodos 3D [55].

Tomando en cuenta las caracter´ısticas visuales e interactivas e las t´ecnicas presentadas, se

pretende usar un ´arbol hiperb´olico debido a que es una t´ecnica que facilita mostrar un re-

sumen global de la estructura jer´arquica que almacena la informaci´on y permite seleccionar

f´acilmente uno de sus nodos para mostrar los detalles de los nodos activos o seleccionados

as´ıcomo los resultados de la interacci´on con ´estos. Por otro lado, permite agregar marcas

visuales como iconos y codificaci´on por colores que facilitan la localizaci´on y b´usqueda de

los objetos seg´un su escala o su estado de selecci´on de manera similar a la t´ecnica YAH3

[14]. Adicionalmente, este tipo de t´ecnica permite usar otras ayudas como animaciones o

transiciones espaciales y de color que permiten diferenciar los objetos de inter´es (centro)

de los objetos que tiene pocas relaciones con el objeto seleccionado (periferia), variando

su tama˜no y agrup´andolos por medio de iconos cuando no son representativos.

3.4. Revisi´on de t´ecnicas de Tiling

Algunas estructuras de aspecto org´anico que existen en la naturaleza est´an compues- tas por miles o millones de subpartes. Las t´ecnicas de tiling permiten visualizar areas o

3YAH: You are here

44 Figura 20: Conjunto de cardinalidad 13 para el tiling propuesto por Karen y Culic.

vol´umenes compuestos por dichas subpartes por medio del uso de un conjunto finito de

baldosas o fichas que se pueden ensamblar a manera de domin´ocon el fin de imitar las

variaciones o ruido que presentan las estructuras org´anicas del mundo real.

3.4.1. Definici´on

Los domin´os de Wang (Wang tiles) representan un conjunto de cuadrados de igual

tama˜no, con un color asignada en cada una de sus caras y con orientaci´on fija. El pro-

blema planteado es tratar de cubrir una superficie 2D posicionando cuadros consecutivos

pertenecientes al conjunto, haciendo que corresponda los colores de las caras de cuadrados

adyacentes.

El resultado es un espacio (2d o 3D) cubierto por un patr´on (geometr´ıa o textura) que per-

mite representar im´agenes o escenas con apariencia similar a los procedurales encontrados

en la naturaleza o un tejido compuesto por cientos o miles de unidades funcionales a nivel

celular; como en el caso de inter´es de este proyecto. Uno de los objetivos del uso de estas

t´ecnicas es visualizar vastos espacios de apariencia realista por medio de la combinaci´on

de un conjunto finito de domin´os en una forma fluida e interactiva.

En 1961 Hao Wang propuso un algoritmo para resolver el problema, aclarando que se

repetir´ıan patrones (tiling peri´odico) en la superficie del plano cubierto. Sin embargo,

en 1966 Robert Berger demostr´oque era posible encontrar un conjunto de domin´os que

cubrieran una superficie de manera no peri´odica [18][13].

45 3.4.2. T´ecnicas de tiling

El algoritmo planteado inicialmente por Hao Wang era incorrecto. Actualmente, se ha determinado que en realidad dicho algoritmo no existe, debido a su relaci´on con la predicci´on de terminaci´on que tiene una m´aquina de Turing. El contenido de los domin´os puede ser geometr´ıa o textura. La forma de cubrir el plano con los domin´os es posicionarlos de izquierda a derecha y de arriba abajo, con la restricci´on de coincidencia entre caras y teniendo en cuenta las siguientes consideraciones usando por lo menos ocho domin´os para generar un patr´on o textura no repetitivos: Tanto horizontal como verticalmente se tienen dos posibles colores, existen cuatro posibles combinaciones para la cara izquierda-superior del siguiente domin´oa posicionar, cuando se duplica el n´umero de domin´os con cualquier combinaci´on para la cara izquierda-superior se agrega una posibilidad adicional para se- guir cubriendo el plano.

En general se requiere un n´umero de domin´os para cubrir una superficie igual al n´umero de colores en uso (c) elevado al m´aximo n´umero de caras presente en un solo domin´o(e).

Adicionalmente, para asegurar que el tiling sea aleatorio es necesario incrementar este valor por un factor. Las caracter´ısticas m´as importantes de las texturas utilizadas en la aplicaci´on de estos conceptos son:

1. Localidad Cualquier textura a gran escala tiene la apariencia de estar compuesta

por partes peque˜nas similares con algunas variaciones en el espacio del color o en la

geometr´ıa.

2. Naturaleza estoc´astica. A medida que se explora o visualiza la textura, no se ven

patrones o artefactos repetitivos o por lo menos con un per´ıodo de ocurrencia alto.

46 Figura 21: Conjunto v´alido de domin´os de Wang.

3.4.3. Tiling 2D

Esta t´ecnica permite crear un conjunto peque˜no de muestras que representa comple- jidad para que sea reutilizado muchas veces. De esta forma, es posible crear superficies grandes recubiertas con texturas complejas, patrones o geometr´ıa pre-iluminada en tiem- po de ejecuci´on o despliegue, al mismo tiempo en que se evitan artefactos peri´odicos o patrones repetitivos [31][6].

Parte del trabajo previo relacionado con esta t´ecnica tiene que ver con la construcci´on de geometr´ıa o texturas con restricciones a nivel de caras o esquinas y la creaci´on de escenas complejas con varios niveles de detalle en las que se buscaba mantener una apa- riencia visual realista durante su exploraci´on. Adem´as de codificar los lados de los domin´os presentas en el tiling para mantener las coincidencias cuando se cubre una superficie. Es necesario solucionar el problema de coincidencias cuando el contenido de cada uno de los domin´os es una muestra para construir patrones. Una de las soluciones planteadas es co- dificar las caras y las esquinas por medio de un bit adicional de informaci´on que tambi´en le asigna un color a cada una de las esquinas.

3.4.4. Tiling 3D

El concepto Wang puede ser extendido a 3 dimensiones y pasar de domin´os a cubos

(con colores definidos en cada una de sus 6 caras) con el objetivo de aplicar dichos cubos para crear escenas interesantes y cubrir espacios con sistemas de part´ıculas, geometr´ıa,

47 Figura 22: Escena construida con cubos de Wang constituidos por geometr´ıa 3D. plasma, etc. El algoritmo para cubrir un espacio 3D es similar al bidimensional, pero aho- ra se requiere hacer que coincidan 3 de las caras del nuevo cubo a posicionar con los cubos que ya hacen parte del espacio. Una de las t´ecnicas encontradas [21], centra su estudio en la construcci´on de un conjunto no peri´odico de cubos de Wang. Al igual que en las t´ecnicas

2D, los cubos no pueden ser rotados y est´an representados por medio de una tupla (l, r, f, g, t, b) que codifica los colores asignados a cada cubo para las caras izquierda, derecha, anterior, posterior, superior e inferior respectivamente. Los desarrollos alcanzados con esta t´ecnica permitieron hallar un conjunto de trece cubos que requiere del uso de 5 colores para realizar tilines no peri´odicos (dicho conjunto hab´ıa sido inicialmente definido con

20426 cubos). La determinaci´on de dicho conjunto se realiza a trav´es de la construcci´on de maquinas secuenciales o aut´omatas en las que los alfabetos de entrada/salida, los conjun- tos de posibles estados y las transiciones est´an dise˜nadas para minimizar el conjunto de cubos necesarios para que se puede construir tiling no peri´odico con base en la codificaci´on de los cubos y las correspondencias que deben existir cuando se posicionan en el espacio a cubrir. De la misma forma se muestra como el m´etodo puede ser generalizado para 3 dimensiones. Otra t´ecnica utiliza [47] conjuntos de cubos de Wang para acelerar y optimi- zar el proceso de posicionamiento de geometr´ıa compuesta por patrones similares y en la s´ıntesis de video. Los experimentos realizados con geometr´ıa est´an orientados a visualizar representaciones de cadenas de asteroides por medio de cubos de Wang con muestras de

48 Figura 23: Cubo de Wang codificado por colores en 3D.

Figura 24: Cubos de Wang con informaci´on geom´etrica. asteroides construidas por medio de distribuciones de Poisson e iteraciones del m´etodo de

Lloyd para garantizar las restricciones geom´etricas relacionadas con puntos e interseccio- nes en la frontera. El resultado fue un cadena no peri´odica de 5958 asteroides, construidos a partir de 3972 cubos con 15 muestras de geometr´ıa en su interior. El c´alculo de los cubos tom´oalrededor de 20 minutos, pero el proceso de tiling solo tom´o20 segundos. Los experimentos realizados que est´an relacionados con la s´ıntesis de video buscaban simular los efectos c´austicos de una piscina por medio del uso de cubos de Wang para almacenar voxeles (64*64*64 en cada cubo) con informaci´on de video correspondientes a frames de video. De esta forma, es posible simular infinitamente la superficie de una piscina, aunque con la presencia de ciertos artefactos temporales que se deben al tama˜no de los cubos.

Existen otras t´ecnicas de este estilo [36], que buscan hacer tiling en escenas 3D por medio del uso de texturas volum´etricas contenidas en cubos de informaci´on volum´etrica llamados texeles o cubos de informaci´on geom´etrica intravoxel que permiten visualizar estructuras por medio del posicionamiento consecutivo de estas estructuras.

49 Figura 25: Codificaci´on binaria en cubos de Wang.

Otra t´ecnica relevante [3], presenta nuevas alternativas para la representaci´on de cubos de

Wang con 2 colores por cara los cuales pueden ser representados por cadenas binarias del tipo 000001 que representa un cubo de Wang en el que todas sus caras usan el primer color a excepci´on de la cara superior que usa el segundo . Esta t´ecnica presenta otros avances como el uso de cubos de Wang a diferentes niveles de detalle con el fin de visualizar tiling multi-resoluci´on y definen cubos de Wang anisotr´opicos que permiten representar propie- dades de los objetos partiendo de informaci´on sobre el gradiente, curvatura o informaci´on volum´etrica La t´ecnica de cubos de Wang ser´autilizada en ´este proyecto para representar tejidos compuestos por miles de unidades funcionales celulares, construyendo una muestra de cubos de Wang reducida con muestras de geometr´ıa con peque˜nas variaciones de escala y orientaci´on con el fin e tratar de imitar la no periodicidad y el aspecto org´anico de dichos tejidos.

50 Cap´ıtulo IV

Metodolog´ıa y dise˜no de un prototipo de material

educativo

Este cap´ıtulo describe la metodolog´ıa llevada a cabo para desarrollar este proyecto, incluyendo la definici´on de los roles involucrados, un an´alisis de las necesidades educativas y las caracter´ısticas del material educativo computarizado (MEC ) propuesto.

4.1. Roles

Como etapa inicial se definieron los roles participantes para desarrollar el proyecto seg´un los perfiles y las especialidades requeridas para los procesos de creaci´on de contenidos multimedia 2D y 3D, dise˜no del modelo pedag´ogico a seguir y desarrollo de software. En definitiva, los roles involucrados en el desarrollo y creaci´on del proyecto son:

Experto en contenido

Profesor o persona encargada de la ense˜nanza que en este caso debe ser un m´edico

que conozca muy bien los contenidos y los procedimientos pedag´ogicos existentes

que deben ser mejorados.

Asesor

Garantiza una soluci´on integradora frente a los requerimientos propuestos y propone

el uso adecuado de los recursos disponibles. En este caso debe ser una persona con un

51 conocimiento amplio de las tecnolog´ıas existentes y con experiencia en la direcci´on

y desarrollo de proyectos de este tipo.

Pedagogo

Define un modelo pedag´ogico basado en los requerimientos y en los aportes y nece-

sidades expresadas por el experto en contenido.

Evaluador

Asesora el dise˜no de un sistema de evaluaci´on coherente con el modelo pedag´ogico.

Dise˜nador gr´afico

Crea una propuesta gr´afica compuesta por contenidos 2D y 3D que sea coherente

con el modelo pedag´ogico, con el tipo de material y con la poblaci´on objetivo.

Experto en tecnolog´ıa

Realiza las tareas de desarrollo, configuraci´on y despliegue de los ejecutables del

proyecto por medio de los recursos tecnol´ogicos e inform´aticos disponibles.

Debido a que este proyecto esta orientado a desarrollar un atlas m´edico interactivo del ri˜n´on humano que busca mejorar los procedimientos pedag´ogicos existentes utilizando t´ecnicas de visualizaci´on 3D, integraci´on de contenidos multimedia y el uso de t´ecnicas de interacci´on apropiadas, la metodolog´ıa de trabajo estuvo orientada al trabajo en grupo por medio de reuniones peri´odicas que permitieron el refinamiento, la retroalimentaci´on y la validaci´on de los aportes de m´edicos, pedagogos, artistas e ingenieros de sistemas.

4.2. An´alisis de las necesidades educativas

Es necesario determinar los problemas detectados en cada uno de los siguientes aspectos relacionados con la construcci´on del MEC:

1. Los estudiantes A partir de la experiencia como estudiantes de medicina de otras

facultades y por consenso de varios profesores actuales de la facultad de medicina

52 de la Universidad de Los Andes, es sabido que el material usualmente disponible

para el estudio de la estructura microsc´opica del ri˜n´on (2D) es insuficiente para un

adecuado y m´as r´apido entendimiento de dicha estructura, al igual que su relaci´on

con los procesos normales (fisiolog´ıa) y patol´ogicos.

2. El profesor Igualmente, los profesores no cuentan hasta ahora con herramientas

que permitan entender la compleja estructura microsc´opica del ri˜n´on en t´erminos

espaciales con un marco de referencia 3D.

3. Los materiales utilizados

No proveen informaci´on que facilite la comprensi´on del funcionamiento de es-

tructuras microsc´opicas.

Est´an orientados al entrenamiento en la interpretaci´on de la informaci´on pre-

sente en im´agenes o cortes que no contienen informaci´on espacial ni de con-

texto.

El tiempo dedicado al estudio del tema es probablemente excesivo en relaci´on

con el detalle del aprendizaje obtenido por los estudiantes.

La metodolog´ıa aplicada en la ense˜nanza suele ser la tradicional, excepto por

la introducci´on de herramientas virtuales como los atlas electr´onicos.

Con base en los problemas mencionados, ser´an definidos los requerimientos (Cap´ıtulo

5) necesarios para solucionar las necesidades educativas relacionadas con los contenidos desde el punto de vista de los profesores y estudiantes; as´ı como las herramientas necesarias para complementar los mecanismos pedag´ogicos existentes.

4.3. Relaciones profesor-estudiante-contenido

Teniendo en cuenta el prop´osito de facilitar la construcci´on del conocimiento del estu-

diante a partir del uso de sus propias habilidades individuales para interpretar, argumentar

53 y proponer nuevas ideas, por medio del uso de herramientas computarizadas, es necesario establecer como se llevaran a cabo las siguientes relaciones:

1. Relaci´on profesor-estudiante

El profesor introduce al estudiante en el uso y las capacidades de la herramien-

ta.

El profesor expone el tema con la ayuda de la herramienta.

El profesor resuelve las dudas de los estudiantes, generadas por un uso pos-

terior e individual de la herramienta para reforzar/repetir los conocimientos

expuestos en clase.

2. Relaci´on estudiante-estudiante

El estudiante podr´autilizar la herramienta para explicar procesos fisiol´ogicos o ex-

poner la estructura microsc´opica a otros estudiantes.

3. Relaci´on estudiante-contenido

El estudiante asiste al uso de la herramienta por parte del profesor para explicar

el tema.

El estudiante revisa la documentaci´on provista para instalar/utilizar la herra-

mienta en un ambiente diferente al sal´on de clase (salas de c´omputo, casa).

El estudiante repite los procedimientos realizados en clase por el profesor para

reforzar su aprendizaje y adem´as usa la herramienta para explorar el contenido

de formas que aclaren dudas o complementen sus conocimientos.

4.4. Caracter´ısticas del material educativo

Con base en la revisi´on sobre desarrollo de software educativo presentada en el capi- tulo anterior, el material educativo desarrollado en este proyecto esta orientado al control

54 del aprendizaje con una met´afora de di´alogo en la que profesores y estudiantes tienen la responsabilidad mutua de adquirir conocimiento por medio de las herramientas y conten- didos proporcionados por la aplicaci´on.

Dentro de la aplicaci´on, el aprendizaje se orienta la compresi´on de estructuras anat´omicas complejas por medio de la ejecuci´on de secuencias predeterminadas de actividades como la selecci´on o manipulaci´on de partes anat´omicas. Adicionalmente, el ambiente 3D pro- puesto permite que el usuario o estudiante explore el ambiente contenedor de las partes anat´omicas y los contenidos multimedia, permitiendo que la reproducci´on de situaciones, la correlaci´on entre los diferentes tipos de contenido y la reorientaci´on en caso de intentos fallidos o errores. En resumen, el ambiente propuesto representa un enfoque algor´ıtmi- co centrado en la transmisi´on de conocimientos, habilidades y destrezas por medio del descubrimiento y apropiaci´on de conocimientos.

55 Cap´ıtulo V

Definici´on de requerimientos

Este cap´ıtulo presenta algunos aspectos relacionados con la definici´on de los requeri- mientos del proyecto como las variables de entorno, poblaci´on objetivo, retroalimentaci´on y variables de software y hardware [42][4].

5.1. Variables de entorno relacionadas con la aplicaci´on

A continuaci´on se presentan las variables que definieron el entorno del MEC y los factores a tener en cuenta en cada una:

5.1.1. Poblaci´on objetivo

Se busca un impacto significativo en t´erminos del n´umero de estudiantes tomados en cuenta y de la relevancia de los contenidos/curso para la formaci´on profesional del estudiante. Se espera que el nivel de entendimiento logrado sea superior al que se obtiene con herramientas tradicionales.

Nivel educativo

El nivel educativo m´ınimo esperado de la poblaci´on objetivo es el de pregrado asocia-

do a un conocimiento b´asico de computadores y software convencional. Los usuarios

primarios ser´an estudiantes y profesores del curso cuyo tema es la anatom´ıa, fisio-

log´ıa y patolog´ıa del ri˜n´on, los usuarios secundarios ser´an estudiantes o m´edicos que

usen la aplicaci´on como material de consulta.

56 Intereses y expectativas con respecto al tema

Comprender la estructura y el funcionamiento del ri˜n´on a diferentes niveles, desde

la visi´on macrosc´opica hasta la celular.

5.1.2. Area´ de contenido

Se define como contenido, unidad de instrucci´on o tema la anatom´ıa del ri˜n´on para estudiantes de medicina. La informaci´on ser´apresentada en niveles de detalle predeter- minados: Ri˜n´on a nivel macro, corteza, la m´edula, el c´aliz, las arterias y venas renales, tejido compuesto por nefrones y finalmente el glom´erulo. Se tienen como antecedentes de problemas presentados con el material existente que contiene im´agenes 2D: fotograf´ıas, microscop´ıas, cortes sagitales, axiales, etc., que no muestran informaci´on de profundidad ni de referencia o contexto. Por otro lado, se tienen problemas con la ense˜nanza del conte- nido existente, relacionados con la dificultad en tratar de explicar como funciona o como es una estructura tridimensional a partir de im´agenes e informaci´on en 2D.

5.1.3. Necesidad educativa

Se tienen como problemas educativos a resolver:

1. Limitaciones en la comprensi´on y el aprendizaje de la estructura y el funcionamiento

de unidades funcionales microsc´opicas y complejas del ri˜n´on humano, las cuales en

su mayor´ıa son presentadas por medio de cortes 2D y sin informaci´on volum´etrica.

2. Sensibilizar al estudiante a la necesidad de entender la conformaci´on y el funciona-

miento de las estructuras microsc´opicas que componen el ri˜n´on humano.

3. Mejorar la comunicaci´on, que a futuro existir´aentre el m´edico cl´ınico y el pat´ologo.

4. Lograr un profundo entendimiento de la estructura microsc´opica del ri˜n´on que per-

mite entender m´as f´acilmente los mecanismos fisiol´ogicos y los patol´ogicos.

57 En justificaci´on, con respecto a problemas pedag´ogicos, se proponen las siguientes fases para el proceso de ense˜nanza-aprendizaje:

Fase introductoria

Motivaci´on a partir de la presentaci´on (en video) de un caso m´edico real en el que

interviene un m´edico y un paciente con s´ıntomas que requieren una biopsia renal.

Fase de orientaci´on inicial

Tomando en cuenta el video presentado, exponer el software como medio para ana-

lizar y diagnosticar una biopsia renal en complemento a los conocimientos obtenidos

anteriormente o en otros cursos.

Fase de aplicaci´on

Cada estudiante usa el software para entender, explorar y experimentar con respecto

a los conocimientos expuestos por el profesor, adicionalmente, relaciona los conceptos

aprendidos con aquellos presentes en el material existente.

Fase de retroalimentaci´on

El software puede presentar ejercicios que eval´uen la localizaci´on, la fisiolog´ıa, la pa-

tolog´ıa y el prop´osito de las estructuras renales presentadas. El profesor atender´alas

dudas presentadas en clase.

5.2. Variables de comunicaci´on

Las siguientes variables est´an relacionadas con las interfaces (GUI) y los posibles dis- positivos de entrada/salida utilizados por el usuario para interactuar con el material edu- cativo computarizado (La distinci´on entre los diferentes ambientes de ejecuci´on propuestos ser´arevisada en el pr´oximo cap´ıtulo):

58 Cuadro 1: Dispositivos utilizados

Dispositivo Selecci´on Manipulaci´on Entrada simb´olica Teclado NO NO SI Mouse SI SI NO Finger Mouse SI SI NO Tracker NO SI SI

Cuadro 2: Controles utilizados Control Uso S´ımbolos/Grafos Selecci´on Foco+Contexto Gr´aficos Contenido 2D Men´us, Sliders Selecci´on y Manipulaci´on Tracking Selecci´on y Manipulaci´on

Dispositivos de entrada

Dispositivos utilizados por el estudiante/profesor para indicar sus decisiones, ins- trucciones o comandos. Cabe mencionar que las tareas de selecci´on hacen referencia al uso de t´ecnicas de foco+contexto.

Interfaz de entrada

Controles utilizados por el estudiante/profesor para indicar sus decisiones o instruc- ciones.

Dispositivos de salida

El dispositivo utilizado para visualizar el resultado de la interacci´on con el estudian- te/profesor es un monitor (CRT o FLT) convencional con una resoluci´on m´ınima de

1024x768 y color verdadero (24 bits) o unos proyectores est´ereo de alta luminosidad y alta resoluci´on.

59 Interfaz de salida

Formato o estructura de los mensajes, gr´aficos, animaciones, etc. que van a ser

presentados como resultado al estudiante por medio de los dispositivos de salida:

Mensajes de texto (selecci´on), contenido 2D (videos e hipertexto), gr´aficos e ´ıconos

(comandos y se˜nales de navegaci´on), modelos 3D (partes y estructuras del ri˜n´on) y

animaciones (procesos fisiol´ogicos y/o patol´ogicos).

5.3. Requerimientos

Se definen como requerimientos funcionales:

Poder observar las estructuras macrosc´opicas y seleccionar una o varias.

Poder cambiar la escala (nivel de detalle) para observar estructuras mas peque˜nas.

Poder observar las estructuras microsc´opicas y seleccionar una o varias.

Poder manipular (rotar, trasladar) las estructuras seleccionadas.

Creaci´on de un ambiente amigable de manipulaci´on tridimensional que permita que

estudiantes de medicina puedan examinar y explorar las estructuras que componen

el ri˜n´on humano.

Poder suministrar una aplicaci´on que no requiera equipos ni asistencia profesional

para que sea configurada y operada por estudiantes y que facilite el proceso de

aprendizaje.

Se definen como requerimientos no funcionales:

Desempe˜no

El sistema debe proveer una actualizaci´on visual interactiva de aproximadamente

30 cuadros por segundo, independientemente de que se est´en ejecutando tareas de

selecci´on o manipulaci´on.

60 Latencia

El tiempo entre la ejecuci´on de una maniobra de interacci´on de un humano y la res- puesta a dicha interacci´on por parte de la aplicaci´on debe ser m´ınima e inapreciable para el usuario.

Precisi´on/Exactitud

El detalle y la localizaci´on de los modelos 3D utilizados deben ser lo suficientemente buenos como para representar de manera realista un proceso fisiol´ogico o patol´ogico.

De la misma forma la precisi´on en la manipulaci´on 3D debe permitir que la expe- riencia visual y la exploraci´on de las estructuras del ri˜n´on se asemeje a las realizadas en un ambiente cl´ınico real.

Robustez

La aplicaci´on debe ser capaz de desplegar modelos 3D, lo suficientemente detallados y completos, como para facilitar las tareas de aprendizaje sin sacrificar el grado de interactividad suministrado al usuario para evitar factores como la fatiga y el cansancio.

Escalabilidad

La aplicaci´on debe permitir ser ejecutada en diferentes ambientes de hardware, di- ferentes sistemas operativos y contar con una herramienta de configuraci´on que permita intercambiar los dispositivos y las t´ecnicas de interacci´on involucrados.

Usabilidad

Es necesario realizar una evaluaci´on de usuario para medir los factores de usabilidad y aceptaci´on de la aplicaci´on en los distintos ambiente con el fin de medir con herramientas estad´ısticas las cualidades de cada uno de los ambientes de ejecuci´on.

61 Cap´ıtulo VI

Soluci´on propuesta

Antes de empezar, es necesario aclarar que en adelante, las apariciones de t´ermino

MEC 1 debe ser entendida indistintamente con el t´ermino T3DM 2 ; que representa el

nombre que tom´oel proyecto desde sus inicios. Este cap´ıtulo presenta la soluci´on propuesta

a las necesidades, objetivos y requerimientos presentados en los cap´ıtulos anteriores, ser´an

descritas las estructuras de datos, los contenidos, las herramientas desarrolladas y por

´ultimo el esquema general de funcionamiento. Los conceptos y los ejemplos expuestos son

independientes del ambiente de ejecuci´on, los cuales se discutir´an en el pr´oximo cap´ıtulo.

6.1. Tipos de contenido

El contenido del proyecto T3DM est´acompuesto por modelos 3D de las distintas partes

anat´omicas del ri˜n´on humano, videos de procesos fisiol´ogicos y patol´ogicos relacionados,

im´agenes 2D e hipertexto asociado. A continuaci´on se presentan las caracter´ısticas de cada

uno de estos contenidos.

6.1.1. Modelos 3D

Una de las primeras necesidades encontradas fue la creaci´on del contenido tridimen-

sional. La primera opci´on es el uso de reconstrucciones 3D del ri˜n´on humano, pero su

1Material educativo computarizado 2Tutoriales 3D para medicina

62 Figura 26: Modelos 3D creados para el proyecto. adquisici´on o creaci´on es dif´ıcil debido a que las t´ecnicas de reconstrucci´on al nivel de detalle necesario se encuentran en una etapa inicial de desarrollo como se expuso en la revisi´on bibliogr´afica. Por otro lado, aunque comercialmente pueden ser adquiridos mo- delos 3D de algunas de las partes funcionales del ri˜n´on, estos no son apropiados por su costo o por las necesidades del proyecto, las cuales est´an orientadas a ofrecer contenido

3D esquem´atico y claro pero que tenga el detalle suficiente que requiere la ense˜nanza de temas tan complejos como la fisiolog´ıa renal.

En consecuencia, se inicio la creaci´on de los modelos 3D mas representativos del ri˜n´on en los niveles de detalle que contienen informaci´on fisiol´ogica o patol´ogica de inter´es con- forme a los objetivos del proyecto, es decir: el ri˜n´on a nivel macro, las pir´amides, venas y arterias renales, el nefr´on y secciones tubulares del glom´erulo inicialmente: Debido a que el ri˜n´on es un filtro masivamente paralelo de la sangre, la mayor´ıa de los esfuerzos de modelamiento y procesamiento de geometr´ıa 3D est´an focalizados en la estructura del glom´erulo, el ´organo principal en el filtrado y absorci´on de la sangre a nivel molecular. Los t´ubulos o capilares que conforman el glom´erulo as´ıcomo otras c´elulas como los podocitos y tejidos endoteliales son encargados de extractar orina de la sangre, en procesos que se quieren ilustrar en este medio. Es a este nivel que se encuentran las mayores deficiencias en los MECs consultados, y no se encuentra por lo tanto buenas ilustraciones que comple- menten las im´agenes de microscopia existentes.

63 El modelamiento 3D de las partes anat´omicas del ri˜n´on y sus estructuras internas fue realizado con Maya [5] y exportado al formato OBJ ASCII, las dificultades encontrados est´an en su mayor´ıa relacionadas con la creaci´on de estructuras complejas con apariencia org´anica. Para solucionar este tipo de problemas, fue necesario emplear un tiempo consi- derable aplicando operaciones de deformaci´on, extrusi´on, subdivisi´on y ajuste en modelos aproximados con superficies param´etricas, hasta alcanzar resultados ´optimos con respecto a los requerimientos de calidad y detalle. Los dem´as problemas encontrados est´an relacio- nados en su mayor´ıa con la creaci´on de la geometr´ıa, con la identificaci´on y discriminaci´on de los tejidos durante las tareas de modelado 3d, con el soporte adecuado a las tareas de aprendizaje requeridas y con el trabajo de encontrar el balance entre una ilustraci´on demasiado esquem´atica que no refleje la realidad y una ilustraci´on demasiado detallada que aumente los tiempos de respuesta y haga que la experiencia del usuario o el estudiante sea poco interactiva.

6.1.2. Informaci´on volum´etrica

Los contenidos con informaci´on volum´etrica son construidos con base en pilas de im´age- nes, que son procesados para ser convertidos en voxeles, estos a su vez son convertidos en estructuras de datos que representan texturas 3D (Figura 27) que pueden ser almacenadas en tarjetas aceleradoras gr´aficas 3D compatibles con OpenGL 1.5. Las pruebas que se rea- lizaron en la aplicaci´on, fueron realizadas con conjuntos de im´agenes tomadas del Proyecto del Humano Visible, mas exactamente del conjunto de datos perteneciente al hombre con cortes realizados a 1 mm. de distancia e im´agenes de criosecciones, resonancia magn´etica

(MRI) y tomograf´ıa computarizada (TAC). Los formatos soportados por la aplicaci´on son

TIFF, PNG, BMP y JPEG, sin embargo, el soporte a nuevos formatos se puede exten-

der f´acilmente debido al uso de interfaces JAI 3 para la lectura y el procesamiento de

3Java Advanced API

64 Figura 27: Informaci´on volum´etrica.

los archivos de imagen. La cantidad y la resoluci´on de las im´agenes que conforman la

informaci´on volum´etrica esta sujeta a las capacidades de memoria de la tarjeta gr´afica

utilizada, por ejemplo, 256 Mb. de memoria RAM son necesarios para cargar una pila de

256 im´agenes de criosecci´on con una resoluci´on de 512x512 pixeles, para que sea posible

manipular la textura 3D resultante en tiempo interactivo.

Por otro lado, se provee otro tipo de informaci´on volum´etrica compuesto por informa-

ci´on procedural. La textura 3D resultante es conocida como ruido Perlin [45] y permite

construir informaci´on volum´etrica de apariencia org´anica que es ´util para las texturas

de partes anat´omicas debido a que tiene un aspecto bastante natural (como se muestra

abajo en el ejemplo de la herramienta de corte). El ruido Perlin es construido a partir

de interpolaciones entre un gran n´umero de gradientes que definen valores que var´ıan

pseudo-aleatoriamente en el espacio o el tiempo.

6.1.3. Contenido multimedia 2D

La aplicaci´on permite que para cada uno de los objetos 3D que representan partes anat´omicas del ri˜n´on humano (que a su vez pueden ser seleccionados como objetos de inter´es), puedan ser asociados n archivos de contenido multimedia de tipo imagen, video

65 Figura 28: Contenido de tipo imagen.

Figura 29: Contenido de tipo video. o hipertexto. Cada uno de los contenidos tiene una etiqueta y una descripci´on que ser´an activados junto con el modelo 3D al que est´an asociados. La aplicaci´on soporta todos los formatos est´andar para multimedia, ´estos son, JPEG, BMP, TIFF, PNG y GIF para contenidos de tipo imagen, MPEG1, MPEG2, AVI y MOV para contenidos de tipo video y formato HTML con hojas de estilo para contenido de tipo hipertexto. Las im´agenes

28, 29 y 30 muestra en su lado derecho un ejemplo de contenido de tipo imagen, video e hipertexto respectivamente.

66 Figura 30: Contenido de tipo hipertexto.

6.2. Estructura de datos de soporte

Las t´ecnicas de interacci´on y las herramientas presentes en la aplicaci´on est´an sopor- tadas por una estructura de datos que almacena las relaciones que existen entre varios

´organos y la informaci´on asociada a cada uno de estos: geometr´ıa, texto asociado, videos o animaciones, im´agenes e hipertexto. Las relaciones definidas entre los ´organos o partes anat´omicas tridimensionales son:

Contenencia

Esta relaci´on representa las partes anat´omicas contenidas por otra, todas represen-

tadas en la misma escala.

Nivel de detalle

Esta relaci´on representa las partes anat´omicas contenidas por otra, observadas a

una escala diferente a la usada para representar a la parte contenedora.

La figura 31 muestra como ejemplo y de forma simplificada las relaciones de contenencia y nivel de detalle que se pueden definir en el sistema urinario. Inicialmente el sistema urinario

(A) puede tener relaciones de contenencia con partes anat´omicas como las arterias y venas renales (B), la uretra (D), y las pir´amides renales (C). Estas ´ultimas tienen una relaci´on

67 Figura 31: Relaciones de nivel de detalle y contenencia entre partes anat´omicas. de contenencia con formaciones de tejido que pueden contener cientos de nefrones (E), las cuales tienen una relaci´on de contenencia con tubos colectores o ramificaciones de capilares

(F) y una relaci´on de nivel de detalle con el nefr´on (G). El nefr´on a su vez mantiene una relaci´on de nivel de detalle con el glom´erulo (H). Porultimo ´ el mismo glom´erulo tiene tres relaciones de nivel de detalle con partes que contiene pero que deben apreciarse a una escala mucho mayor (10000 aumentos aproximadamente) para poder analizar su estructura y comportamiento fisiol´ogico. La misma figura muestra esquem´aticamente la estructura XML que utilizamos para almacenar la estructura de datos. El uso de esta estructura de datos permite al usuario navegar libremente por las relaciones, visualizando secuencialmente las partes y cambiando de escala de manera adecuada para mantener las relaciones espaciales y de contexto [22]. Adicionalmente, facilita la manipulaci´on de la geometr´ıa asociada (rotaci´on, traslaci´on, etc.), el despliegue de la informaci´on multimedia

68 asociada y la ejecuci´on de las herramientas (ver siguiente secci´on) asociadas a cada uno de los nodos.

6.2.1. Informaci´on almacenada

La estructura de datos esta segmentada de la siguiente forma:

1. Informaci´on de la escena

Estado inicial de la c´amara, modelo 3D seleccionado, color de fondo, estado e la

transparencia y de la herramienta de corte.

2. Jerarqu´ıa de partes anat´omicas

Contiene la informaci´on de partes anat´omicas dentro de nodos que preservan las

relaciones padre-hijo con las que aparecen en el mundo real. Cada nodo a su vez

contiene los conjuntos de contenidos organizados por tipo (ver secci´on anterior),

organizados de la siguiente forma:

Estado geom´etrico del objeto determinado por posici´on, orientaci´on y escala,

material, transparencia y texturas 2D/3D asociadas. Adicionalmente, se al-

macena un descriptor foco+contexto que almacena la relaci´on de escala con

respecto al nodo contenedor.

Informaci´on 3D de la parte anat´omica que representa, un nodo puede estar

compuesto por varios modelos 3D, cada uno con su correspondiente archivo

OBJ con la informaci´on referente a los v´ertices, caras, vectores normales de

iluminaci´on y coordenadas de textura asociados.

Arreglos para cada tipo de contenido, con sus correspondientes etiquetas y

descripciones.

69 Figura 32: Par´ametros de la c´amara

6.3. Herramientas

Las herramientas presentadas al usuario est´an relacionadas con t´ecnicas de visualiza- ci´on utilizadas para mostrar el objeto de inter´es (´organo, parte anat´omica, etc.), modificar el punto de vista y manipular las caracter´ısticas gr´aficas.

6.3.1. C´amara

Adicionalmente, el usuario puede manipular la orientaci´on de la geometr´ıa involucra- da y la configuraci´on de las c´amaras utilizadas para su visualizaci´on de tal forma que pueden ser activadas c´amaras tipo primera persona, c´amaras ancladas a los cambios de posici´on u orientaci´on, c´amaras para seguir el objeto de inter´es y c´amaras en posiciones predeterminadas que facilitan la visualizaci´on de las partes anat´omicas. La c´amara con que se inicia la aplicaci´on es una c´amara din´amica que sigue los cambios de orientaci´on y posici´on el objeto, puede ser configurada por medio de tres par´ametros (Figura 32) que permiten orbitar, cambiar la elevaci´on y realizar zoom sobre el objeto de inter´es.

6.3.2. Herramientas de corte

Una de las operaciones ´utiles en el proceso de aprendizaje es el corte de las estructuras

3D, el cual facilita la visualizaci´on de ´organos o partes anat´omicas del ri˜n´on desde puntos de vista arbitrarios por medio de la realizaci´on de cortes sobre la geometr´ıa de la parte anat´omica de inter´es y permite correlacionar el resultado del corte con la informaci´on pro- porcionado por el contenido de tipo imagen. Dichos cortes son realizados por medio de un

70 plano en el ambiente 3D, el cual es manipulado por el usuario para definir una orientaci´on arbitraria y la profundidad del corte. La figura 33 muestra ejemplos de la herramienta eje- cutada sobre modelos 3D sin textura 3D, con textura 3D de ruido Perlin y con informaci´on volum´etrica proveniente del Proyecto del Humano Visible respectivamente. Para visuali- zar estos cortes, utilizamos t´ecnicas que combinan el uso de texturas 3D procedimentales, el uso de arreglos de v´ertices para acelerar el despliegue de geometr´ıa tridimensional y operaciones con plantillas (stencil) sobre los buffers de profundidad y color; aunque se tiene propone el uso de librer´ıas [39][34] que permiten ejecutar operaciones de geometr´ıa s´olida constructiva sobre las representaciones 3D de las partes del ri˜n´on. Lo anterior fue implementado por medio de extensiones de OpenGL con el fin de optimizar y mejorar el desempe˜no de la aplicaci´on.

6.3.3. Edici´on de contenido

Como se mencion´oanteriormente, la aplicaci´on provee un modo de ejecuci´on de tipo autor que permite configurar la escena y las relaciones entre los contenidos. Este modo funciona a trav´es de una herramienta de edici´on que permite crear nodos, establecer rela- ciones y agregar o eliminar los contenidos asignados a una parte anat´omica determinada.

La edici´on se realiza sobre un control GUI de tipo ´arbol que codifica por medio de iconos y colores las relaciones y los tipos de contenido, de esta forma las im´agenes, los videos el hipertexto y los modelos 3D tiene asignados unos colores que facilitan su b´usqueda. El editor contiene un m´odulo de persistencia que permite almacenar el resultado de la edici´on en archivos con formato XML, que luego ser´an utilizados para ejecutar la aplicaci´on en modo usuario o en distintos ambientes por medio de la herramienta de configuraci´on (Ver pr´oximo cap´ıtulo).

71 Figura 33: Tipos de corte 3D

72 Figura 34: Herramienta de corte sobre secciones del glom´erulo.

Figura 35: Representaci´on fotorealista.

6.3.4. Representaci´on fotorealista

Esta herramienta permite que se cree un render o un video fotorealista con el estado de la escena visualizado en la vista 3D (Figura 35). El motor de render utilizado por esta herramienta es una implementaci´on del est´andar RIB Renderman especificado por Pixar 4 que soporta la configuraci´on de par´ametros de iluminaci´on global y radiosidad. El usuario esta en capacidad de determinar el tipo de resultado: imagen o video, as´ıcomo la calidad y la resoluci´on de las im´agenes resultado. Algunos de lo modelos 3D el ri˜n´on humano fueron

4Pixar Animation Studios - www.pixar.com

73 Figura 36: Ejemplos de representaci´on fotorealista. procesados por esta herramienta (Figura 36) con el fin de generar im´agenes de ejemplo que sirvieran a su vez como contenido de tipo imagen que facilite la comprensi´on de estructuras celulares complejas.

6.4. T´ecnicas de Foco+Contexto

El esquema mostrado en la figura 37 presenta las relaciones nivel de detalle y com- plejidad que se buscan presentar en el proyecto con respecto a los modelos 3D. La figura

37.A muestra una microscop´ıa SEM de un glom´erulo con 6000 aumentos, la figura 37.B muestra una aproximaci´on 3D correspondiente a la secci´on tubular del glom´erulo presen- tada en la imagen figura 37.A. Se busca que la correspondencia que exista entre un corte transversal realizado sobre el modelo 3D mostrado en la figura 37.B, realizado por una de las herramientas de corte provistas por la aplicaci´on desarrollada, corresponda de una manera apropiada con la microscop´ıa TEM de uno de los capilares del glom´erulo y su podocito adyacente (12000 aumentos) mostrados en la figura 37.C.

74 Figura 37: Im´agenes de microscop´ıa. Tomado de Atlas Histol´ogico de Ross [50].

6.4.1. Relaciones de contenencia y cambio de escala

Debido a la complejidad de algunas partes anat´omicas; como los cientos de nefrones o unidades funcionales del ri˜n´on con sus correspondientes estructuras celulares, es necesa- rio presentar mecanismos de foco-contexto [48][27] que permitan explorar dichos objetos a diferentes escalas o niveles de detalle sin perder la informaci´on de contexto y permi- tiendo navegar por cada una de ellas. Uno de las principales problemas de las interfaces foco+contexto es la dificultad para mostrar y mantener las relaciones padre-hijo presentes en la jerarqu´ıa cuando el nivel de detalle con el que se visualiza dicha estructura cambia.

La t´ecnica foco+contexto utilizada en la aplicaci´on es un ´arbol hiperb´olico (ver discusi´on al respecto en el cap´ıtulo 3).

6.4.2. Visualizaci´on

Con respecto al contexto, la vista 3D muestra una animaci´on que representa el cambio e escala entre el anterior objeto de inter´es y el reci´en seleccionado por medio de variaciones en el tama˜no y la raz´on de aspecto de los objetos presentes en la escena. Al mismo tiempo, se muestra en todo momento un diagrama simb´olico, que por medio del icono de una lupa, una cifra que representa los cambios en la escala y el identificador del objeto de inter´es, facilita

75 Figura 38: Prototipo definitivo de la t´ecnica de ´arbol hiperb´olico.

el entendimiento e los cambios de escala realizados al reemplazar el objeto de inter´es. Con

respecto al foco, el usuario siempre podr´aactivar uno de los botones del panel de contenidos

con un ´arbol hiperb´olico de selecci´on (Figura 38) que permite seleccionar un foco de inter´es

para realizar actividades relacionadas con su contenido, es necesario diferenciar muy bien

el foco de inter´es del centro de atenci´on, el cual representa el objetivo de la actividad

llevada a cabo por el usuario, casi siempre una tarea de exploraci´on o manipulaci´on de un

objeto 3D para luego hacer comparaciones con lo contenidos 2D suministrados.

6.5. Uso de t´ecnicas de tiling

Debido a que muchas de las partes anat´omicas del cuerpo humano est´an compuestas por miles o millones de unidades funcionales, es necesario contar con un mecanismo que permite visualizar un volumen con un n´umero grande de muestras que representan ins- tancias de modelos 3D con peque˜nas variaciones geom´etricas o de material con el fin de representar muestras de tejido compuestas por muchas estructuras celulares. La alternati- va utiliza para implementar este mecanismo es el concepto de tile o baldosa de Wang (Ver

76 Figura 39: Cubos de Wang.

cap´ıtulo sobre trabajo previo) aplicaciones en el espacio de 3 dimensiones. De esta forma

es posible especificar una especie de domin´o3D en la que se definen los posibles colores

por cara que se van a tener en cuenta para ensamblar un cubo mas grande con un conjunto

de fichas del mismo. La codificaci´on de colores permite restringir la construcci´on del cubo a combinaciones en las que coinciden los colores entre fichas. De la misma forma, a cada

ficha se le asigna el motivo o variaci´on del objeto 3D que contendr´aen su volumen. Para

este caso son variaciones del nefr´on con distintas distribuciones geom´etricas. Al final, el

cubo o volumne de Wang resultante contendr´auna muestra de nefrones con una aparien-

cia bastante org´anica que permitir´aque el usuario explore un volumen no repetitivo de

estructuras celulares con apariencia realista. La figura 39 muestra un ejemplo de un cubo

de Wang compuesto por 9 objetos 3D con peque˜nas variaciones de orientaci´on y escala

con ejemplos de la correspondencia entre los c´odigos de colores de las fichas de Wang y la

geometr´ıa asociada a cada ficha. La aplicaci´on tiene una implementaci´on de los cubos de

Wang que permite configurar muestras, asignarles objetos 3D con peque˜nas variaciones y

ejecutar las herramientas descritas sobre los mismos. Sin embargo, aunque el desempe˜no

de la visualizaci´on al mostrar cubos de hasta 1000 muestras (Figura 40) es bueno, la ge-

neraci´on de las muestras o variaciones, bien sea por medio de algoritmos procedimentales

o por modelado 3D estuvo fuera del alcance de los objetivos propuestos y del cronograma

planteado.

77 Figura 40: Ejemplo de cubos de Wang.

6.6. Esquema general de funcionamiento

El funcionamiento de la aplicaci´on est´arelacionado con el tipo de usuario y con el modo de ejecuci´on. De esta forma, la aplicaci´on puede ser ejecutada en modo autor para realizar tareas de configuraci´on, editar la estructura que contendr´alos modelos 3D y los contenidos multimedia que van a ser presentados, as´ıcomo establecer sus relaciones de contenencia o cambio de escala. El usuario que lleva a cabo el papel de autor a su vez depende de personas con el rol de creadores de contenido, quienes conforman un equipo de dise˜nadores, artistas y expertos en contenido que est´an encargados de generar o editar modelos 3D, im´agenes, videos e hipertexto. Una vez completadas las etapas de creaci´on y configuraci´on del contenido (Figura 41), la aplicaci´on puede ser ejecutada en modo usuario para que se inicie autom´aticamente con unos contenidos predeterminados; que para este caso est´an compuestos por informaci´on anat´omica y fisiol´ogica del ri˜n´on humano. Para presentar los modelos 3D, los contenidos 2D y las herramientas, la vista de la aplicaci´on esta dividida en tres secciones principales (Figura 42): Una vista 3D en donde son visualizados los modelos

3D, la informaci´on volum´etrica y las animaciones resultado de los cambios de escala. La segunda secci´on es un panel de herramientas que presenta los controles necesarios para manipular la c´amara, el plano de corte, opciones gr´aficas y render. La ´ultima secci´on es el panel de contenidos, usado para seleccionar el objeto de inter´es y activar los contenidos

78 Figura 41: Funcionamiento.

79 Figura 42: GUI de la aplicaci´on.

2D multimedia asociados a dicho objeto. Los detalles relacionados con las herramientas y los contenidos ser´an expuestos en las pr´oximas secciones.

80 Cap´ıtulo VII

Escalabilidad

Este cap´ıtulo describe la herramientas desarrolladas para permitir que sean configu- rados los dispositivos de entradas/salida y las t´ecnicas de selecci´on y manipulaci´on en diferentes ambientes de hardware y software. Inicialmente, se describir´ala arquitectura que soporta los ambientes de ejecuci´on propuestos en este proyecto para luego presentar cada uno de los ambientes: PC convencional y ambiente estereosc´opico GeoWall.

7.1. Arquitectura

La arquitectura del proyecto (Figura 43) es multiplataforma, fue desarrollada en el lenguaje Java y puede ser ejecutada en los sistemas operativos Windows, Linux y Mac.

Por medio de java se tiene acceso, con llamadas a c´odigo nativo, a OpenGL para las taras de procesamiento y despliegue 3D y a VRPN 1 para el acceso a dispositivos digitales y

an´alogos. Para esto, se utilizaron las librerias Java JoGL 2 y JVRPN respectivamente.

Adicionalmente fueron utilizadas las siguientes librerias y frameworks encima de la capa

de ejecuci´on del lenguaje Java:

Prefuse, para la visualizaci´on y el procesamiento del arbol hiperb´olico de la t´ecnica

foco+contexto.

1Virtual Reality Peripheral Network 2Java on GL

81 Figura 43: Arquitectura

JMF 3 , para el despliegue de contenidos de tipo video.

InTml 4 , para la configuraci´on y ejecuci´on de t´ecnicas de interacci´on, comporta-

mientos y dispositivos [14].

Finalmente, la aplicaci´on T3DM es ejecutada sobre las capas mencionadas anteriormente, en conjunto con la librer´ıa Swing de Java para el control y el despliegue del GUI.

7.2. Editor InTml

La herramienta de configuraci´on desarrollada permite dise˜nar de manera esquem´atica las aplicaciones seg´un el ambiente de hardware en que va a ser ejecutadas, es decir, que dispositivos de entrada y/o salida emplean, as´ıcomo las t´ecnicas de interacci´on que ofre- cen al usuario para realizar las tareas de selecci´on y manipulaci´on. La figura 44 muestra el editor InTml implementado con un ejemplo de configuraci´on para una aplicaci´on que

3Java Media Framework 4Interaction Techniques Markup Language

82 Figura 44: Editor InTml ofrece herramientas de selecci´on foco+contexto en un PC convencional, utilizando como dispositivo de salida un monitor y como dispositivos de entrada un teclado y un mouse. El editor InTml [14] ofrece una colecci´on de filtros que representan objetos gr´aficos, compor- tamientos y dispositivos con entradas y salidas, con el prop´osito de que sean correctamente conectados para dise˜nar las aplicaciones como bloques de filtros interconectados en los que dispositivos de entrada env´ıan se˜nales a comportamientos o t´ecnicas de interacci´on que de- terminan el flujo de datos de la aplicaci´on y la salida gr´afica que es enviada a un dispositivo de salida representado tambi´en por un filtro. De esta forma, el dise˜nador de aplicaciones puede intercambiar con facilidad las t´ecnicas de interacci´on y los dispositivos involucrados, haciendo que la aplicaci´on sea escalable y pueda ser utilizada en ambientes de hardware convencionales como en ambientes inmersivos. Adicionalmente, el editor permite realizar tareas de calibraci´on de los dispositivos de entrada y salida, manejar la persistencia de los dise˜nos en archivos y ejecutar o detener las aplicaciones. Una descripci´on mas profunda

83 sobre herramienas gr´aficas de dise˜no para la construcci´on r´apida de prototipos de realiad virtual por medio del lenguaje InTml puede verse en [14]. A continuaci´on se presenta un resumen de los filtros proporcionados para el dise˜no de las aplicaciones:

7.2.1. Dispositivos de entrada

La figura 45 presenta los filtros que representan los dispositivos de entrada utilizados en el proyecto: Volante con retroalimentaci´on de fuerza, joystick, gamepad, guante de datos, micr´ofono, trackers, mouse y teclado. Todos los filtros cuentan con puertos de salida que env´ıan el estado de los controles digitales y/o an´alogos que contienen, a excepci´on de la c´amara que recibe comandos por sus puertos de entrada para modificar sus par´ametros y cambiar de objetivo.

7.2.2. Dispositivos de salida

La figura 46 presenta los filtros que representan los dispositivos de salida utilizados en el proyecto. Se muestra un monitor convencional que servir´a como dispositivo de despliegue en el ambiente PC y un par de proyectores est´ereo de alta resoluci´on y luminosidad que servir´an como dispositivo de despliegue en el ambiente de relidad virtual inmersiva.

7.2.3. T´ecnicas de interacci´on

Los filtros que representan t´ecnicas de interacci´on o comportamientos, se dividen en varios grupos acorde con sus objetivos. La figura 47 muestra los filtros que permiten realizar operaciones l´ogicas, operaciones matem´aticas y de flujo de informaci´on con los datos que provienen de los puertos de salida de otros filtros. La figura 48 muestra los

filtros que permiten capturar eventos relacionados con el teclado, gestos realizados con guantes de datos y comandos de voz capturados por micr´ofono. La figura 49 muestra los filtros que procesar cantidades, realizar conversiones y mediciones como el c´alculo de distancias, elevaciones y ´angulos.

84 Figura 45: Filtros InTml para dispositivos de entrada.

Figura 46: Filtros InTml para dispositivos de salida.

85 Figura 47: Filtros InTml para controlar el flujo de la aplicaci´on.

Figura 48: Filtros InTml para controlar eventos.

86 Figura 49: Filtros InTml para procesar cantidades y mediciones.

7.2.4. T´ecnicas de Foco+Contexto

La figura 50 muestra los filtros que permiten cargar informaci´on proveniente de los archivos XML del proyecto T3DM y procesarlos para que sean traducidos al formato de las estructuras y t´ecnicas de foco+contexto para visualizar el ´arbol hiperb´olico corres- pondiente y ejecutar tareas de selecci´on de los objetos de inter´es. La figura 51 muestra los filtros que permiten seleccionar y manipular las caracter´ısticas geom´etricas (posici´on, orientaci´on y escala) de objetos 3D, as´ıcomo la ejecuci´on de la herramienta de corte sobre los mismos.

7.2.5. Objetos gr´aficos

La figura 52 muestra los filtros que representan los objetos gr´aficos 3D que pueden ser utilizados en la aplicaci´on: Mallas de pol´ıgonos que representan partes anat´omicas 3D e informaci´on volum´etrica 3D(ver tipos de contenido en el cap´ıtulo 6).

87 Figura 50: Filtros InTml para las t´ecnicas Foco+Contexto.

Figura 51: Filtros InTml para las t´ecnicas de selecci´on y manipulaci´on.

88 Figura 52: Filtros InTml para objetos gr´aficos

Figura 53: Ambiente PC.

7.3. Ambiente PC convencional

El funcionamiento de la aplicaci´on en el ambiente PC (Figura 53) esta limitado al uso de un mouse y un teclado convencionales como dispositivos de entrada y un monitor est´andar como dispositivos de salida. Las t´ecnicas de interacci´on est´an tambi´en limitadas por los dispositivos propuestos a hacer click con un bot´on para activar un panel foco+contexto y seleccionar el objeto de inter´es con otro click. La manipulaci´on de la posici´on, orientaci´on y escala se realiza con el teclado. La aplicaci´on ha sido desarrollada bajo los siguientes requerimientos m´ınimos/deseables: Procesador Pentium IV o superior, 512 Mb. de memo- ria RAM, acelerador gr´afico con una implementaci´on de OpenGL en hardware, teclado y mouse convencionales, pantalla (CRT o FLT) con una resoluci´on m´ınima de 1024x768

89 Figura 54: Sistema GeoWall. pixeles. Un ejemplo del dise˜no del aplicaci´on en el editor InTml se puede ver en la figura

44.

7.4. Ambiente Geowall

El sistema GeoWall esta compuesto por un par de proyectores est´ereo de alta resolu- ci´on y alta luminosidad con lentes para polarizar la luz horizontal y verticalmente. Los proyectores reciben las se˜nales de video independientes para cada ojo provenientes de un computador con dos salidas gr´aficas producto de dos proyecciones (c´amaras) separadas por la distancia interocular (parallax) y configuradas para que su relaci´on de aspecto y perspectiva concuerden con la distancia del tel´on al usuario, quien debe usar unas gafas que permiten que las se˜nales polarizadas lleguen as´ıal cerebro y ´este simule la sensaci´on de profundidad 3D (Figura 54). La aplicaci´on en el ambiente Geowall (Figura 55) usa como dispositivos de entrada un par de trackers electromegn´eticos y un finger mouse para esta- blecer los comandos de activaci´on y selecci´on en el panel de foco+contexto. Los trackers son utilizados para que el usuario pueda realizar las tareas de exploraci´on y manipula- ci´on cambiando la orientaci´on, distancia y elevaci´on entre los trackers (Ver detalles en el

Ap´endice A). La figura 56 muestra el dise˜no de la aplicaci´on utilizado en las pruebas de evaluaci´on en el ambiente Geowall.

90 Figura 55: Ambiente GeoWall.

Figura 56: Ejemplo de Ambiente GeoWall.

91 Cap´ıtulo VIII

Evaluaci´on de los ambientes propuestos

Investigaciones recientes [23] en dise˜no y evaluaci´on de ambientes de realidad virtual

orientados a la exploraci´on y manipulaci´on de objetos 3D a diferentes niveles de detalle

est´an orientados determinar el desempe˜no del usuario por medio de la medici´on de la

precisi´on y del tiempo empleado en completar tareas. En cada tarea el usuario debe buscar

y manipular objetos a diferentes niveles de detalle manteniendo la orientaci´on espacial y

la comprensi´on de la informaci´on presentada (mapa cognitivo).

8.1. Descripci´on del experimento

Para evaluar la aplicaci´on propuesta se construyeron dos aplicaciones en ambientes de hardware diferentes: Una en ambiente PC y otra en el ambiente inmersivo GeoWall

[17], en cada una se ofrecen varias tareas para que sean ejecutadas por el usuario. Las tareas est´an relacionadas con la selecci´on de objetos de inter´es (representados por partes anat´omicas del ri˜n´on humano) para luego manipular la c´amara o la herramienta de corte

(Ver secci´on de herramientas en el cap´ıtulo 6) para que el usuario trate de reproducir el estado gr´afico que aparece en una imagen o screenshot de la aplicaci´on. El usuario tiene la oportunidad de entrenar antes de realizar la tarea con un ambiente de prueba cuyo conte- nido son figuras geom´etricas. En cada uno de los ambientes se miden los tiempos para cada una de las tareas y el usuario diligencia unos cuestionarios que buscan medir el desempe˜no de la aplicaci´on con respecto a factores de control, de distracci´on, sensoriales y de realismo.

92 Los cuestionarios presentados al usuario hacen parte de un estudio para medir el gra- do de presencia proporcionado por las aplicaciones con contenido tridimensional [58]. En dicho estudio se define presencia como la sensaci´on de estar experimentando el mundo pre- sentado por un ambiente virtual en vez del mundo real en el que se ejecuta dicho ambiente.

Partiendo de esa definici´on, se buscan factores que permiten mejorar o aumentar el grado de presencia proporcionado por las aplicaciones 3D teniendo en cuenta que depende de la atenci´on, el envolvimiento1 la inmersi´on2 y la concentraci´on del usuario en combinaci´on

con la coherencia temporal y espacial del flujo de est´ımulos visuales, auditivos, etc. que

son presentados.

Los factores que soportan el grado de presencia son:

Factores de control

Est´an relacionadas con las respuestas del ambiente a las acciones del usuario, las cua-

les deben ser continuas (sin retardos) y anticipables. Por otro lado las interacciones

del usuario para llevar a cabo sus acciones deben ser naturales y coherentes.

Factores sensoriales

Est´an relacionadas con los tipos y la calidad de la informaci´on que recibe el usuario a

trav´es de sus sentidos. El ambiente debe proveer buena retroalimentaci´on y presentar

informaci´on con la mayor resoluci´on o detalle posibles.

Factores de distracci´on

Est´an relacionadas con artefactos visuales, t´ecnicas e interacci´on no naturales y

condiciones de operaci´on/ejecuci´on del ambiente que disminuyen la atenci´on y la

1Estado fisiol´ogico producto de dirigir mucha energ´ıa y atenci´on hacia un flujo de est´ımulos 2Estado fisiol´ogico producto de percibirse a si mismo como involucrado y contenido en un ambiente que provee un flujo continuo de est´ımulos

93 Figura 57: Escala num´erica para las respuestas.

concentraci´on del usuario.

Factores de realismo

Est´an relacionadas con la calidad, coherencia y pertinencia de los contenidos visua-

les, sonoros, etc. que el usuario percibe durante su experiencia dentro del ambiente.

Con respecto a los factores presentados, fue construida la encuesta PQ (Presence Ques- tionnaire) para medir el grado de aceptaci´on y usabilidad de la aplicaci´on que tuvo el usuario durante y despu´es de haber interactuado en cada uno de los dos ambientes pro- puestos. La encuesta esta compuesta por nueve preguntas para medir factores de control, cinco preguntas para medir factores sensoriales, cinco preguntas para medir factores de distracci´on y 4 preguntas para medir factores de realismo. La escala utilizada para las respuestas es num´erica de 1 a 7. Un valor de 1 representa el m´as bajo, m´as malo o me- nos representativo y un valor de 7 representa el m´as alto, mejor o m´as representativo.

Adicionalmente, se presenta otra encuesta (ITQ Immersive Tendency Questionnaire) con nueve preguntas relacionadas con las tendencias inmersivas de los usuarios, esta ´ultima encuesta es independiente de la experiencia de los usuarios con los ambientes propuestos.

8.1.1. Encuesta PQ 8.1.1.1. Preguntas FC (Factor de control)

1. Califique el grado de control que tuvo sobre el ambiente.

2. Califique la respuesta del ambiente a los eventos o acciones que usted inici´oo ejecut´o.

3. Qu´etan naturales le parecieron sus interacciones con la aplicaci´on?

4. Qu´etan natural le pareci´oel mecanismo empleado para controlar el movimiento a trav´es del ambiente?

5. Estuvo en la capacidad de anticipar el resultado a las acciones que usted realiz´odentro del ambiente?

6. Califique las capacidades del ambiente para manipular o mover objetos.

7. Indique el retardo que experiment´oentre la ejecuci´on de sus interacciones y la respuesta visual del ambiente.

94 8. Qu´etan r´apido se familiariz´ocon el ambiente?

9. Califique que tan experto se sent´ıa con el uso del ambiente al finalizar la sesi´on?

8.1.1.2. Preguntas FS (Factores sensoriales)

1. Qu´etanto se sinti´oenvuelto por los contenidos visuales del ambiente?

2. Qu´etan realista fue la sensaci´on de mover objetos dentro del ambiente?

3. Qu´etan realista fue la sensaci´on de moverse alrededor de algo dentro del ambiente?

4. Califique la capacidad con la que pudo examinar objetos de cerca dentro del ambiente.

5. Califique las capacidades del ambiente para examinar objetos desde diferentes puntos de vista.

8.1.1.3. Preguntas FD (Factor de distracci´on)

1. Qu´etanta atenci´on le brind´oa los eventos que ocurr´ıan en el mundo real durante su interacci´on con el ambiente?

2. Qu´etanta atenci´on le brind´oa los dispositivos durante su interacci´on con el ambiente?

3. Qu´etanta distracci´on o impedimento representaron los dispositivos utilizados para visualizar el ambiente?

4. Qu´etanta distracci´on o impedimento representaron los dispositivos utilizados para controlar el ambiente?

5. Indique la facilidad de concentrarse en las tareas propuestas en vez de hacerlo en el manejo de los dispositivos.

8.1.1.4. Preguntas FR (Factor de realismo)

1. Qu´etan consistentes fueron sus interacciones con el ambiente en relaci´on con las que lleva a cabo en el mundo real?

2. Indique el grado de confusi´on o desorientaci´on que sinti´oal inicio de la sesi´on.

3. Indique el grado de confusi´on o desorientaci´on que sinti´oal final de la sesi´on.

4. Indique en que grado perdi´ola noci´on del tiempo mientras realizaba las tareas propuestas en el ambiente.

8.1.2. Encuesta ITQ

1. Indique la facilidad con la que puede fijar su atenci´on en una nueva tarea despu´es de haber estado trabajando en otra.

2. Indique la frecuencia con la que se envuelve emocionalmente con historias que escucha, lee o ve en televisi´on.

3. Indique la frecuencia con la que se concentra al grado que las dem´as personas no obtienen su atenci´on f´acilmente.

4. Califique su facilidad para bloquear distracciones externas cuando esta trabajando en algo.

5. Indique la facilidad con la que pierde el sentido del tiempo cuando practica un deporte.

6. Con qu´efacilidad se concentra en actividades divertidas.

7. Con qu´efacilidad se concentra en actividades aburridas.

8. Con que frecuencia se divierte con juegos de video?

9. Indique la frecuencia con la que se concentra en juegos de video al grado de sentirse inmerso y olvidar que est´ausando un control y viendo una pantalla.

95 8.2. Hip´otesis

Se plantea inicialmente que debe existir una clara diferencia entre la percepci´on ge-

neral de los usuarios en cada uno de los ambientes con respecto a la facilidad de uso,

comodidad y otros factores. Dicha desigualdad en las experiencias del usuario se deber´aa

que la plataforma de hardware utilizada en cada uno los ambientes esta compuesta por

dispositivos de entrada y salida muy diferentes, haciendo que las t´ecnicas de interacci´on

empleadas por el usuario para llevar a cabo las tareas propuestas sean muy familiares

o por el contrario requieran esfuerzo visual y motor, causando distracci´on, frustraci´on,

desorientaci´on y otras molestias. Sin embargo, en la muestra pueden haber personas que

tengan bastante experiencia en el manejo de dispositivos de posicionamiento y control

(joysticks y gamepads) o ambientes 3D como videojuegos. Dichas personas tendr´an me-

nos problemas con la ejecuci´on de tareas en el ambiente inmersivo debido a que contar´an

con entrenamiento previo y ventajas sensitivas relacionadas con la orientaci´on espacial en

ambientes tridimensionales.

8.3. M´etodo

Cada uno de los usuarios realiz´odos tareas sobre cada uno de los ambientes propuestos.

Una descripci´on completa del protocolo de evaluaci´on, incluyendo las tareas y ayudas sobre

los correspondientes procedimientos y dispositivos puede ser consultado en el ap´endice A. A

continuaci´on se presenta el procedimiento con las etapas llevadas a cabo en el experimento.

El orden de evaluaci´on de los ambientes PC y GeoWall fue asignado aleatoriamente en las

etapas 1 y 2.

8.3.1. Etapas del experimento

Aunque el protocolo de evaluaci´on presenta 3 tareas, se tomaron en cuenta las tareas

1 y 3 solamente.

96 8.3.1.1. Etapa 0

Diligenciar el disclaimer.

8.3.1.2. Etapa 1 (Ambiente A)

1. Mostrar al usuario el ejemplo de la tarea 1.

2. Dejar que el usuario de manera guiada haga el ejemplo de tarea 1.

3. Desarrollar la tarea 1 y cronometrar el tiempo.

4. Mostrar al usuario el ejemplo de la tarea 2.

5. Dejar que el usuario de manera guiada haga el ejemplo de tarea 2.

6. Desarrollar la tarea 2 y cronometrar el tiempo.

7. Dejar que el usuario diligencie la encuesta PQ para el ambiente A.

8.3.1.3. Etapa 2 (Ambiente B)

1. Mostrar al usuario el ejemplo de la tarea 1.

2. Dejar que el usuario de manera guiada haga el ejemplo de tarea 1.

3. Desarrollar la tarea 1 y cronometrar el tiempo.

4. Mostrar al usuario el ejemplo de la tarea 2.

5. Dejar que el usuario de manera guiada haga el ejemplo de tarea 2.

6. Desarrollar la tarea 2 y cronometrar el tiempo.

7. Dejar que el usuario diligencie la encuesta PQ para el ambiente B.

8.3.1.4. Etapa 3

Diligenciar la encuesta ITQ.

8.3.2. An´alisis de los datos

El an´alisis de los datos recolectados fue realizado con un m´etodo comparativo sim- ple [33] llamado t-Test que permite hacer una comparaci´on estad´ıstica sobre muestras o tratamientos e igual tama˜no y provenientes de procesos con un mismo objetivo pero con variabilidad en sus par´ametros y configuraci´on. En este caso las muestras estar´an com- puestas por las respuestas a las preguntas mas significativas aplicadas en cada uno de los

97 dos ambientes.

El m´etodo t-Test esta basado en la validaci´on de la hip´otesis nula (H0 : µ1 = µ2), y1 siendo la muestra 1 de tama˜no n1 y y2 siendo la muestra 2 de tama˜no n2, de la siguiente manera: y¯ − y¯ t = 1 2 (3) 0 2 2 S1 + S2 q n1 n2

2 2 ( S1 + S2 )2 n1 n2 v = 2 2 2 2 (4) (S1 /n1) + (S2 /n2) n1−1 n2−1 En donde:

H1 : µ1 <µ2 → t0 < −tα,v (5)

H1 : µ1 >µ2 → t0 >tα,v (6)

8.4. Resultados

Los resultados del experimento est´an basados en evaluaciones realizadas sobre una poblaci´on de prueba compuesta por 10 personas (4 mujeres y 6 hombres). Cada persona diligenci´oel cuestionario ITQ y en cada uno de los ambientes cada persona realiz´odos tareas (Ver Ap´endice A) y diligenci´oun cuestionario PQ.

Los datos fueron procesados en el paquete de an´alisis estad´ıstico minitab 3 aplicando el

m´etodo descrito (utilizando α = 0,05) sobre las siguientes preguntas:

1. Califique que tan experto se sent´ıa con el uso del ambiente al finalizar la sesi´on?

Se eligi´oesta pregunta del grupo de preguntas que evaluaban el factor de control

(FC) como la m´as significativa con respecto a las tareas propuestas. Seg´un los

resultados mostrados en los cuadros 3, 4 y la figura 58, no hay suficientes evidencias

3http://www.minitab.com/

98 Cuadro 3: Resultados estad´ısticos del factor de control n media DS Ambiente 1 10 5.90 1.10 Ambiente 2 10 5.30 1.16

Figura 58: Diagrama de cajas y puntos para el an´alisis FC

Cuadro 4: An´alisis del factor de control Grados de libertad 17 To 1.190 tα,v 1.740 H0 : µ1 =6 µ2 NO H1 : µ1 <µ2 NO H1 : µ1 >µ2 NO

99 Cuadro 5: Resultados estad´ısticos del factor sensorial n media DS Ambiente 1 10 6,000 0.30 Ambiente 2 10 6,400 0.699

Figura 59: Diagrama de cajas y puntos para el an´alisis FS

para afirmar que los promedios poblacionales son diferentes y se puede concluir que

el grado de experiencia adquirido por el usuario al finalizar la ejecuci´on de las tareas

en ambos ambientes es similar.

2. Califique las capacidades del ambiente para examinar objetos desde diferentes puntos

de vista.

Se eligi´oesta pregunta del grupo de preguntas que evaluaban el factor sensorial

(FS) como la m´as significativa con respecto a las tareas propuestas. Seg´un los

Cuadro 6: An´alisis del factor sensorial Grados de libertad 16 To -1,08 tα,v 1.746 H0 : µ1 =6 µ2 NO H1 : µ1 <µ2 NO H1 : µ1 >µ2 NO

100 Cuadro 7: Resultados estad´ısticos del factor de distracci´on n media DS Ambiente 1 10 6,000 0.21 Ambiente 2 10 5,600 0.699

Figura 60: Diagrama de cajas y puntos para el an´alisis FD

resultados mostrados en los cuadros 5, 6 y la figura 59, no hay suficientes evidencias

para afirmar que los promedios poblacionales son diferentes y se puede concluir que

la capacidad para examinar objetos desde diferentes puntos de vista es similar en

ambos ambientes.

3. Indique la facilidad de concentrarse en las tareas propuestas en vez de hacerlo en el

manejo de los dispositivos.

Se eligi´oesta pregunta del grupo de preguntas que evaluaban el factor de distracci´on

(FD) como la m´as significativa con respecto a las tareas propuestas. Seg´un los

resultados mostrados en los cuadros 7, 8 y la figura 60, no hay suficientes evidencias

para afirmar que los promedios poblacionales son diferentes y se puede concluir que

la facilidad de concentrarse en la tarea propuesta sin que los dispositivos representen

una distracci´on es similar en ambos ambientes.

Adicionalmente, se emplearon otros an´alisis estad´ısticos b´asicos sobre la medici´on de los tiempos empleados en completar las tareas. En la figura 61 se muestran los diagramas de

101 Cuadro 8: An´alisis del factor de distracci´on Grados de libertad 17 To 1,31 tα,v 1.740 H0 : µ1 =6 µ2 NO H1 : µ1 <µ2 NO H1 : µ1 >µ2 NO

Figura 61: Diagrama de puntos para los tiempos empleados en las tareas puntos para los tiempos empleados en las dos tareas en el ambiente PC y GeoWall res- pectivamente. El an´alisis de estos datos con el m´etodo t-Test revel´o, de manera similar a los factores anteriores, que no hay una diferencia importante entre los tiempos empleados en cada tarea, sin embargo, existen datos at´ıpicos que representan tiempos prolongados obtenidos por las personas (ver resultados de la encuesta ITQ) con poca experiencia en el manejo de dispositivos de control diferentes al mouse y que no est´an expuestos a ambien- tes 3D como los que est´an presentes en los juegos de video. Las preguntas orientadas a medir las tendencias psicol´ogicas del usuario [58] (ver tabla 8.4) con respecto a ambientes

3D, pertenecientes al cuestionario ITQ, muestran que la poblaci´on esta constituida por personas con un control moderado de la atenci´on y la concentraci´on, que se envuelven f´acilmente con las labores que desempe˜nan, que se concentran en una tarea de acuerdo al grado de motivaci´on e inter´es en la misma tarea. Un reporte completo con la totalidad de

102 Cuadro 9: Resultados de la encuesta ITQ

media mediana Pregunta 1 5,600 5,500 Pregunta 2 5,100 6,000 Pregunta 3 5,800 5,500 Pregunta 4 5,300 6,000 Pregunta 5 6,000 6,000 Pregunta 6 6,500 7,000 Pregunta 7 2,600 2,000 Pregunta 8 5,000 5,500 Pregunta 9 4,800 5,000

los resultados de todas las preguntas en los ambientes propuestos puede ser consultado en el ap´endice B.

8.5. Discusi´on

Con respecto a la hip´otesis planteada se puede decir que las diferencias entre ambos ambientes no fueron muy relevantes debido a que los cuestionarios y los tiempos crono- metrados tuvieron una relaci´on significativa con el desempe˜no en la ejecuci´on de la tarea y la mayor´ıa de los usuarios no encontraron dificultades importantes en la consecuci´on de los objetivos en ambos ambientes. Este resultado puede deberse al entrenamiento previo y/o a que la mayor´ıa de los individuos hacen uso frecuente de computadores.

Seg´un el an´alisis realizado sobre las respuestas de los usuarios para evaluar la diferen- cia entre los ambiente PC y GeoWall se puede concluir que ambos ofrecen una dificultad similar para completar la tareas y que favorece a las t´ecnicas del ambiente GeoWall debido a que pueden competir con las t´ecnicas tradicionales de selecci´on y manipulaci´on ofrecidas por el otro ambiente. Existe una relaci´on estrecha entre el grado de envolvimiento del usuario (evaluado con las preguntas del factor sensorial) y la tendencia inmersiva reflejada

103 en las preguntas sobre el grado de experiencia adquirido y el grado de control percibo durante la experiencia. De la misma forma, la mayor´ıa de las personas que reconocieron sus tendencias inmersivas en labores cotidianas, por medio de la encuesta ITQ, percibieron el ambiente GeoWall como ambiente que facilita las tareas de manipulaci´on y exploraci´on, al igual que manifestaron poca distracci´on con respecto a las t´ecnicas de interacci´on y a los mismos dispositivos, y un grado alto de consistencia entre las t´ecnicas de interacci´on y la retroalimentaci´on visual.

Con respecto a las respuestas del factor sensorial y de control, se puede ver una rela- ci´on clara entre la calificaci´on a la naturalidad de las interacciones y el realismo en las sensaciones de mover y examinar objetos. Se detect´ouna relaci´on inversa entre las califi- caciones al realismo visual de la aplicaci´on y las tendencias inmersivas relacionadas con el uso de juegos de video o similares. La respuestas del factor de realismo muestran que s´olo dos personas manifestaron desorientaci´on al finalizar las tareas en el ambiente Geowall y al mismo tiempo asignaron puntajes altos a las preguntas del factor sensorial sobre la facilidad de exploraci´on y manipulaci´on, sin embargo, manifestaron un grado moderado de distracci´on debida a los dispositivos.

104 Cap´ıtulo IX

Conclusiones

La educaci´on en medicina puede beneficiarse del uso de t´ecnicas de visualizaci´on e in- teracci´on 3D. Se han presentado los avances alcanzados en un proyecto que busca ofrecer material educativo con contenido tridimensional a los procesos de ense˜nanza y aprendizaje de la anatom´ıa y fisiolog´ıa del ri˜n´on humano. El an´alisis educativo realizado permiti´ode- tectar falencias en el contenido educativo utilizado y facilit´oel dise˜no de herramientas que permiten visualizar y manipular las estructuras del ri˜n´on m´as complicadas para profesores y estudiantes.

Se ha desarrollado una versi´on multiplataforma de un atlas 3D anat´omico del ri˜n´on, el cual permite explorar su estructura a distintos niveles de detalle con la ayuda de t´ecnicas foco+contexto, realizar tareas de manipulaci´on y hacer cortes arbitrarios sobre el objeto de inter´es. Al mismo tiempo permite establecer relaciones con contenidos multimedia 2D tradicionales que pueden ser asociados a cada una de las partes anat´omicas involucradas.

Se han presentado avances relacionados con herramientas que permiten configurar gr´afica- mente las t´ecnicas de interacci´on y los dispositivos involucrados proporcionando escalabi- lidad en hardware. Adicionalmente, se muestran los resultados obtenidos en dos ambiente:

PC y GeoWall, en los cuales se evalu´ola opini´on y desempe˜no de un grupo de usuarios

105 con respecto a factores sensoriales, de control, de distracci´on, y de realismo.

El dise˜no de la aplicaci´on y las estructuras de datos desarrolladas son lo suficientemente independientes del contenido como para que la aplicaci´on sea empleada como visualizador de contenidos diferentes a los m´edicos aqu´ıexpuestos. Se propone la experimentaci´on con contenidos pertenecientes a otros dominios del conocimiento como informaci´on geogr´afica o relacionada con mecanismos industriales que tengan partes o subpartes funcionales a diferentes niveles de detalle.

Se propone como trabajo posterior la combinaci´on y experimentaci´on de nuevas t´ecni- cas de interacci´on con el fin de mejorar la usabiliadd de la aplicaci´on con base en los resultados arrojados por la evaluaci´on realizada. Tambi´en se propone el estudio de t´ecni- cas de foco+contexto alternativas o complementarias que enriquezcan las ayudas visuales y cognitivas, as´ıcomo su integraci´on con ambientes inmersivos 3D de una manera mas apropiada.

Se propone la creaci´on de herramientas y tipos de contenido interactivos que permitan evaluar cuantitativamente y cualitativamente el aprendizaje adquirido por el usuario por medio de pruebas, juegos educativos, etc. De la misma forma, el contenido 3D de la apli- caci´on podr´ıa tener funcionalidad (animaciones, simulaciones, etc) que enriquezca la ex- periencia del usuario con la aplicaci´on.

106 Ap´endice A

Protocolo de evaluaci´on

A.1. Formulario de aceptaci´on y consentimiento

Gracias por participar voluntariamente en este experimento. El proyecto busca evaluar t´ecnicas de selecci´on y manipulaci´on de objetos en dos aplicaciones que son ejecutadas en ambientes de hardware diferentes. Usted participar´arealizando 3 tareas en cada ambiente para luego diligenciar unos cuestionarios sobre opini´on y desempe˜no, en total el experi- mento no tardar´amas de 30 minutos. Apreciamos su ayuda y esperamos que sea sincero y directo con la retroalimentaci´on que nos brinde.

Toda la informaci´on que nos suministre ser´aconfidencial incluyendo su identidad y s´olo ser´arevisada y mantenida por la persona responsable del experimento. No existen riesgos a los que est´eexpuesto cuando participe en el experimento, sin embargo, Usted podr´are- tirarse cuando lo considere conveniente. Si Usted tiene preguntas o desea una copia de la propuesta de investigaci´on del experimento por favor p´ongase en contacto con la persona responsable. Gracias por su colaboraci´on. Sinceramente,

Oscar Ariza - [email protected] - Responsable del experimento

Pablo Figueroa PhD - pfi[email protected] - Profesor director

107 Figura 62: Pantalla de la aplicaci´on del ambiente PC en ejecuci´on y los dispositivos asociados.

A.2. Protocolo

El usuario debe realizar tareas relacionadas con el uso de herramientas de exploraci´on, manipulaci´on y corte pertenecientes a una una aplicaci´on 3D que ser´aejecutada en dos ambientes de hardware diferentes. El primer ambiente es un PC (Figura 62) en el que se usa como dispositivo de entrada un mouse est´andar con tres botones y como dispositivo de salida una pantalla convencional. El segundo es un ambiente inmersivo GeoWall (Figura

63) conformado por un par de proyectores estereo, un tel´on y 2 dispositivos de entrada: un

finger mouse y un par de trackers electromagn´eticos para sensar posici´on y orientaci´on. En cada uno de los ambientes, el usuario contar´acon un periodo de tiempo predeterminado para realizar tres tareas relacionadas con la selecci´on y manipulaci´on de objetos. Dichos objetos est´an almacenados en una estructura de datos jer´arquica regida por las relaciones de contenencia o cambio de tama˜no existentes entre los objetos.

De la misma forma, en cada uno de los ambientes, el usuario contar´acon una herramienta que le permitir´avisualizar la estructura jer´arquica y seleccionar un objeto de inter´es, sobre el cual el usuario llevar´aa cabo cada una de las tres tareas. A continuaci´on se describen

108 Figura 63: Aplicaci´on del ambiente GeoWall en ejecuaci´on y los dispositivos aso- ciados.

Figura 64: Muestra de objeto seleccionado y posici´on de c´amara para ejecutar la tarea.

las tareas propuestas para cada uno de los ambientes.

A.2.1. Tareas propuestas para el Ambiente PC A.2.1.1. Tarea de manipulaci´on de la c´amara

Esta tarea consiste en seleccionar un objeto en particular, manipular la c´amara de la

aplicaci´on para explorar el ambiente y conseguir que el punto de vista concuerde con una

muestra que ser´apresentada al usuario al iniciar la tarea. El procedimiento para llevar a

cabo esta tarea es el siguiente:

1. Revisar la muestra con el objeto y la posici´on de la c´amara a reproducir.

2. Activar el panel de selecci´on. Para esto se debe hacer click sobre el tab [F+C] que

se encuentra en la esquina inferior derecha de la aplicaci´on (Figura 65). En este

109 panel se mostrar´ala visualizaci´on de un arb´ol hiperb´olico que contiene una estruc-

tura jer´arquica con los objetos a seleccionar. La visualizaci´on tiene las siguientes

caracter´ısticas:

Un arbol hiperb´olico permite mostrar jerarqu´ıas de objetos en ´areas de visua-

lizaci´on de tama˜no fijo por medio de la simplificaci´on de ramas que no hacen

parte de los nodos de inter´es para el usuario, los cuales siempre estar´an si-

tuados en el centro del area de visualizaci´on. De esta forma, los nodos que no

son de inter´es se van posicionando hac´ıa la periferia hasta que se termina el

espacio disponible y se simplifican en forma de puntos con el color del padre de

todos los nodos ocultos en dicho punto. Una rama simplificada o punto pueden

volver a desplegarse haciendo click sobre dicho punto.

Cada nodo tiene texto que describe el nombre del objeto seguido de la escala

correspondiente a la que se encuentra el objeto. La mayor escala es 1, represen-

tando el objeto mas grande a escala 1:1, valores menores representan objetos

de menor tama˜no contenidos dentro de uno de escala mayor.

El nodo que representa el objeto con la mayor escala (1.0 o 1:1) es de color

amarillo y el de menor escala es de color azul, los dem´as nodos tendr´an colores

entre el rango definido por el amarillo y el azul (tonos verdes) de acuerdo a su

escala.

El objeto seleccionado es de color negro y esta posicionado en el centro del

panel.

3. Seleccionar el objeto de la muestra haciendo click sobre el nodo que aparece en el

panel de selecci´on con el mismo nombre.

4. Activar el panel de manipulaci´on de la c´amara. Para esto se debe hacer click sobre

el tab [CAMARA] que se encuentra en la esquina inferior izquierda de la aplicaci´on

110 Figura 65: Panel de selecci´on.

Figura 66: Panel de manipulaci´on de la c´amara.

(Figura 66). En este panel se mostrar´an los controles para manipular la c´amara, el

primer slider permite orbitar alrededor del objeto seleccionado en el paso anterior,

el segundo slider permite modificar la elevaci´on y el tercero permite aumentar o

disminuir el zoom sobre el mismo objeto. El usuario debe modificar estos controles

para reproducir el estado de la c´amara que se presenta en la muestra, revisando los

cambios del panel de visualizaci´on (Figura 67).

A.2.1.2. Tarea de manipulaci´on de un objeto 3D

Esta tarea consiste en seleccionar un objeto en particular, manipularlo y conseguir que su posici´on, orientaci´on y escala concuerden con una muestra que ser´apresentada al usuario al iniciar la tarea. El procedimiento para llevar a cabo esta tarea es el siguiente:

1. Revisar la muestra con la posici´on, orientaci´on y escala a reproducir.

111 Figura 67: Panel de visualizaci´on con el resultado de la manipulaci´on de la c´amara.

Figura 68: Muestra de objeto para ejecutar la tarea.

2. Activar el panel de selecci´on. Para esto se debe hacer click sobre el tab [F+C] que

se encuentra en la esquina inferior derecha de la aplicaci´on (Figura 65).

3. Seleccionar el objeto de la muestra haciendo click sobre el nodo que aparece en el

panel de selecci´on con el mismo nombre.

4. Activar el panel de manipulaci´on del objeto. Para esto se debe hacer click sobre

el tab [OBJETO] que se encuentra en la esquina inferior izquierda de la aplicaci´on

(Figura 69). En este panel se mostrar´an los controles para manipular la posici´on,

orientaci´on y escala del objeto en las dimensiones X, Y y Z respectivamente. El

usuario debe modificar estos controles para reproducir el estado del objeto que

presenta la muestra, revisando los cambios del panel de visualizaci´on (Figura 70).

112 Figura 69: Panel de manipulaci´on del objeto.

Figura 70: Panel de visualizaci´on con el resultado de la manipulaci´on del objeto.

A.2.1.3. Tarea de manipulaci´on la herramienta de corte sobre informaci´on vo- lum´etrica

Esta tarea consiste en seleccionar un objeto en particular, manipular un plano de corte 3D y conseguir que la posici´on de dicho plano concuerde con una muestra que ser´apresentada al usuario al iniciar la tarea. El procedimiento para llevar a cabo esta tarea es el siguiente:

1. Revisar la muestra con el objeto y el plano de corte a reproducir.

Figura 71: Muestra de objeto y plano de corte para ejecutar la tarea.

113 Figura 72: Panel de manipulaci´on del plano de corte.

Figura 73: Panel de visualizaci´on con el resultado de la manipulaci´on del plano de corte.

2. Activar el panel de selecci´on. Para esto se debe hacer click sobre el tab [F+C] que

se encuentra en la esquina inferior derecha de la aplicaci´on (Figura 65).

3. Seleccionar el objeto de la muestra haciendo click sobre el nodo que aparece en el

panel de selecci´on con el mismo nombre.

4. Activar el panel de manipulaci´on del plano de corte. Para esto se debe hacer click

sobre el tab [PLANO DE CORTE] que se encuentra en la esquina inferior izquierda

de la aplicaci´on (Figura 72). En este panel se mostrar´an los controles para manipular

la el plano de corte, la casilla de verificaci´on de la parte superior permite activar

la herramienta, los dos primeros sliders permites modificar la orientaci´on del plano

de corte en los ejes X y Y respectivamente. El tercer slider permite aumentar o

disminuir la profundidad del corte efectuado con el plano. El usuario debe modificar

estos controles para reproducir el estado del plano de corte que se presenta en la

muestra, revisando los cambios en el panel de visualizaci´on (Figura 73).

114 Figura 74: Disposici´on de los dispositivos de interacci´on para el ambiente GeoWall.

A.2.2. Tareas propuestas para el Ambiente GeoWall

Para llevar a cabo las tareas en el ambiente GeoWall es necesario tener en cuenta la

configuraci´on de los dispositivos que van a ser utilizados por el usuario:

El usuario tendr´aun FingerMouse junto con un tracker en la mano derecha y un

segundo tracker en la mano izquierda para realizar las tres tareas propuestas (Figura

74).

El FingerMouse de la mano derecha consta de 3 botones para activar comandos

y una esfera que act´ua como posicionador. La distribuci´on de estos elementos se

presenta en la Figura 75.

Para que la aplicaci´on funcione correctamente, el usuario debe operar las tareas con

el cuerpo de frente al tel´on de proyecci´on utilizada como dispositivo de visualizaci´on

en este ambiente.

A.2.2.1. Tarea de manipulaci´on de la c´amara

Esta tarea consiste en seleccionar un objeto en particular, manipular la c´amara de la aplicaci´on para explorar el ambiente y conseguir que el punto de vista concuerde con una

115 Figura 75: Distribuci´on de los botones del FingerMouse. muestra que ser´apresentada al usuario al iniciar la tarea. El procedimiento para llevar a cabo esta tarea es el siguiente:

1. Revisar la muestra con el objeto y la posici´on de la c´amara a reproducir.

2. Activar el panel de selecci´on. Para esto se debe hacer un click sobre el bot´on 1 del

FingerMouse (Figura 75). En este panel se mostrar´ala visualizaci´on de un arb´ol

hiperb´olico que contiene una estructura jer´arquica con los objetos que se pueden

seleccionar.

3. Seleccionar el objeto de la muestra haciendo click sobre el nodo que aparece en

el panel de selecci´on con el mismo nombre. Para mover el cursor sobre el nodo

de inter´es, el usuario debe usar el posicionador del FingerMouse (Figura 75) y la

selecci´on se ejecuta pulsando el bot´on 1 por segunda vez.

4. Manipular la c´amara por medio de los trackers. El usuario puede orbitar (par´ametro

ALPHA) alrededor del objeto seleccionado manteniendo el tracker 1 (mano dere-

cha) fijo y rotar el tracker 2 alrededor suponiendo que se esta rotando la c´amara.

Adicionalmente, el usuario puede cambiar la elevaci´on y el zoom modificando la dis-

tancia y la elevaci´on (par´ametros BETA y OMEGA respectivamente) entre los dos

trackers, como lo indica la Figura 76. El usuario debe modificar el punto de vista

116 Figura 76: Par´ametros de manipulaci´on de la c´amara por medio de los trackers.

para reproducir el estado de la c´amara que se presenta en la muestra, revisando los

cambios en el tel´on de proyecci´on.

A.2.2.2. Tarea de manipulaci´on de un objeto 3D

Esta tarea consiste en seleccionar un objeto en particular, manipularlo y conseguir que su posici´on, orientaci´on y escala concuerden con una muestra que ser´apresentada al usuario al iniciar la tarea. El procedimiento para llevar a cabo esta tarea es el siguiente:

1. Revisar la muestra con el estado del objeto a reproducir.

2. Activar el panel de selecci´on. Para esto se debe hacer un click sobre el bot´on 1 del

FingerMouse (Figura 75). En este panel se mostrar´ala visualizaci´on de un arb´ol

hiperb´olico que contiene una estructura jer´arquica con los objetos que se pueden

seleccionar.

3. Seleccionar el objeto de la muestra haciendo click sobre el nodo que aparece en el

panel de selecci´on con el mismo nombre. Para posicionar el cursor sobre el nodo

de inter´es, el usuario debe usar el posicionador del FingerMouse (Figura 76) y la

selecci´on se ejecuta pulsando el bot´on 1 por segunda vez.

4. Manipular el objeto por medio de los trackers. El usuario puede manipular directa-

mente la posici´on y la orientaci´on del objeto por medio del tracker 1 (mano derecha).

Si el usuario apunta su mano derecha hacia arriba, sus movimientos y cambios de

orientaci´on cambiaran los del objeto seleccionado directamente. De la misma forma,

117 el usuario puede cambiar la escala del objeto variando la distancia entre el tracker

1 y el traker 2. El usuario debe manipular el objeto hasta reproducir el estado

de la c´amara que se presenta en la muestra, revisando los cambios en el tel´on de

proyecci´on.

A.2.2.3. Tarea de manipulaci´on la herramienta de corte sobre informaci´on vo- lum´etrica

Esta tarea consiste en seleccionar un objeto en particular, manipular un plano de corte 3D y conseguir que la posici´on de dicho plano concuerde con una muestra que ser´apresentada al usuario al iniciar la tarea. El procedimiento para llevar a cabo esta tarea es el siguiente:

1. Revisar la muestra con el objeto y el plano de corte a reproducir.

2. Activar el panel de selecci´on. Para esto se debe hacer un click sobre el bot´on 1 del

FingerMouse (Figura 76). En este panel se mostrar´ala visualizaci´on de un arb´ol

hiperb´olico que contiene una estructura jer´arquica con los objetos que se pueden

seleccionar.

3. Seleccionar el objeto de la muestra haciendo click sobre el nodo que aparece en el

panel de selecci´on con el mismo nombre. Para posicionar el cursor sobre el nodo

de inter´es, el usuario debe usar el posicionador del FingerMouse (Figura 76) y la

selecci´on se ejecuta pulsando el bot´on 1 por segunda vez.

4. Manipular el plano de corte por medio de los trackers. El usuario cambiar la orienta-

ci´on del plano de corte que aparece en la visualizaci´on por medio de la manipulaci´on

de un plano f´ısico que se acopla al tracker 2 durante la ejecuci´on del experimento.

Dicho plano permite cambiar la orientaci´on en el eje X y Y del plano de corte (Fi-

gura 77), para esto, el usuario debe situarse de frente al tel´on de proyecci´on. La

118 Figura 77: Operaci´on del plano de corte por medio de los trackers. profundidad del corte var´ıa proporcionalmente con la distancia entre los dos tra- ckers. El usuario debe manipular el plano de corte hasta que logre reproducir el estado de la c´amara que se presenta en la muestra, revisando los cambios en el tel´on de proyecci´on.

119 Ap´endice B

Resultados de la evaluaci´on

——————————————————–

120 121 Referencias

[1] A.D.A.M. Body guide - urinary system. http://www.besthealth.com, 2005. [2] DHPC Adelaide. Vhp data viewer. http://www.dhpc.adelaide.edu.au, 2005. [3] Wei Qiao Martin Kraus Benjamin Mora Aidong Lu, David Ebert. Interactive volume using wang cubes. 2004. [4] Mar´ıa Fernanda Aldana, Martha Luz Arango, Diego Leal, Esperanza L´opez, Luz Osorio, and Ana Mar´ıa Salazar. Metodolog´ıa para la construcci´on de ambientes virtuales como apoyo a la educaci´on presencial. 2003. [5] Alias. Maya. http://www.alias.com/glb/eng/products-services, 2005. [6] Anton Alstes. Wang tiles for image and texture generation. 2004. [7] Medical Arts. Kidney and nephron medical 3d . http://www.med- ars.it/galleries, 2005. [8] Benjamin Bederson, Jamess Hollan, Ken Perlin, Jonathan Meyer, David Bacon, and George Furnas. Pad++: A zoomable graphical sketchpad for exploring alternate interface physics. Journal of Visual Languages and Computing, 1995. [9] Staffan Bj¨ork, Lars Erik Holmquist, and Johan Redstr¨om. A framework for fo- cus+context . 1999. [10] Doug A Bowman, Ernst Kruijff, Joseph LaViola, and Ivan Poupyrev. 3D User Inter- faces: Theory and Practice. Addison Wesley Professional, 2004. ISBN 0201758679. [11] and David Nation. Degree of interest trees: A component of an attention reactive user interface. 2002. [12] Lexington Community College. The kidney model. http://www.uky.edu/LCC/BSN/BIO, 2005. [13] K. Kari Culik K. An aperiodic set of wang cubes. Journal of Computer Science, 1995. [14] Pablo Figueroa, Mark Green, and James Hoover. Intml: a description language for vr applications. Proceeding of the seventh international conference on 3D Web tech- nology, 2002.

122 [15] Center for Advanced Visualization and Interaction. Cavi. http://www.systematic.dk, 2005.

[16] George Furnas. Generalized fisheye views. CHI, pages 16–23, 1986.

[17] GeoWall. Geowall project. http://geowall.geo.lsa.umich.edu, 2005.

[18] Wang Hao. Games logic and computers. Scientific American, 1965.

[19] Lars Erik Holmquist. Focus+context visualization with flip zooming and the zoom browser. 1997.

[20] B. Johnson and B. Shneiderman. Treemaps: A space-filling approach to the visuali- zation of hierarchical information. Visualization, pages 284–291, 1991.

[21] Jarkko Kari Karel Culik. An aperiodic set of wang cubes.

[22] Alan Keahey. Focus+context techniques for network visualization. www.visintuit.com, 2003.

[23] Regis Kopper, Tao Ni, Doug Bowman, and Marcio Pinho. Design and evaluation of navigation techniques for multiscale virtual environments. IEEE Virtual Reality, 2006.

[24] Robert Kosara, Silvia Miksch, and Helwig Hauser. Focus+context taken literally. 2002.

[25] Kscience. The kidney. http://www.kscience.co.uk/animations, 2005.

[26] John Lamping, Ramana Rao, and Peter Pirolli. A focus+context technique based on hyperbolic geometry for visualizing large hierarchies. 1995.

[27] Kresimir Matkovic and Helwig Hauser. Process visualization with levels of detail. VRVis Research Center, 2002.

[28] David McGookin and Stephen Brewster. Fishears: The design of a multimodal focus and context system. 2001.

[29] FoxNew˜ Media. Nephron animation. http://www.foxnewmedia.de/zms, 2005.

[30] Welz Michael. The Java Pyramids Explorer : a portable, graphical hierarchy browser. PhD thesis, MUCH Iicm.

[31] Stefan Hiller Oliver Deussen Michael Cohen, Jonathan Shade. Wang tiles for image and texture generation. 2003.

[32] MMIP. 3d anatomy for students. http://sprojects.mmip.mcgill.ca, 2005.

[33] Douglas Montgomery. Design and Analysis of Experiments. John Wiley and Sons Inc., 2005. ISBN 047148735.

123 [34] L. Mroz and Tiani MedGraph. Vr2: Interactive with pc-based virtual reality. TR-VRVis, 2002.

[35] Necker. Ksim: A kidney modeling demo - the urine concentrating mechanism. http://www.necker.fr/kidneysim, 2005.

[36] Fabrice Neyret. Modeling animating and rendering complex scenes with volumetric textures. iMagis.

[37] NLM. The visible human project. http://www.nlm.nih.gov/research, 2005.

[38] NIH NLM. Anatquest viewer. http://anatquest.nlm.nih.gov/AnatQuest, 2005.

[39] OCSG. Open source csg library. http://opencsg.org/, 2005.

[40] Thomas L. Pannabecker, Diane E. Abbott, and William H. Dantzler. Three- dimensional functional reconstruction of inner medullary thin limbs of henle’s loop. 2003.

[41] Thomas L. Pannabecker and William H. Dantzler. Three-dimensional lateral and vertical relationships of inner medullary loops of henle and collecting ducts. 287, 2004.

[42] Alvaro Hern´an Galvis Panqueva. Ingenier´ıa de software educativo. 1992.

[43] Alvaro Hern´an Galvis Panqueva. Micromundos l´udicos interactivos: aspectos cr´ıticos en su dise˜no y desarrollo. RIBIE 98, 1998.

[44] Kidney patient guide. How kidneys work. http://www.kidneypatientguide.org.uk, 2005.

[45] Ken Perlin. Perlin noise. http://mrl.nyu.edu/ perlin, 2005.

[46] Ken Perlin and David Fox. Pad: An alternative approach to the computer interface. 1993.

[47] Elisabeta Marai Peter Sbley, Philip Montgomery. Wang cubes for fast geometry placement and video synthesis. 2004.

[48] Harald Piringer, Robert Kosara, and Helwig Hauser. Interactive focus+context vi- sualization with linked 2d/3d scatterplots. VRVis Research Center, 2004.

[49] G. Robertson, J. Mackinlay, and S. Card. Cone trees: Animated 3d visualizations of hierarchical information. ACM SIGCHI conference on Human Factors in Computing Systems, pages 189–194, 1991.

[50] Michael Ross, Wojciech Pawlina, and Gordon Kaye. Histology: A Text and Atlas. Williams and Wilkins, 2003. ISBN 0683302426.

[51] Rwth-aachen. Nephron seminar. http://www.physiology.rwth-aachen.de, 2005.

124 [52] Simoni Sangiorgi, Alessandro Manelli, Marina Protasoni, Marcela Reguzzoni, and Terenzio Congiu. Structure and ultrastructure of microvessels in the kidney seen by the corrosion casting method. 2004.

[53] Johan Redstr¨om Staffan Bj¨ork. Redefining the focus and context of focus+context visualizations. 2000.

[54] FACP Stephen Z. Fadem, M.D. The early renal guidebook - how the kidney works. http://www.nephron.com/htkw.html, 2005.

[55] Guy Vaysseix Emmanuel Barillot Stuart Pook, Eric Lecolinet. Context and interac- tion in zoomable user interfaces. AVI, 2000.

[56] Sumnasinc. Concentrating urine - the mammalian kidney. http://www.sumanasinc.com/webcontent, 2005.

[57] UNIMELB. The kidney simulation project. http://www.dis.unimelb.edu.au, 2005.

[58] Bob Witmer and Michael Singer. Measuring presence in virtual environments: A presence questionnaire. Presence, 7(3):225–240, 2005.

[59] www.3d models.com. 3d models web site. http://www.3d-models.com, 2005.

[60] www.turbosquid.com. 3d models web site. http://www.turbosquid.com, 2005.

[61] Ka-Ping Yee, Danyel Fisher, Rachna Dhamija, and Marti Hearst. Animated explo- ration of dynamic graphs with radial layout. INFOVIS, 2001.

[62] Ozcan¨ Oguz, Fahri Dere, Ahmet H. Y¨ucel, and Behice Durgun-Y¨ucel. Examination of microvascular estructures of midcortal region in sheepkidneys: A three dimensional approach. 1991.

[63] Xiao Yue Zhai, Henrik Birn, Knud B. Jensen, Jesper S. Thomsen, Arne Andreasen, and Erik I. Christensen. Digital three-dimensional reconstruction and ultrastructure of the mouse proximal tubule. 2003.

125