Tomar diversas fotografías, etiquetarlas mediante marcado semántico (el cielo, la gente, las calles, las casas) y fundirlas para crear un entorno completo de forma inteligente es una de las cosas que pude ver hace poco en Adobe MAX 2008 Milan – Sneak Peeks.
Shai Avidan, el responsable para Adobe de otra impresionante herramienta para fotocomposición, “content-aware scaling” (escalado contextual de imágenes) que ya incorpora, como vimos, Photoshop CS4 es el responsable de la historia.
Os hablo de ella sólo como ejemplo de aplicación práctica de tecnologías semánticas, complementarias a las actuales, que mejorarán la web actual.
La idea básica de la aplicación anterior como de esta es la misma, la Internet de las personas que intenté transmitir en un taller reciente acerca de web 3.0, expresada por Simon Bergweiller, compañero de Matthieu Deru en la creación del proyecto CoMET en el Advanced Tangible Interface Lab (centro de investigación Alemán para la inteligencia artificial), en los siguientes términos:
“Las operaciones complejas deben estar ocultas. Son gestos simples del usuario los que permiten interactuar con la complejidad de las bases de datos de la Web 3.0, sin necesidad de conocer los complejos lenguajes de programación de base.”
Dicho en otros términos, la idea es que las cosas en internet, descritas de forma más completa, pueden ser entendidas por las máquinas: igual que en el ejemplo anterior, la inteligencia artificial generada por ordenadores y redes cada vez más potentes, puede representar importantes avances en usabilidad, en mejora de la experiencia del usuario.
Su kiosko o espacio interactivo compartido sería buen ejemplo de ello:
CoMET es un nuevo terminal creativo de intercambio que permite interactuar con objetos anotados de forma semántica.
En definitiva, se trata de un quiosco virtual experimental basado en un iPhone y un puntero que permite arrastrar iconos a través de la pantalla táctil.
Los MP3 que contiene son “cosas”, objetos traducidos al lenguaje de la máquina (etiquetas ID3) con información sobre el álbum y el artista. Un círculo alrededor de cada uno nos devuelve un listado automático de canciones, ordenadas por género, artículo o artista.
Cerca de la pantalla, varios “spotlets,” agentes inteligentes que permiten interactuar de distintas formas con los objetos, pueden reproducir MP3 o buscar en Youtube vídeos relacionados bajo un mismo criterio.
Veremos pronto la versión web de la aplicación, así como la ampliación de las modalidades de interacción con la herramienta a instrucciones verbales (reconocimiento de voz)
Imaginad las implicaciones del tema para entornos de entretenimiento doméstico…pudiendo hablar con el televisor para obtener objetos multimedia relativos a lo que estamos viendo…
Con solo un poco más de imaginación podemos ampiar el ejemplo a la Internet de las cosas: los componentes de cualquier mecanismo (un coche, por ejemplo) podrían estar dotados de antenas RFID que contengan información del producto e interactuen con el ordenador o “quiosco” para proveernos de detalles técnicos…
Fuente: Making sense of the ‘semantic Web’
Entrada leída 1017 veces desde Abril de 2022
necesito de urgencia o me muero una aplicaion bajo la web 3.0 con sus respectivos instaladores.
Gracias amigos
gracias por la info