martes, 4 de octubre de 2011

Web Semántica








Cuando Internet comenzó a funcionar en 1991, la Red era poco más que un conjunto de páginas estáticas de texto conectadas entre sí por medio de hipervínculos, algo muy lejos de lo que había imaginado su inventor, Tim Berners-Lee. Ahora el organismo que dirige, el World Wide Web Consortium (W3C), ha publicado una nueva norma que contribuirá a acercar la Web Semántica al concepto que hoy tenemos de la Red. Por Elena Higueras.

Según un comunicado publicado por el MIT (Massachusetts Institute of Technology), el organismo de normalización industrial W3C (Word Wide Web Consortium) ha desarrollado un nuevo estándar que permitirá adelantar posiciones en la carrera por lanzar la verdadera Web Semántica. Sus creadores lo han bautizado como RIF, Regla de Intercambio de Formato, un camino diferente que establece las normas que deben seguir los programadores a la hora de escribir las reglas de intercambio de datos provenientes de diferentes sitios web.

El concepto de
Web Semántica
hace referencia a una Web extendida, es decir, dotada de mayor significado (más semántica), en la que cualquier usuario podrá encontrar respuestas a sus preguntas de forma más rápida y sencilla gracias a una información mejor definida. Gracias a la semántica en la Web, el software es capaz de superar los problemas de sobrecarga de información y heterogeneidad de fuentes, procesando los contenidos de las páginas de Internet, combinándolos y realizando deducciones lógicas.

Para entender cómo funciona supongamos que estamos buscando los menús de un determinado tipo de restaurante en una parte concreta de la ciudad. Mientras una búsqueda convencional nos devolvería un listado de páginas que contienen la palabra “menú”, la misma operación con la Web Semántica sólo nos ofrecería los sitios exactos dónde consultar detalladamente los menús de los restaurantes que nos interesan.

Pero… ¿cómo lo hace? No se trata de una inteligencia artificial mágica que permita a las máquinas entender las palabras de los usuarios, sino de la habilidad de un software para resolver problemas bien concretos, a través de operaciones bien planteadas que se llevarán a cabo sobre datos existentes bien definidos. Para lograr esta capacidad de concreción la Web Semántica utiliza mecanismos que ayudan a convertir la Web en una infraestructura global en la que es posible compartir y reutilizar datos y documentos entre diferentes tipos de usuarios.

·         Los usuarios de smartphones son cada vez más inteligentes

·         Nace la Red Temática Española de Linked Data

·         Un nuevo algoritmo mejora los resultados de búsqueda en la web

·         Ya es posible utilizar la web semántica de forma sencilla

·         Crean un buscador multilingüe basado en una interlingua

En palabras de Sandro Hawke, arquitecto de sistemas en la World Wide Web Consortium (W3C), “la Web Semántica es una base de datos donde cada persona controla su propia información. Usted dispone de su parte de la base de datos, de modo que puede poner en ella cualquier dato que desee".



Web 2.0

De Indianopedia


Se llama Web 2.0 a la etapa abierta en Internet tras la caída de las puntocom (2001-2002), en la que los contenidos de los servicios online de referencia pasaron a ser creados por los propios usuarios en vez de por plantillas profesionalizadas. Esto, a su vez, permitió la participación de los usuarios en la generación del output de los servicios y a veces la interacción en comunidades

En conjunto la llamada web 2.0 ha conocido una evolución, o más bien valdría una regresión, continua en las formas de relación y la topología de redes que la sustentaban. En el periodo 2002-2010 distinguimos 3 fases caracterizadas por la preeminencia mediática de un tipo de software o servicio, una topología de red y una forma cultural característica de las formas de relación derivadas:

Regresión del modelo y topología de relación

Visto ahora con cierta perspectiva, en el periodo 2002-2010, el de la llamada web 2.0, distinguimos 3 fases caracterizadas por la preeminencia mediática de un tipo de software o servicio, una topología de red y una forma cultural característica bajo la que se viven las formas de relación derivadas:

Blogsfera (red distribuida) y cultura de la interacción (experiencia social de la plurarquía en un entorno definido por la lógica de la abundancia)

Wikipedia y servicios web participativos (red descentralizada) y cultura de la participación (la generación artificial de escasez se justifica sobre el discurso dospuntocerista, el rankismo y el participacionismo se convierten en moneda de cambio)

Facebook/Twitter (red centralizada), con la reemergencia de una cultura de la adhesión llevada al paroxismo por los libros de caras.


El año 2007 fue seguramente el gozne de todo este proceso. Es el año del gran hype
dospuntocerista, se multiplican los congresos y conferencias en todo el mundo, los medios hablan continuamente de la Wikipedia y aunque hablan de blogs todavía, empiezan a recoger noticias sobre los primeros pasos de twitter y del crecimiento de facebook.

Los nuevos servicios estrella serán pronto jaleados por los medios tradicionales en una campaña que presagia ya una estrategia de recentralización de la red en la que Google ha sido pionera y que lleva de cabeza la cultura de la red, que con la Wikipedia ya había pasado de la interacción de la blogsfera al participacionismo a un escalón aún más bajo: la cultura de la adhesión.

  Los móviles empresariales tras la regresión dospuntocerista

Las empresas de la burbuja puntocom pensaron que la generación de valor en Internet residía en la producción de contenidos o en la sustitución de intermediarios comerciales y financieros en el comercio por catálogo.

En la época de la web 2.0 el foco del negocio se pone en los datos, la herramienta ebe servir lo mejor posible a ese nuevo foco, y por tanto se debe poder controlar cuantos más datos de más usuarios mejor: masividad y centralización de la información sobre los usuarios serán los dos objetivos principales.

Los primeros servicios dospuntoceristas desarrollaron una manera bastante burda de poner esto en valor (generación artificial de escasez vía output único según el modelo de digg o Wikipedia).

Sin embargo los libros de caras que representan la segunda ola de este tipo de enfoques comerciales, van mucho más allá: consiguen convertir en producto todos y cada uno de los clicks de sus usuarios, al fin y al cabo todos y cada uno de los clicks son almacenados y ayudan a optimizar el perfil publicitario de los mismos.

La regresión cultural y de los modos de socialización a lo largo de la historia de la web 2.0 es paralela y está motivada por la conversión de la información personal en producto principal de las empresas en Internet.

Google será el primero en poner en monetarizar esta capacidad para la elaboración de perfiles a través de su publicidad contextual (que ya le había convertido en la primera empresa del mundo).

El lanzamiento y extensión del uso de Gmail, un gran triunfo conseguido, apoyándose en la enorme infraestructura generada a partir del binomio buscador-publicidad contextual, mostró el camino de la forma más avanzada de los nuevos modelos de negocio: utilizar la infraestructura como ventaja competitiva ofreciendo el uso de software y la virtualización del hardware (la nube) como servicios de modo que se ampliaba hasta el paroxismo el horizonte de datos e información a centralizar.

Una lógica que explotará facebook hasta el punto de autodefinirse como sistema operativo social y plantearse como alternativa no a los servicios de otros competidores o incluso al espacio social definido por la blogsfera... sino a Internet en su conjunto.



Fuentes:





1 comentario: