¿Eres Influyente en Internet?

¿Eres Influyente en Internet?

Cuando se habla del nivel de éxito o influencia en Twitter, la mayoría de los usuarios de esta red social lo asocia inmediatamente a la idea simplista de tener muchos seguidores, un tremendo error del que ya hemos hablado varias veces porque, como puedes ver en este post, esta cifra, por si sola, no  dice absolutamente nada sobre tu influencia real en Twitter. Algo que reconocen incluso los propios fundadores de Twitter.
Esto es así, sobre todo, por las técnicas de dudosa ética con las que la enorme mayoría de usuarios de Twitter ceban artificialmente sus cuentas, un tiempo perdido porque la calidad de sus seguidores es tan mala (interactúan tan poco) que resulta muy cuestionable que el esfuerzo invertido sirva realmente para algo que no sea presumir de un gran número de seguidores, sin contar que para muchos tuiteros es una buena razón para no hacerse seguidores de una cuenta que aplica estas prácticas.
Así que mi consejo es muy simple: si de verdad quieres aprovechar tu cuenta Twitter para algo útil, incluso sacarle algún partido a nivel profesional, céntrate en desarrollar una actividad que obtenga resultados y no en hacer el paripé con un montón de gente (y/o cuentas falsas) que básicamente pasan de ti. Y esto pasa por lo que tantas veces habrá leído ya: usar Twitter aportando valor a tu comunidad.
Así conseguirás seguidores “de verdad”, gente que realmente aprecie tus aportaciones y que por tanto interactuará contigo, gente con la que tú también interactuarás y a la que, llegado un momento dado, incluso te puedes plantear venderle algo si has generado suficiente confianza para ello. Y además, de paso, le estarás dando un buen empujón a tu marca personal.

Sólo podrás saber si eres influyente en Twitter si sabes medir correctamente

Para saber si lo estás haciendo bien has de medirlo de una manera correcta y eso pasa por usar criterios con un poco más de sentido que el dato hueco de tus seguidores en Twitter.

captura de Klout

Klout es una de las herramientas más populares para medir la influencia de los usuarios en Twitter.

Las métricas válidas son las relacionadas con la influencia que logramos en Twitter, es decir, las que miden el impacto de nuestros tweet en diferentes vertientes.
En torno al concepto de la influencia han nacido toda una serie de herramientas como Klouto PeerIndex, las cuales se basan en métricas como los retuits o las menciones para calcular unos índices de influencia que son mucho más representativos de la calidad nuestra cuenta Twitter que el número de seguidores.
En el caso de Klout, por ejemplo, usa fundamentalmente tres criterios: la cantidad de gente a la que influimos (es decir, número de seguidores), en qué medida conseguimos influirlos (retuits, menciones, comentarios, enlaces, etc.) y la relevancia o nivel de influencia de los propios seguidores. Cuanto mayor es el índice Klout, más atención estás recibiendo con tus tuits.

¿En qué te deberías fijar para medir tu influencia real en Twitter?

Usar una herramienta como Klout es una primera aproximación mucho más válida, aunque no perfecta, para medir el éxito real de tu cuenta Twitter, la calidad de tus acciones y la calidad de tus seguidores. De hecho, tanto Klout como PeerIndex no dejan de ser herramientas que reducen al final todo a un simple índice y que, además, han recibido duras críticas por sus detractores.

En cualquier caso, los criterios medibles son los que son, así que repasamos los más importantes, los cuales te van permitir evaluar bastante bien cuál es tu nivel real de éxito en Twitter.

1. Interacciones (retuits, favoritos, menciones, respuestas/conversaciones)

Estas interacciones son el criterio más obvio, tan obvio que no entiendo muy bien cómo Twitter no incluye un índice parecido al de Klout (que se basa en gran medida en las interacciones), junto con las tres métricas de tweets, seguidos y seguidores que se ven en la portada de los perfiles de Twitter.
Serían muy interesantes, por ejemplo, uno indicadores tan simples de retuits por mes (mediría el impacto en tus seguidores inmediatos) y otro que fuera este mismo número dividido entre el número de seguidores (mediría calidad de tus tuits y “el caso” que te hace tu comunidad de seguidores).
¿Cómo es posible que Twitter no ofrezca un simple cuadro con cosas tan simples? ¿Será porque temen tirar piedras contra su propio tejado al destapar con ello a la gran cantidad de vendedores de humo que pululan por Twitter?

2. Conversiones (clics, acciones, etc.)

Otro criterio muy importante son las “conversiones”, es decir, las veces que hayas logrado una acción por parte de un seguidor en Twitter (típicamente que haga clic en un enlace).

imagen perfil Twitter

Este espacio sería un buen lugar para añadir un indicador de la influencia real de la cuenta. Es difícil de comprender que Twitter no corrija un defecto tan obvio.

Esta métrica no solamente es útil para medir tu influencia (porque reflejará la confianza que tiene tu público en ti) sino que además resulta un feedback tremendamente útil (qué le gusta y qué no a tu público), aunque esto último relativiza también su valor como métrica para medir tu influencia.
En cualquier caso, un truco para medir el éxito de los tweets es usar acortadores de URLs para los tweets con enlace. Acortadores como bitlyque permiten crearte una cuenta con estadísticas del número de clics que ha recibido el enlace acortado con ellas.
Si usas herramientas para el encolamiento automático de tweets para enviarlos en horarios óptimos como Buffer (que recomiendo muy encarecidamente) ya tienes esta funcionalidad incorporada en la propia herramienta. Algo similar ocurre con la herramienta Twitterfeed que ya hemos recomendado en numerosas ocasiones para conseguir seguidores de calidad en Twitter.

3. En cuántas listas estás

Que alguien te incluya en una lista de Twitter es un reconocimiento a tus aportaciones. Por tanto, este sería otro indicador muy sencillo y claro de la calidad de una cuenta Twitter.
Aunque Twitter te permite ver el listado de las listas en las que figuras, no han tenido el pequeño detalle de visualizar en alguna parte el número exacto de listas y en nuestro caso, por ejemplo, que ya estamos en más de 200, pues se hace algo pesado contarlas una a una…
Pero, por suerte, hay herramientas como Twitonomy que te dicen esta cifra.

4. Número de #ff recibidos

Los Follow Friday son unas menciones de reconocimiento especial hechas por otros usuarios (usando los hashtags de #ff o #followfriday) que premian expresamente la calidad de las cuentas mencionadas. Normalmente son los usuarios más influyentes los que más #ff reciben. Así que resultan un indicador de calidad bastante interesante.
Aunque esta misma circunstancia también tiene su lado oscuro porque puede también ser un indicador bastante manipulable cuando lo usan grupos de tuiteros que se coordinan entre sí para hacerse mutuamente este tipo de reconocimientos  para autopromocionarse.

5. Seguidores activos / inactivos / fake (falsos)

Una parte no despreciable de las cuentas Twitter son cuentas falsas o inactivas. Estas cuentas se pueden detectar con herramientas como Fake Followers Check (detecta cuentas falsas) o Twit Cleaner (detecta cuentas con determinados comportamientos “sospechosos”). De hecho, yo las uso para limpiar de vez en cuando la lista gente a la que seguimos porque regularmente se nos cuelan falsos seguidos (seguramente a través de herramientas que usan en API de Twitter).
En este sentido es interesante saber qué % de una cuenta Twitter son seguidores reales (auténticos y activos) ya que los falsos o inactivos no se pueden contabilizar como seguidores, son puro humo y no te ayudarán en nada para mejorar tu nivel influencia en Twitter.

¿Cómo medir con estas métricas?

Hay una increíble cantidad de herramientas de análisis y monitorización de Twitter, junto con una cantidad increíble de posts de las “X mejores herramientas de Y para Twitter”.

imagen Twitonomy

Twitonomy aporta métricas de muchísimo valor y lo hace gratis. La captura sólo refleja una pequeña parte,

Entre esta jungla de información uno de los post que más me han gustado (y eso que es un listado muy cortito comparado con otros), y cuya lectura te recomiendo especialmente, es este post de 10 Herramientas de análisis y estadísticas visuales (en inglés). No todas me convencen, pero en cambio, algunas como Twitonomy (la descubrí  gracias a este post) o TweetStats son muy recomendables.
En particular, Twitonomy me parece espectacular teniendo en cuenta que ofrece gratis un nivel de información y prestaciones que normalmente sólo se encuentran en herramientas de pago. Ya verás como con esta herramienta irás más que servido por mucho tiempo.

Concluyendo

No cabe duda de la importancia y del valor de Twitter como red social y como herramienta de comunicación y difusión, pero desgraciadamente también está llena de cosas que son humo como lo es la falacia de que el número seguidores refleja tu importancia o influencia en Twitter.
Sin embargo, si te quieres tomar esta red social en serio, verás que, bien usada, funciona muy bien. Pero para ello tienes que aprender a usar las métricas correctas para medir tus progresos y no autoengañarte creyendo que si consigues muchos seguidores a base de seguir a otros que te hacen un “follow back” estás progresando.

Lo que estás haciendo en este último caso es simplemente perder el tiempo.

Adicionalmente, con estas herramientas vas a aprender a conocer más a tu público ya que verás los horarios en que la mayoría interactúa, los temas que más les interesa y quiénes son sus abonados más activos.

Con estas herramientas vas a aprender a conocer más a tu público ya que verás los horarios en que la mayoría interactúa, los temas que más les interesa y quiénes son sus abonados más activos.   
Estas estadísticas están para ayudarte, úsalas de forma positiva y te ayudarán a optimizar su presencia en internet. 

Mide: Twitter, Facebook, Google+, Linkedin, Foursquare, Youtube, Instagram, Tumblr, Blogger, WordPress, Last.fm y Flickr
Mide: Facebook, Twitter, Linkedin, Quora y los Blogs
Mide: Facebook, Twitter, Analytics, Youtube, MySpace y Bit.ly
Mide: Facebook, Twitter, Linkedin y Foursquare
Mide: Facebook y Twitter
Mide: Twitter, Facebook, Google+ y Linkedin
Mide: Pinterest
Mide: Google+
Mide: Twitter
Mide: Twitter
Mide: Twitter
Mide: Twitter
Mide: Twitter
Mide: Facebook
Mide: Twitter
82% de las páginas Facebook hacen menos de 5 publicaciones al mes

82% de las páginas Facebook hacen menos de 5 publicaciones al mes

Un estudio hecho por la firma Recommend.ly revela que el 82% de las páginas Facebook comparten menos de 5 publicaciones por mes. 54% de estas publicaciones son actualizaciones sin enlaces fotos o videos.

Un promedio de 91% de las conversaciones que se dan en las páginas Facebook de empresa son descuidadas. Las empresas locales son aquellas que son menos activas en Facebook. Ellas participan en el 6% de las conversaciones que tienen lugar en sus páginas. El 56% de las páginas Facebook tienen menos de 256 fans.

Según Recommend.ly que ha analizado 1,7 millones de páginas en Facebook para hacer el estudio, las marcas siguen estando desorientadas sobre la mejor forma de aprovechar el gran potencial de esta red.

El CEO de Recommend.ly informa que las marcas fracasan a la hora de compartir contenido apropiado al momento apropiado, de responder correctamente a sus abonados, de participar a las conversaciones y de comprender las medidas de interacción.

Recomend.ly es una herramienta que ayuda a optimizar la presencia en Facebook ya que analiza la página y según las estadísticas te indicará cuales son los horarios ideales para compartir información. Además podrás ver una lista con tus seguidores más activos y los mensajes sin respuesta de tu página. Puedes agregar la página de dos empresas de la competencia y ellos la evaluaran para que puedas hacerles un seguimiento.

Con la opción “Zen” tienes una lista de cosas por hacer para optimizar tu página con consejos.

Los servicios de Recommend.ly son gratuitos para las páginas con menos de 250 fans. Para los otros continua siendo gratis para la versión BETA, asi que aprovecha para hacer una evaluación de tu cuenta y optimizarla.

Mundo en 3D

Como-funciona-la-tecnologia-3D.jpg 
 iStockphoto/Thinkstock

Siempre he disfrutado de una buena película en el cine pero, en nuestros días, las nuevas tecnologías hacen que la experiencia sea realmente única y sorprendente. Aunque colocarse esas repugnantes gafas de un poco de asco, me olvido de todo cuando mis sentidos se estremecen en la sala y es que las nuevas películas en 3D han llevado el realismo a su máximo extremo.
Pero aún más divertido que ver a las señoras saltando asustadas en la sala, cuando alguna escena las toma por sorpresa y creen que algo vuela hacia su cara o tienen que esquivar un trozo de árbol en llamas cayéndole encima, es conocer cómo diantres se logra todo esto. ¿Te has preguntado cómo funciona la tecnología 3D?

Una breve mirada histórica: desde el estereoscopio a las gafas

Como-funciona-la-tecnologia-3D-1.jpg 
iStockphoto/Thinkstock

Para poder entender adecuadamente qué es y cómo funciona el 3D deberíamos remontarnos hasta el año 1838, cuando el científico e inventor británico Sir Charles Wheatstone describió el llamado proceso de estereopsis por primera vez. Según este señor, la estereopsis es el proceso a través del cual los humanos perciben en tres dimensiones, a partir de dos imágenes muy similares que son superpuestas. Wheatstone, de hecho inventó el estereoscopio, el primer dispositivo capaz de crear la ilusión de ver imágenes tridimensionales.
Con el paso del tiempo, sus ideas se fueron desarrollando y numerosos avances se fueron consolidando, lo que trajo una especial herramienta para las artes visuales. Un claro ejemplo fueron las cámaras fotográficas estereoscópicas, que permitían tomar fotografías en tres dimensiones. Estas cámaras tomaban una fotografía y creaban dos imágenes con variaciones mínimas que se capturaban en simultáneo. De esta manera, la cámara imitaba la visión binocular humana, en la que se crea una imagen para cada ojo y luego el cerebro se encarga de unirlas, formando una sola imagen en 3D.

Como-funciona-la-tecnologia-3D-2.jpg 
© Getty Images/Photos.com/Photos.com/Thinkstock

(Fotografía capturada con una cámara estereoscópica)
Aproximádamente a partir de la década de los ’50, la historia del cine comenzaba a dar su primeros pasos en el desarrollo de lo que, de cierto modo, hoy conocemos como la tecnología 3D. Para entonces, los directores comenzaron a experimentar y arreglárselas con diferentes elementos para provocar en los espectadores un efecto de tercera dimensión. Entre los ’80 y ’90, la idea del formato 3D tuvo una especie de resurgimiento y gracias al desarrollo de nuevas tecnologías, desde el 2000, la tecnología 3D se ha vuelto de lo más frecuente y eficaz.

Ley de Atraccion Gratis

Este Reporte te Explica como Aplicar La Ley y Lograr Resultados ElSecretoSobreLaLeyDeAtraccion.com
¿Carga a Venezuela?

Puerta a Puerta o Carga Consolidada Somos su Solución, Entrega Inmediat tclservices.net
Tecnología Humanitaria

Diseño y creación de tecnologías para desarrollo social www.ilabamericalatina.org
Actualmente, las películas en 3D, que son las de más alto presupuesto, están en todas partes. En realidad, hoy el 3D se utiliza en una variedad de ámbitos, hasta existen televisores con 3D que permiten utilizar esta tecnología en tu hogar y por ejemplo, en los videojuegos, se emplea todo el tiempo. Existen 4 grandes tipos de tecnología 3D que se utilizan con mayor frecuencia en el cine: el anaglifo, la polarización, el de gafas activas de obturación y el de la barrera de paralaje.

El 3D y su funcionamiento

Como-funciona-la-tecnologia-3D-3.jpg 
 Fuse/Thinkstock

La tecnología 3D funciona intentando replicar los procesos de estereopsis y las mismas ideas a las cuales nos referimos cuando hablamos de las cámaras fotográficas estereoscópicas. Nuestros ojos se encuentran a una distancia aproximada de entre 50 y 70 mm. de separación entre uno y otro, lo que resulta en el hecho de que cada uno inevitablemente capta una imagen diferente a la del otro. Ambas imágenes llegan al cerebro y allí es donde se hace la geometría de alta potencia, allí se forma una única imagen en 3 dimensiones, por lo que podemos decir que en sí el cerebro se encarga de todo. Es precisamente ésto lo que busca replicar la tecnología 3D.
En el cine (como en la TV, los videojuegos, etc.), se colocan las imágenes en la pantalla y ya sea con las gafas, lo proyectores de plata o cual sea la herramienta, especialmente diseñadas para hacerle llegar diferentes perspectivas de cada imagen a cada ojo. El cerebro averigua cuáles son las diferencias y automáticamente corrige los errores geométricos y matemáticos de cada punto y de cada ángulo, logrando una sincronización perfecta y formando una sola imagen en tres dimensiones. El cine ha sido pionero en el desarrollo de esta tecnología y aunque ya mencionaba que existen 4 tipos de ésta utilizados con más frecuencia, los 2 más comunes son el anaglifo y la polarización.

El anaglifo y la polarización

Como-funciona-la-tecnologia-3D-4.jpg 
iStockphoto/Thinkstock

El anaglifo no es más que el de las gafas azules y rojas, esas con las que luces como todo un idiota, si. Funcionan cuando se proyectan imágenes en esos dos colores, cada ojo tiene una perspectiva de cada color y el cerebro les pone el efecto 3D, pero esta técnica no es muy eficiente pues limita la gama de colores considerablemente
El de las gafas polarizadas es más común y funcionan mejor ya que la luz es polarizada o se le puede dar una orientación diferente a cada imagen. Por ejemplo, proyectar una imagen en forma horizontal y otra vertical mientras que cada lente de las gafas permitirá la polarización correspondiente, luego ya sabemos, le toca al cerebro. El problema con estas es que la cabeza debe mantenerse en una posición determinada que suele ser muy incómoda, tanto como en La Naranja Mecánica.
Para solucionar estos problemas, hoy la tecnología 3D utiliza un complejo sistema de rotación de polarización que hace que la película se proyecte en dos direcciones y giros diferentes. Luego, las gafas recogen esas rotaciones opuestas (una con sentido horario y otra antihorario) y separan cada imagen en cada lente, el resto lo hacen los ojos y el cerebro. De esta manera, no importa desde donde se mire ni si se mueve la cabeza, superando el problema de la postura.
Muy interesante, ¿no lo crees? ¿Cómo crees que se podrá utilizar esta tecnología en el futuro? ¿Para que otras cosas crees que nos puede servir fuera del ámbito del arte y el entretenimiento? 

Ajustes básicos para grabar vídeo con nuestra cámara DSLR

 Video en DSLR

La grabación de vídeo con cámaras DSLR es una realidad. Son muchos los usuarios que se lanzan por una Canon 7D o Nikon 7000 entre otros modelos buscando una opción más económica con respecto a las cámaras de vídeo profesionales. Evidentemente, pese a los grandes resultados que ofrecen hay limitaciones que no podemos obviar. De todas formas son y seguirán siendo una gran opción, más aún viendo como los fabricantes apuestan por esta función en sus nuevos modelos. Tanto en cámaras como en objetivos más silenciosos para no echar a perder una grabación por exceso de ruido al enfocar. Visto el interés de la función vídeo vamos a ver cómo configurar nuestra cámara DSLR para la grabación de vídeo.

Estilo de imagen

Estilo de imagen
Lo primero que tenemos que hacer es configurar el estilo de imagen que vamos a usar. Lo ideal es hacer uso de un perfil plano que luego nos permita un mejor etalonaje (procesado de la imagen: color, contraste, saturación…)
Si usáis una cámara Canon podéis descargar e instalar el perfil Technicolor que se puso no hace mucho a disposición de los usuarios tras un acuerdo entre ambas empresas.
Si no puedes instalar un nuevo perfil opta por modificar los que vienen ya preinstalados. Elige el perfil neutro, baja la nitidez, el contraste y la saturación. La idea es conseguir una imagen con un ligero tono grisáceo que luego nos permitirá un mejor ajuste en nuestro programa de edición.

Control de luces y el uso de los valores ISO

El siguiente punto es el control de luces. La mayoría de cámaras tienen opciones que permiten activar o desactivar el control de luces. Cuando grabamos vídeo ese control de luces automático puede llegar a resultar muy molesto. Sobre todo si nos movemos entre planos donde haya cambios con fuertes contraluces.
En cuanto a los ISO hay que procurar usar los valores ISO nativos siempre que sea posible.Principalmente porque el resto de opciones son ni más ni menos que esos mismos valores pero con ganancia subida o bajada de forma digital. Para mantener un rango dinámico adecuado los mejor es usar los ISO nativos. Y si tenemos que decidirnos por otro valor procurar que sean siempre valores ISO donde la ganancia esté bajada, por ejemplo ISO 320.

La regla de los 180 grados

Si hay algo que nos permite la grabación de vídeo con cámaras DSLR es conseguir ese look de cine que tanto gusta, aunque poco a poco esto irá cambiando. Para conseguirlo debemos controlar la apertura del obturador. La regla de los 180 grados consiste en colocar el obturador en un valor doble con respecto el número de fotograbas al que grabemos.
Por ejemplo, si grabamos a 24 o 25 fps nuestro obturador deberá estar en 1/48 o 1/50 respectivamente. Si por su parte estamos grabando a 50 fps el valor será 1/100. Esto nos permite obtener movimientos de la imagen naturales que nos recordarán a esas escenas de cine.

Extra, Magic Lantern

Magic Lantern
Si vuestra cámara es Canon y permite la instalación de firmware no oficial Magic Lantern os recomiendo encarecidamente que lo instaléis. Con esta versión modificada las cámaras ganan muchísimas prestaciones, sobre todo a la hora de grabar vídeo.
Y es que nos da un mayor control pudiendo establecer valores como la apertura, diafragma, ISO, etc… de forma más específica para cada situación. Sin duda, ML es lo mejor que podemos instalar en nuestra cámara Canon

Fuente: xatakafoto.com

Desarrollan cámara de 1 Gigapixel


Científicos de la Universidad de Duke han desarrollado una cámara de 1 Gigapixel, que se compone de cerca de 100 microcámaras, cada una de 14MP instaladas sobre una superficie esférica similar al tamaño de una pelota de fútbol. Cada microcámara captura una porción de la imagen, luego son unidas mediante un poderoso software, resultando en una sola toma de 1 Gigapixel capturada en 18 segundos. El dispositivo denominado Aware-2, pesa 100 libras, tiene un tamaño aproximado de dos hornos microondas apilados, ofrece 5 veces más detalle de lo que una persona con una medida 20/20 puede ver, además de un campo visual de 120°, viene siendo financiado por el Departamento de Defensa de los Estados Unidos por un monto de $25 millones, los responsables del proyecto confían en terminar una versión a color de 10 Gigapixeles a fin de año, para luego construir un dispositivo de 50 gigapixeles, su máximo potencial actual.

10 comparativas Vs Moodle

Como punto de partida se señalan a continuación 10 alternativas open source a Moodle. Son descripciones deliberadamente breves y es preciso visitar los distintos enlaces para explorar cada solución con algún detalle.

Docebo Se usa en formación corporativa y en educación superior. Ofrece soporte de numerosos modelos de aprendizaje y compatible con SCORM 1.2 and 2004. Ofrece interfaces a sistemas externos como videoconferencia y sistemas de Recursos Humanos.
eFront La instalación de base es minimalista pero se puede extender fácilmente con módulos disponibles en el site. Existen versiones comerciales con características adicionales.
Dokeos Un LMS bien concebido que también ofrece autoría de contenidos y herramientas de videoconferencia. Soporta conversión de documentos Office a Flash. Ofrece sincronización con sistemas de Recursos Humanos tales como Oracle y SAP.
Claroline Enfocado más bien al entorno educacional que al corporativo, este sistema está basado en principios pedagógicos específicos (como también lo está Moodle). Soporta contenido SCORM así como herramientas de contenido como Wiki y otras herramientas online.
ATutor Realmente es un LCMS, y también ofrece herramientas de gestión del aprendizaje. La “A” se refiere a su accesibilidad y tiene un excelente soporte de los estándares de accesibilidad así como soporte SCORM, IMS, QTI etcétera. Es de origen canadiense.
ILIAS Provee herramientas para test y tutoria así como elementos de colaboración como chats y foros y tecnologías de distribución como RSS y podcasts.
OLAT Un sistema bien concebido en su décimo año de desarrollo, pero tiene bastantes requerimientos respecto del servidor.
Sakai Concebido por las Universidades, es un proyecto con un mapa de ruta muy claro y que ha avanzado considerablemente en los últimos años. Basado en Java/Tomcat es mantenido por la Sakai Foundation que gestiona las relaciones con los apoyos educacionales y comerciales.
.LRN Desarrollado originalmente por el MIT, .LRN dice ser la solución LMS más adoptada en entornos corporativos.
openelms Se promueve específicamente como una solución de negocio y tiene una base diversa de clientes, desde Merrill Lynch al club de fútbol Queens Park Rangers.
Ganesha El LMS fue desarrollado por Anema, existe desde 2001 y está en uso en numerosas organizaciones de gran tamaño. El site, como el propio LMS está en francés, pero puede ser localizado.
Hasta aquí hemos traducido de eLearning Zone. Hay que añadir que Moodle tiene una presencia muy grande entre las universidades españolas, donde todo apunta a que es la solución mayoritaria. Es una solución con una comunidad grande y activa que ha generado muchos módulos adicionales. Eso no quiere decir que sea la única adoptable o que sea la recomendable para todo tipo de proyectos. Asimismo entre las listas anteriores encontramos que probablemente no sea la mejor solución “corporate”, aunque sí puede ser apropiada también en proyectos bien focalizados y definidos. Posee la ventaja añadida de tener una buena base de personal que lo sabe manejar, pero obviamente no se le pueden pedir enfoques que no tiene o funcionalidades de las que en este momento carece.
Desde una perspectiva general la mayoría de estas herramientas corresponden a la era Web 1.0 y sólo recientemente comienzan a añadir elementos 2.0 tales como los wikis y los blogs, algunas de estas plataformas comienzan a incluir módulos de “red social”, como es el caso de “Atutor social”.
En cuanto al origen de estas plataformas existen tres grandes referentes: 
A. Entornos centrados en la creación, gestión y distribución de contenidos, con algunas herramientas de comunicación añadidas, pero en segundo plano. El software de referencia es ATutor.

B. Entornos centrados en la comunicación y las actividades de enseñanza/aprendizaje que incluyen, también, herramientas para gestionar materiales. El sistema de referencia es Moodle.

C. Entornos de trabajo en grupo para comunidades académicas que incorporan funcionalidades utilizables en la enseñanza, aunque no fuera éste su propósito inicial o fundamental. El sistema de referencia es .LRN.

El Proyecto OKI está incidiendo en algunas de las limitaciones técnicas de estos sistemas que carecen de APIs unificadas que permitan ir añadiendo interoperabilidad y la posibilidad de desarrollar módulos que funcionen simultáneamente en varias plataformas (ver http://www.scorm.com/blog/2008/12/what-is-a-platform-for-e-learning/ ). Al igual que hubo en su día una normalización del “courseware” a través de SCORM debería llegarse a una estandarización más clara a nivel técnico y funcional de las plataformas, que por otra parte deberían evolucionar hacia entornos 2.0  y a una alta interoperabilidad. Industrialmente esto se está concretando en un nuevo SCORM 2.0 a través de una amplia intervención de diversas empresas bajo el amparo del LETSI.
Otra dificultad y sobrecoste añadido es la excesiva dependencia de configuraciones concretas de los entornos y las escasas utilidades para gestionar la presentación gráfica de las plataformas, que normalmente ofrecen una experiencia gráfica pobre y limitada.
A nivel industrial sigue existiendo por todo ello inestabilidad en los estándares y en los desarrollos añadiéndose la paradoja de que los entornos más exitosos son conceptos que -con las excepción de SAKAI- son relativamente antiguos como entornos web, DOKEOS es una reconcepción de Claroline cuyo mayor mérito ha sido la interconexión con sistemas ERP y CRM, esta solución que está localizada en Español tiene el inconveniente de que su versión completa es Open Source pero no gratuita, requiriendo por tanto acuerdos de licencia.
Queda por ver también cómo se integrará la filosofía “cloud” en estos entornos, la interoperabilidad con redes y sistemas 2.0 altamente evolucionados e implantados (como WordPress o servicios como Google Docs o Facebook) , etcétera. Por otra parte todos estos proyectos distan enormemente de los desarrollos 3.0 por lo que cualquier decisión que se adopte en este sentido quizá sólo pueda considerarse como alternativa a corto plazo, siendo crítico el proceso de vigilancia tecnológica.
En el fondo si el centro de la red está pasando a ser el usuario ninguna de estas plataformas está respondiendo al modo de uso esperado y probablemente surgirán nuevas y radicales alternativas a estas filosofías. Conceptos como el PLE que incorpora ELGG, la extensión del concepto de eProfile y otras probablemente sí se aproximan más a las nuevas tendencias.
Asimismo en el nivel tecnológico cabe preguntarse si los entornos LAMP serán sustituidos por otros más modernos basados en Java o en Rails. Especialmente esta última plataforma requiere menos lineas de código para cada desarrollo y con ella podría evolucionarse mucho más rápidamente en comunidades más reducidas.


Artículo

@Alexandersilvar

Columnas, anchos de línea y legibilidad

Artículo publicado anteriormente en alzado.org


Resumen:

Los usuarios leen más rápido los textos con renglones de tamaño medio (60-80 cpl), que los de renglones cortos o largos. También son los de tamaño medio sus preferidos. Ello, junto a que sólo los lectores avezados leen mejor en dos columnas de texto que en una, sugiere que sigue siendo acertado utilizar el modelo de maquetación basado en tres columnas de elementos: barra de navegación, texto y opciones secundarias respectivamente. Esa maquetación funciona aún mejor usando márgenes e interlineado y, para resoluciones de pantalla de tamaño medio, empleando un ajuste líquido, que abarque todo el ancho de pantalla .


Introducción

Un aspecto importante a la hora de maquetar los contenidos de un sitio web es decidir cómo se ha de presentar la información textual para que su comprensión y legibilidad sean máximas. Además de los aspectos relacionados con la redacción y composión del texto es necesario que el texto se visualice adecuadamente para una correcta lectura. Para ello hay que decidir aspectos como el número de columnas de texto y el ancho idóneo de los renglones a emplear.
Además, hay que poder presentar los textos en monitores de muy alta resolución y, al tiempo, hacerlo compatible con dispositivos tipo PDA.


El ancho de línea

Según la Asociación para la investigación de medios de comunicación (AIMC) (PDF), más del 65% de los internautas españoles ya emplea una pantalla con una resolución superior a los 1000 pixels de ancho. Ante ello, hay que plantearse si tiene sentido seguir empleando renglones de tamaño medio como hasta ahora.
Cada vez es más frecuente encontrar resoluciones de hasta 1900 pixels de ancho. Un diseño líquido en el que los renglones de texto ocupen un ancho tan grande no parece, a priori, que mejore mucho la legibilidad.
Aunque los estudios empíricos con usuarios no son unánimes en cuanto al efecto de la longitud de línea en la velocidad de lectura y comprensión de los textos, sí que parecen resultar mejor los renglones de tamaño medio que los muy cortos o muy largos.
El problema que suelen ofrecer los renglones cortos es que la vista debe realizar frecuentes saltos de línea y eso resulta cansado. El problema para los renglones largos, en cambio, es que el ojo debe realizar un recorrido excesivamente largo y también termina por hacerse pesado.
Pese a ello, hay varios estudios que avalan la idea de recomendar renglones relativamente largos (de 80 a 100 caracteres por renglón) alegando que se leen más rápido que los renglones cortos (Duchniky y Kolers, 1983; Dyson y Kipping, 1998; ambos trabajos citados en Dawn, 2005). El propio estudio empírico de Dawn (2005) termina mostrando una ligera ventaja en rapidez lectora para renglones de 95 cpl.
Otros trabajos, por contra, aconsejan el uso de renglones de tamaño corto-medio. Tambien en Dawn (2005) se mencionan las aportaciones de Dyson y Haslgrove (2001) según los cuales los renglones de 55 cpl se leen más rápidos que los de 100 cpl (largos) o los de 25 cpl (cortos).
Un trabajo de García y Short (2002) (PDF) señala que los usuarios leen algo más rápido los renglonesdeentre60 y 80 cpl que otros más largos (100 y 120 cpl) o cortos (40 cpl).
También recomiendan renglones de tamaño medio Beaufort y Zwaga (1997) y Brooks (2003), para quien, citando a Bringhurst, el rango aceptable está entre 45 y 75 cpl (para una columna con letra serif) y el ideal en 66 cpl.
Un estudio anterior de Bernard et. al. (2002) con niños y adultos no fue capaz de encontrar diferencias significativas en cuanto a rapidez en la lectura y comprensión del texto relacionadas con el ancho de renglón. Pese a ello, a partir de los datos de satisfacción de los usuarios, dicho trabajo indicaba claramente que los usuarios adultos preferían la página con renglones de tamaño medio, frente a otros de tamaño pequeño y grande. Por su parte, los niños preferían los renglones cortos. Lo que sí quedaba claro, en todo caso, era que los renglones largoseran los menos queridos por los usuarios.
Fig. 1. Renglones largos Fig. 2. Renglones de tamaño medio Fig. 3. Renglones de tamaño pequeño
Texto con renglones de tamaños grande, medio y pequeño. Fuente: Bernard (2002)
En definitiva, aunque los estudios empíricos no son unánimes al respecto, es preferible usar renglones de tamaño medio (60-80 cpl) antes que los de tamaño largo o corto. Además, éstos son los preferidos de losusuarios.
Así, buena parte de esta recomendación está basada no sólo en datos de legibilidad y rapidez de lectura, sino también en las preferencias de los usuarios, es decir, una cuestión subjetiva. Ello quiere decir que, independientemete de que la usabilidad real se pueda ver beneficiada directamente por el uso de renglones cortos-medios, además hay que contar con el efecto añadido de la usabilidad percibida. Es decir, si consideramos la usabilidad percibida como un factor más de la usabilidad, hemos de inferir que una mejora de la usabilidad percibida repercutirá en una mejora de la usabilidad real. Es decir, si el usuario hace algo con satisfacción lo hace mejor que sin ella, con lo que ello posiblemente termine mejorando la usabilidad real.


Número idóneo de columnas

Por tanto, si los usuarios prefieren los renglones no muy largos, y éstos se leen algo mejor, cabría la posibilidad de que fuera una buena idea diseñar nuestra interfaz con varias columnas de texto. Así, especialmente cuando el usuario tuviera una gran resolución en su configuración de pantalla, se aprovecharía mejor el espacio disponible en pantalla. En realidad, los estudios empíricos al respecto no avalan esta idea.
Una prueba respecto a la lectura de textos periodísticos presentados a una o varias columnas, realizada con Eyetrack III (un dispositivo para detectar hacia dónde mira el usuario durante la realización de una tarea), detectó que las personas que realizaron la prueba leían (miraban) más detenidamente los textos presentados en una columna que aquellos dispuestos al modo de los clásicos periódicos impresos en varias columnas. Sin embargo, no termina de estar claro si el mayor detenimiento en los textos a una columna obedece a una simple cuestión de hábito de lectura online o si a su facilidad de uso (Ruel y Outing, 2004).
Por otro lado, respecto a las pruebas con Eyetrack III, éstas sólo miden hacia dónde mira el usuario. Es decir, el hecho de que un usuario mire detenidamente algo no quiere decir necesariamente que realmente esté conscientemente más pendiente de ello que de otra cosa que sólo vea con visión periférica, pero de la que tiene perfecta constancia (Germani, 2005).
Un trabajo de campo de Baker (2005) no consiguió resultados concluyentes sobre el número de columnas idóneo. Sólo teniendo en cuenta por separado los datos para lectores veloces y lentos consiguió apreciar que los textos a dos columnas justificadas son mejor aprovechados por los lectores veloces, tanto en cuanto a resultados de velocidad y comprensión como en cuanto a preferencias subjetivas. Por su parte, los lectores lentos obtenían mejores resultados con los textosen una única columna.
En esta línea, Nielsen recomienda emplear emplear una sola columna en los textos pensados para usuarios con baja habilidad lectora, aunque la recomendación también es válida para usuarios con baja visión u otras discapacidades:

“Streamline the page design. Place important content in a single main column, so users don’t have to scan the page and pick out design elements in a two-dimensional layout. This guideline also helps low-vision users and users of handheld devices (such as smartphones), which narrow the field”

Por tanto, parece que sólo cuando nuestra audiencia principal sean buenos lectores la página funcionará mejor con dos columnas. Otra posibilidad es dejarle al usuario la opción de que elija (fácilmente) si desea utilizar un estilo con varias columnas.


Maquetar el texto

Aunque nos decidamos por una maquetación que sólo incluya una columna para el texto, también influye sobre el resultado final del funcionamiento y legibilidad de la página cómo se disponga ese texto en ella.
De nuevo el factor subjetivo es el que inclina la balanza hacia una recomendación concreta. Bernard y Larsen (2001) emplearon 6 maquetaciones distintas para un estudio (diseño con ajuste líquido en ventanas grande y pequeña, diseño con ancho fijo y centrado con ventana grande y pequeña, y diseño con ancho fijo y alineado a la izquierda en ventanas grande y pequeña).
Los resultados de este trabajo mostraron que no había diferencias significativas entre las distintas maquetas en términos de precisión, tiempo o eficiencia. No obstante, las diferencias subjetivas favorecían claramente el diseño con ajuste líquido (definiendo los anchos en porcentajes en lugar de en anchos fijos, de forma que se ocupe toda la pantalla, independientemente de la resolución de ésta).
Parece, por tanto, que el modelo de buena maquetación propuesto para las páginas basadas en texto no se aleja mucho de lo que la costumbre nos viene mostrando día a día. De hecho, muchos de los estándar de facto que mejor funcionan lo hacen simplemente porque el usuario está acostumbrado a ellos, los conoce, no debe aprender gran cosa sobre la disposición de elementos y el sistema de navegación (Bernard, 2001; Adkisson, 2002).
Así, el modelo que mejor funciona es bastante clásico. Tres columnas para maquetación, y sólo una de ellas para el contenido (Thurstun). Es decir:

  • La columna central estará dedicada al contenido
  • La columna de la izquierda albergará la tabla de contenidos
  • La columna de la derecha contendrá enlaces funcionales (imprimir, suscribir, descargar PDF…)

Diseño líquido a tres columnas
Diseño líquido a tres columnas. Fuente: Bernard, 2001.
En resoluciones de pantalla no excesivamente grandes esta maquetación también permitirá combinar las dos características que parecen funcionar mejor en cuanto a ancho de línea y número de columnas, pues dedicamos sólo una columna al texto propiamente dicho y, además, el ancho de línea tendrá un tamaño medio.
Será necesario plantearse, no obstante, qué hacer cuando las resoluciones habituales de los monitores se sitúen en torno a 1600 pixels de ancho. Con esa configuración, una maquetación de este tipo orginará renglones de texto excesivamente largos.
Si se opta por limitar el ancho máximo del rengón para que no exceda de los 80-90 cpl (que parece ser el umbral máximo para una buena lectura) obtendremos pantallas con un enorme espacio en blanco en la parte derecha, lo que tampoco parece ser la mejor forma de aprovechar la capacidad del monitor.
Entretanto llega ese momento debemos ir pensando soluciones óptimas. De momento, para resoluciones inferiores a 1600 pixels de ancho y mayores de 800 pixels, una solución de compromiso puede ser no hacer renglones de texto más anchos de 90 cpl y aprovechar el espacio en blanco que quedará en la parte de la derecha para incorporar todas o parte de las ilustraciones que solemos incrustar dentro del propio texto. No obstante, si en algo nos interesa el diseño para todos, esa maquetación deberá ajustarse también adecuadamente en monitores de baja resolución.


Márgenes y extensión del texto

Podemos afinar aún más en el acabado de la maquetación si nos fijamos en otros dos aspectos formales relacionados con el texto y su legibilidad. Se trata del espaciado (márgenes e interlineado) así como la extensión de cada fragmento de texto.
Un estudio de Dyson y Kipping (1998, citado en Baker, 2003) afirmaba obtener mejores resultados de velocidad de lectura en textos paginados (divididos en múltiples pantallas con un pequeño fragmento de texto cada una) que con el texto completo en una sóla página (lo que implica usar la barra de scroll). Sin embargo, Baker sostiene, en base a su trabajo con usuarios, que usar el texto completo proporciona mejores resultados de velocidad de lectura, comprensión y facilidad de escaneo que el paginado, siendo, además, este formato de texto completo al que más acostumbrados están los usuarios (Baker, 2003).
En cuanto a la separación entre líneas y entre éstas y el margen, Chaparro et. al. (2004) advirtieron que incorporar cierto margen e interlineado reduce la velocidad de lectura, pero incrementa mucho la comprensión del texto, siendo mejores los resultados globales para los textos con interlineado y margen.


Múltiples Variables

Una de las razones por las que es difícil realizar estudios de campo que muestren claramente la mejor disposición del texto en una pantalla es que es difícil aislar el efecto de una única variable, como puede ser el ancho de línea o bien el número de columnas de texto.
Normalmente son múltiples las variables que influyen simultáneamente en la legibilidad de un texto, además de las citadas, como por ejemplo:

  • Percepción física
  • Tipo y tamaño de letra
  • Contraste texto/fondo y colores empleados
  • Ajuste del monitor empleado por el usuario
  • Complejidad del lenguaje del texto elegido como muestra

De este modo, la modificación inadvertida de alguna de estas variables durante el experimento puede modificar los resultados finales, sin que este efecto pueda apreciarse en el estudio.
Por ejemplo, la alteración de un detalle que a priori podría parecer insignificante, como es la distancia y ángulo exactos desde los que el usuario mira la pantalla, podría influir decisivamente en la perturbación de los resultados finales.
Cuando una persona se sitúa frente a una pantalla su mirada abarca un ángulo de 30º del campo visual horizontal, y el resto de lo percibido se hace de forma accesoria, como en segundo plano. Por tanto, en base a las leyes de la trigonometría, se puede calcular que, para una pantalla de proporción 4:3 (ancho:alto), la distancia de observación ha de ser de unas dos veces el ancho de pantalla. Del mismo modo, el tamaño idóneo de los caracteres para que sean observables a una distancia máxima se puede fijar multiplicando dicha distancia por 0.0067 (Martínez, 2002).
Obviamente, una ligera modificación de la distancia de observación puede modificar la percepción de los caracteres en pantalla, lo que podría alterar totalmente los resultados del experimento.
Este pequeño ejemplo nos muestra que la necesidad de que los estudios con usuarios para observar este tipo de cuestiones, además de hacerse con un rigor exquisito, contemplen la interdependencia de las múltiples variables que pueden entrar en juego. Ello, claro está, complica enormemente la realización de estudios, pero en cuestiones como las aquí tratadas, en las que no parece haber una prevalencia absoluta de ninguna de las opciones estudiadas, se hace altamente necesario.


Conclusiones

El hecho de que los usuarios leen ligeramente más rápido los renglones de tamaño medio (60-80 cpl) y que, además, son los de este tamaño sus preferidos, unido al hecho de que sólo los lectores avezados leen mejor en dos columnas que en una, nos sugiere que, de momento, es una buena práctica seguir utilizando el modelo más o menos clásico de maquetación. Este modelo utiliza tres columnas que contienen la barra de navegación, el texto y las opciones secundarias respectivamente.
Además, para resoluciones de pantalla de tamaño medio, funcionará aún mejor empleando un ajuste líquido, que abarque todo el ancho de pantalla.
La mayoría de estudios empíricos consideran los renglones de tamaño medio como los más adecuados, además, los usuarios prefieren éstos claramente frente a los de tamaño pequeño o grande. Por tanto, sigue siendo perfectamente válida la idea de utilzar renglones de tamañomedio.
Aunque el usuario lee algo más lento, con el uso de márgenes e interlineado se mejora considerablemente la comprensión de los textos.
Sólo para casos muy específicos, con pantallas a gran resolución y un perfil de usuario claramente tendente al lector veloz, parece aconsejable la maquetación con el área de texto distribuida en dos columnas, al estilo de los periódicos impresos.


Enlaces y Bibliografía:

  • 7ª Encuesta AIMC a usuarios de Internet.
  • Adkisson, P. Web Design Practices.
  • Baker, R. Is Multiple-Column Online Text Better? It Depends!. Usability News.7.2.2005.
  • Baker, R. The Impact of Paging vs. Scrolling on Reading Online Text Passages.Usability News. 5.1.2003
  • Beaufort, A. y Zwaga, H. Using Type: The Typographer’s Craftsmanship and the Ergonomist’s Research. Psychonomics Department. Utrecht University, The Netherlands. 1997
  • Bernard, M y Larsen, L. What is the Best Layout for Multiple-Column Web Pages?. Usability News. 3.2.2001.
  • Bernard, M. Developing Schemas for the Location of Common Web Objects. Usability News. 3.1.2001.
  • Bernard, M; Fernandez, M; Hull, S. The Effects of Line Length on Children and Adults’. Online Reading Performance.Usability News. 4.2.2002.
  • Brooks, T. INFO 424.Information Visualization and Aesthetics (2003)
  • Chaparro, B. et. al. Reading Online Text: A Comparison of Four White SpaceLayouts. Usability News 6.2.2004.
  • Dawn Shaikh, A. The Effects of Line Length on Reading Online News. Usability News. 7.2.2005.
  • García y Short. Legibility and readability on the World Wide Web.
  • García, J.C. La mujer del César. Usabilidad percibida. Úsalo.
  • Germani, M. Eye Tracking as Silver Bullet for Usability Evaluations?. Another Useful Blog.
  • Martínez, A. Percepción y legibilidad.
  • Nielsen, J. Lower-Literacy Users. Alertbox
  • Ruel, L.; Outing, S. Article-Level Page Design: What Matters Inside?.
  • Thurstun, J. Reading Home Pages.
  • Broadcast gratuito

    Ustream TV es una plataforma interactiva de emisión de video en vivo. Lo simple del sitio permite a cualquiera con una cámara, un ordenador y una conexión a Inrternet, poner video en stream a múltiples espectadores sin ninguna instalación de software.
     Los servicios de Ustream son completamente libres y soportados por los avisos en este momento.
    Ustream TV es un gran servicio para la gente que busca nuevo contenido de video online, como también para los emisores, que quieren un camino fácil para llegar a sus fans. Armado con solo una webcam, cualquiera puede ser una estrella en su propio show de TV.

     http://www.ustream.tv

    Visita el canal de nuestro blog

    http://www.ustream.tv/channel/tecnopensadores

    Ilusión óptica

    Mira detenidamente la imagen:
    rIlusión Óptica de la dirección de giro

    Se dice que… si ves a la mujer girando en el sentido de las agujas del reloj estás usando el lado derecho de tu cerebro, (conocido también como emocional o creativo).
    Si lo ves en sentido contrario estás usando el lado izquierdo o racional.
    Solución: Concéntrate sólo en el pié de apoyo e intenta cambiar el sentido de giro.
    Puedes probar también cerrando algo os ojos o empezar viendo sólo los extremos de la imagen y continuar poco a poco.