La llamativa identidad de la Copa América Chile 2015

En el marco de la Copa América Chile 2015 he buscado información de lo que a mi parecer es una extraordinaria entrega de diseño gráfico, una destacada referencia visual de un magno evento deportivo que se aleja ampliamente de los diseños (no muy exitosos a mi criterio) de las copas anteriores.

La interesante propuesta gráfica de cada una de las piezas que despiertan los sentidos en busca de emociones asociadas directa y estrechamente a la cultura ancestral Chilena, es la sólida apuesta de la agencia Brandia Central, agencia oriunda de Lisboa Portugal.

Brandia Central es una agencia especializada en Branding con una visión integral, tiene una amplia experiencia en eventos deportivos, trabaja estrechamente con la FIFA y la UEFA en esta clase de eventos.

Como ellos mismo explican: “La cultura chilena fue la base para todo el proceso creativo: la estrella de 5 puntos de la bandera nacional, la estrella de 8 puntos como un viejo símbolo nacional, así como un recordatorio de las 8 ciudades sede, el kultrun (antiguo tambor tribal)en el diseño, las representaciones visuales humanas de la cultura popular que representan 4 valores: Celebración, Pasión, superación y Triunfo. En otras palabras, un “hincha”, un corazón, dos contendientes y el más hermoso movimiento de fútbol de todos la “Chilena” (Chile). Todos estos elementos se mezclaron a través de una aproximación visual moderna. Retratando un país moderno, ambicioso y alegre.”

En esta Copa América Chile 2015, el gobierno chileno se tomó muy en serio la organización de esta justa deportiva, y previó con acierto, las oportunidades de proyección, que para el país, conlleva este evento. Por tanto, no improvisó en lo que a diseño, identidad y estética se refiere, optando por una de las mejores agencias del mundo en este ramo. Los resultados saltan a la vista en todo lo que vemos identificando esta Copa América Chile 2015.

En mi opinión, la propuesta combina de forma exquisita la esencia cultural de un Chile indígena y moderno, un toque ecléctico en el que destacan elementos figurativos, cromáticos y tipográficos autóctonos, pero con una visión de las tendencias de diseño actual.

En el identificador se observan fuente con sutiles curvas, sin remates tipo palo seco y otra kirtomórfica y con un estilo “escrito a mano”.
Tipografía geométrica y ortomórfica, está basada en símbolos tribales chilenos

Las tipografías creadas para el evento: la primera, una fuente de sutiles curvas, sin remates tipo palo seco; la segunda, kirtomórfica y con un estilo “escrito a mano” está fuertemente influenciada por el lettering chileno llamada Logo Type basada en tipografías a mano alzada, aunque se critica que al ver “El Corazón del Fútbol”, se parece mucho a “El Corte Inglés”, no se si por coincidencia o fue hecho estratégicamente adrede. Ambas fuentes son empleadas principalmente en el identificador.

La tercera, ortomórfica llamada Copa Type basada en estética geométrica del arte Mapuche, símbolos tribales chilenos. Juntas y contrapuestas quieren ejemplificar las caras del fútbol, la espontaneidad y la planificación, la inspiración y el trabajo.

En el proceso creativo fusionaron todos los elementos culturales esenciales, centrándolos en la propuesta visual.

Mencionaba al principio de este artículo que esta propuesta visual se quiso alejar de los aburridos, monótonos y retrógrados identificadores utilizados en las versiones anteriores de esta Copa 2015, por lo que creo que los chicos de Brandia Central lograron con éxito su cometido, a continuación una muestra de los anteriores logotipos.

En la copa Ameríca Chile 2015 se logró un destacado avance respecto al diseño de logos en los eventos similares atenriores.

No podemos olvidarnos de la mascota de la Copa Chile 2015 llamada Zicha, que es un zorro culpeo, cánido que habita en todo Chile, y aunque no ha sido muy promocionada y expuesta, cosa que últimamente se está repitiendo en eventos similares, destacan más el logotipo que la mascota. Gosa de carisma y coherencia en su diseño su geométrico respecto al resto de los motivos.

Un poco de las referencias inspiradoras para los motivos, patrones, formas y colores desarrollados en las piezas

Si es verdad, en diseño hay una premisa que dice: “menos es más” y ellos la ignoraron por completo es cierto, hay bastante saturación de texturas y gradaciones cromáticas, pero reconozcámoslo, es muy agradable visualmente, crea afinidad y atracción; cosa que le da valor agregado y minimiza las observaciones negativas.

Lo duro de los discos

Lo duro de los discos

http://www.alexandersilva.net/wp-content/uploads/2013/04/2-300x165.jpg

Los SSDs son un gran invento, reemplazan a uno de los componentes más frágiles de los computadores modernos — los discos duros — por tecnologia, que como su nombre lo dice, — Solid State Drive o Unidad de Estado Sólido — no posee piezas móviles. Esto le entrega un sinnúmero de ventajas comparativas como tolerancia a los golpes, menor consumo de energía y menor peso, entre otros.
Pero lo más importante es que hace a los componentes de almacenamiento entrar en el mundo de la Ley de Moore. Recordemos que los discos duros no son más que un disco rígido, el cual es leído por una aguja. Pasar a la tecnología SSD es como pasar del disco de vinilo al reproductor de MP3, o del tubo de vació al de silicio, un salto que el mundo del almacenamiento no había visto jamas, hasta ahora.
Veremos todos los años SSDs más rápidos, más económicos y de mayor capacidad, todo gracias a la mejora en los procesos productivos y a la miniaturización de los semiconductores. Basta con comparar la evolución de los chips de silicio versus la evolución de la tecnología de discos duros, para darse cuenta de esto.


Sin embargo, hoy, en el presente, los dispositivos de almacenamiento sólido son bastante más caros que los discos duros, cuando comparamos su precio con su capacidad de almacenamiento. Pero gracias a la Ley de Moore, solo sería cosa de tiempo para que ambas tecnologías cuesten lo mismo y veamos a los actuales discos duros desaparecer.

Cueste lo que cueste

La clave de esto esta en que los chips usados en los discos SSD logren una densidad — capacidad — que sea comparable a aquella que vemos en los discos duros, y luego reducir su precio. Porque la estructura de costos de un disco duro y de un SSD es completamente distinta. Mientras el costo de fabricación de un disco duro de 500 GB es marginalmente mayor al de uno de 80 GB — ya que gran parte del costo se va en el PCB, motor y aguja, mientras que un plato más denso que otro cuesta practicamente lo mismo — el costo de manufactura de un SSD de 80 GB es prácticamente la mitad que el de uno de 160 GB, ya que el costo inicial del PCB es marginal, sin embargo los chips, cuya suma nos da la capacidad finalmente, son el costo preponderante en estos componentes, haciendo que su estructura de costos sea lineal a su capacidad.

Las cifras y precios son solo a modo de ejemplo

Las cifras y precios son solo a modo de ejemplo

Esto quiere decir que si queremos ver SSDs al mismo precio de los discos duros, no solo en capacidad pequeñas — como los ya obsoletos discos duros de 80 GB — sino a lo largo de toda la linea de productos, solo basta esperar.

No todos somos iguales

No todos los discos duros son iguales y existe un sin fin de escenarios para cada uno de ellos. Por una parte, nos encontramos con los discos duros más pequeños, aquellos ‘juguetes’ de 1,8″ con capacidades de hasta 160 GB. Los vemos dentro de iPods y de sub-notebooks de generación pasada. En este segmento, el reemplazo no solo es fácil, sino que me atrevería a decir que ya se puede dar por terminado.
Los interiores de un disco Toshiba de 1,8"Por otro lado nos encontramos con los discos duros de computadores portátiles de tamaño completo, los que miden 2,5″. Estos discos, que llegan a capacidades de hasta 500 GB, son cada vez más económicos. Sin embargo, difícilmente serán más rápidos y si bien podrán tener mayores capacidades, su tamaño lo hace algo complejo para escalar con la velocidad de los SSD. Este es el disco duro que tiene tu computador portátil, y si te conformas con 128 GB o menos, hoy por hoy un SSD no debiese de costar mucho. Ahora, si realmente valoras una gran capacidad, por sobre las ventajas que te entrega un SSD, tendrás que esperar al menos un año para que sean asequibles.
Como ven, en el mundo portátil el SSD entrará rápido y fuerte y no nos extrañaría que para el 2012 ya prácticamente todos los computadores portátiles sean vendidos con esta tecnologia. Pero cuando hablamos de computadores de escritorio y servidores el asunto se pone mucho más complejo.
Los computadores de escritorio tienen discos duros de 3,5″. Estos discos duros llegan a capacidades de 2 TB o 2048 GB, sin mayores problemas y a precios relativamente asequibles. Un SSD de esta capacidad, costaría 15 veces más que un disco duro. Hablamos de que tu dispositivo de almacenamiento no solo se transformaría en el componente más caro de tu computador, sino más caro que tu computador completo con un disco convencional.
Ahora, ¿que pasa en el mundo de los servidores? Dependiendo del uso, veremos una entrada mayor o menor en esta arena. Un servidor que maneja una base de datos mediana, no necesita mucha capacidad, mas si redundancia y velocidad. Un servidor de archivos — por ejemplo los servidores que almacenan elementos estáticos — no necesitan de gran velocidad, pero si capacidades groseras.

¿Entonces?

Soy un convencido — y creo no ser el único — que los discos duros más temprano que tarde, serán historia. Sera un proceso fluctuante, dependiendo del segmento que aborde, pero sucederá. Si bien el disco duro lleva una ventaja de 53 años, su aceleración en cuanto a innovación es lineal, mientras que la tecnologia SSD acelera exponencialmente, conducida por Moore y su ley.
En algunos segmentos la tarea ya esta lograda, en otros, será más lento, pero creo que pronto llegará el día en que nos olvidaremos de los chirridos de los discos duros y disfrutaremos del silencio, sin importar si buscamos redundancia, velocidad y gran capacidad de almacenamiento. 

Así funcionan los discos duros y sus ingeniosos mecanismos

(En inglés)

Toca lo Táctil,  pantallas AMOLED

Toca lo Táctil, pantallas AMOLED

Hablamos continuamente de diferentes tipos de pantallas pero no nos hemos detenido lo suficiente a explicar qué es concretamente una pantalla AMOLED. AMOLED viene de Active Matrix Organic Light Emitting Diode, significando estas cuatro últimas palabras las pantallas OLED, aún más conocidas que las pantallas AMOLED.

pantalla-amoled

Estas pantallas AMOLED se usan fundamentalmente en dispositivos móviles tales como teléfonos móviles y consisten principalmente en un conjunto de píxeles OLED que se integran en transistores de película fina, TFT, para crear una matriz de píxeles los cuales se iluminan cuando sea activan de manera eléctrica estando controlados por interruptores que regulan el flujo de corriente que recibe cada uno de los píxeles.
De este modo, el TFT regula la corriente que fluye por cada uno de dichos píxeles pudiendo diferenciar cada pixel en función del nivel de brillo que mostrará. Lo usual es que dicha corriente se controle usando dos TFT por pixel; uno se encarga de iniciar y detener la carga del condensador mientras que el otor se encarga de proporcionar el nivel apropiado de tensión al pixel para crear una corriente constante y evitar los picos de alta corriente.

Estas pantallas AMOLED cuentan con cuatro capas (capa del ánodo, capa intermedia orgánica, capa del cátodo y la capa que contiene toda la circutería) tal y como vemos representado en la imagen superior. Visto así seguro que te preguntarás, ¿qué diferencias aporta con respecto a una pantalla OLED?
De cara al consumidor la más significativa es el consumo de energía puesto que si en una pantalla OLED éste ya es bajo, en una pantalla AMOLED el consumo de potencia es aún menor siendo ideal para aquellos dispositivos donde la batería es reducida así como dispositivos que cuentan con una pantalla de entre 2 y 3 pulgadas, de ahí que sean usadas principalmente en dispositivos móviles.
Entre las ventajas de estas pantallas AMOLED, además del bajo consumo de energía, cabe destacar su delgadez y ligereza, la posibilidad de enrollar la pantalla facilitando su transporte o almacenamiento lo cual ayuda además a evitar que el dispositivo sufra una rotura gracias a su sistema de protección. Así mismo, ofrece una calidad de imagen superior y un menor coste que las pantallas LCD actuales.

¿Eres Influyente en Internet?

¿Eres Influyente en Internet?

Cuando se habla del nivel de éxito o influencia en Twitter, la mayoría de los usuarios de esta red social lo asocia inmediatamente a la idea simplista de tener muchos seguidores, un tremendo error del que ya hemos hablado varias veces porque, como puedes ver en este post, esta cifra, por si sola, no  dice absolutamente nada sobre tu influencia real en Twitter. Algo que reconocen incluso los propios fundadores de Twitter.
Esto es así, sobre todo, por las técnicas de dudosa ética con las que la enorme mayoría de usuarios de Twitter ceban artificialmente sus cuentas, un tiempo perdido porque la calidad de sus seguidores es tan mala (interactúan tan poco) que resulta muy cuestionable que el esfuerzo invertido sirva realmente para algo que no sea presumir de un gran número de seguidores, sin contar que para muchos tuiteros es una buena razón para no hacerse seguidores de una cuenta que aplica estas prácticas.
Así que mi consejo es muy simple: si de verdad quieres aprovechar tu cuenta Twitter para algo útil, incluso sacarle algún partido a nivel profesional, céntrate en desarrollar una actividad que obtenga resultados y no en hacer el paripé con un montón de gente (y/o cuentas falsas) que básicamente pasan de ti. Y esto pasa por lo que tantas veces habrá leído ya: usar Twitter aportando valor a tu comunidad.
Así conseguirás seguidores “de verdad”, gente que realmente aprecie tus aportaciones y que por tanto interactuará contigo, gente con la que tú también interactuarás y a la que, llegado un momento dado, incluso te puedes plantear venderle algo si has generado suficiente confianza para ello. Y además, de paso, le estarás dando un buen empujón a tu marca personal.

Sólo podrás saber si eres influyente en Twitter si sabes medir correctamente

Para saber si lo estás haciendo bien has de medirlo de una manera correcta y eso pasa por usar criterios con un poco más de sentido que el dato hueco de tus seguidores en Twitter.

captura de Klout

Klout es una de las herramientas más populares para medir la influencia de los usuarios en Twitter.

Las métricas válidas son las relacionadas con la influencia que logramos en Twitter, es decir, las que miden el impacto de nuestros tweet en diferentes vertientes.
En torno al concepto de la influencia han nacido toda una serie de herramientas como Klouto PeerIndex, las cuales se basan en métricas como los retuits o las menciones para calcular unos índices de influencia que son mucho más representativos de la calidad nuestra cuenta Twitter que el número de seguidores.
En el caso de Klout, por ejemplo, usa fundamentalmente tres criterios: la cantidad de gente a la que influimos (es decir, número de seguidores), en qué medida conseguimos influirlos (retuits, menciones, comentarios, enlaces, etc.) y la relevancia o nivel de influencia de los propios seguidores. Cuanto mayor es el índice Klout, más atención estás recibiendo con tus tuits.

¿En qué te deberías fijar para medir tu influencia real en Twitter?

Usar una herramienta como Klout es una primera aproximación mucho más válida, aunque no perfecta, para medir el éxito real de tu cuenta Twitter, la calidad de tus acciones y la calidad de tus seguidores. De hecho, tanto Klout como PeerIndex no dejan de ser herramientas que reducen al final todo a un simple índice y que, además, han recibido duras críticas por sus detractores.

En cualquier caso, los criterios medibles son los que son, así que repasamos los más importantes, los cuales te van permitir evaluar bastante bien cuál es tu nivel real de éxito en Twitter.

1. Interacciones (retuits, favoritos, menciones, respuestas/conversaciones)

Estas interacciones son el criterio más obvio, tan obvio que no entiendo muy bien cómo Twitter no incluye un índice parecido al de Klout (que se basa en gran medida en las interacciones), junto con las tres métricas de tweets, seguidos y seguidores que se ven en la portada de los perfiles de Twitter.
Serían muy interesantes, por ejemplo, uno indicadores tan simples de retuits por mes (mediría el impacto en tus seguidores inmediatos) y otro que fuera este mismo número dividido entre el número de seguidores (mediría calidad de tus tuits y “el caso” que te hace tu comunidad de seguidores).
¿Cómo es posible que Twitter no ofrezca un simple cuadro con cosas tan simples? ¿Será porque temen tirar piedras contra su propio tejado al destapar con ello a la gran cantidad de vendedores de humo que pululan por Twitter?

2. Conversiones (clics, acciones, etc.)

Otro criterio muy importante son las “conversiones”, es decir, las veces que hayas logrado una acción por parte de un seguidor en Twitter (típicamente que haga clic en un enlace).

imagen perfil Twitter

Este espacio sería un buen lugar para añadir un indicador de la influencia real de la cuenta. Es difícil de comprender que Twitter no corrija un defecto tan obvio.

Esta métrica no solamente es útil para medir tu influencia (porque reflejará la confianza que tiene tu público en ti) sino que además resulta un feedback tremendamente útil (qué le gusta y qué no a tu público), aunque esto último relativiza también su valor como métrica para medir tu influencia.
En cualquier caso, un truco para medir el éxito de los tweets es usar acortadores de URLs para los tweets con enlace. Acortadores como bitlyque permiten crearte una cuenta con estadísticas del número de clics que ha recibido el enlace acortado con ellas.
Si usas herramientas para el encolamiento automático de tweets para enviarlos en horarios óptimos como Buffer (que recomiendo muy encarecidamente) ya tienes esta funcionalidad incorporada en la propia herramienta. Algo similar ocurre con la herramienta Twitterfeed que ya hemos recomendado en numerosas ocasiones para conseguir seguidores de calidad en Twitter.

3. En cuántas listas estás

Que alguien te incluya en una lista de Twitter es un reconocimiento a tus aportaciones. Por tanto, este sería otro indicador muy sencillo y claro de la calidad de una cuenta Twitter.
Aunque Twitter te permite ver el listado de las listas en las que figuras, no han tenido el pequeño detalle de visualizar en alguna parte el número exacto de listas y en nuestro caso, por ejemplo, que ya estamos en más de 200, pues se hace algo pesado contarlas una a una…
Pero, por suerte, hay herramientas como Twitonomy que te dicen esta cifra.

4. Número de #ff recibidos

Los Follow Friday son unas menciones de reconocimiento especial hechas por otros usuarios (usando los hashtags de #ff o #followfriday) que premian expresamente la calidad de las cuentas mencionadas. Normalmente son los usuarios más influyentes los que más #ff reciben. Así que resultan un indicador de calidad bastante interesante.
Aunque esta misma circunstancia también tiene su lado oscuro porque puede también ser un indicador bastante manipulable cuando lo usan grupos de tuiteros que se coordinan entre sí para hacerse mutuamente este tipo de reconocimientos  para autopromocionarse.

5. Seguidores activos / inactivos / fake (falsos)

Una parte no despreciable de las cuentas Twitter son cuentas falsas o inactivas. Estas cuentas se pueden detectar con herramientas como Fake Followers Check (detecta cuentas falsas) o Twit Cleaner (detecta cuentas con determinados comportamientos “sospechosos”). De hecho, yo las uso para limpiar de vez en cuando la lista gente a la que seguimos porque regularmente se nos cuelan falsos seguidos (seguramente a través de herramientas que usan en API de Twitter).
En este sentido es interesante saber qué % de una cuenta Twitter son seguidores reales (auténticos y activos) ya que los falsos o inactivos no se pueden contabilizar como seguidores, son puro humo y no te ayudarán en nada para mejorar tu nivel influencia en Twitter.

¿Cómo medir con estas métricas?

Hay una increíble cantidad de herramientas de análisis y monitorización de Twitter, junto con una cantidad increíble de posts de las “X mejores herramientas de Y para Twitter”.

imagen Twitonomy

Twitonomy aporta métricas de muchísimo valor y lo hace gratis. La captura sólo refleja una pequeña parte,

Entre esta jungla de información uno de los post que más me han gustado (y eso que es un listado muy cortito comparado con otros), y cuya lectura te recomiendo especialmente, es este post de 10 Herramientas de análisis y estadísticas visuales (en inglés). No todas me convencen, pero en cambio, algunas como Twitonomy (la descubrí  gracias a este post) o TweetStats son muy recomendables.
En particular, Twitonomy me parece espectacular teniendo en cuenta que ofrece gratis un nivel de información y prestaciones que normalmente sólo se encuentran en herramientas de pago. Ya verás como con esta herramienta irás más que servido por mucho tiempo.

Concluyendo

No cabe duda de la importancia y del valor de Twitter como red social y como herramienta de comunicación y difusión, pero desgraciadamente también está llena de cosas que son humo como lo es la falacia de que el número seguidores refleja tu importancia o influencia en Twitter.
Sin embargo, si te quieres tomar esta red social en serio, verás que, bien usada, funciona muy bien. Pero para ello tienes que aprender a usar las métricas correctas para medir tus progresos y no autoengañarte creyendo que si consigues muchos seguidores a base de seguir a otros que te hacen un “follow back” estás progresando.

Lo que estás haciendo en este último caso es simplemente perder el tiempo.

Adicionalmente, con estas herramientas vas a aprender a conocer más a tu público ya que verás los horarios en que la mayoría interactúa, los temas que más les interesa y quiénes son sus abonados más activos.

Con estas herramientas vas a aprender a conocer más a tu público ya que verás los horarios en que la mayoría interactúa, los temas que más les interesa y quiénes son sus abonados más activos.   
Estas estadísticas están para ayudarte, úsalas de forma positiva y te ayudarán a optimizar su presencia en internet. 

Mide: Twitter, Facebook, Google+, Linkedin, Foursquare, Youtube, Instagram, Tumblr, Blogger, WordPress, Last.fm y Flickr
Mide: Facebook, Twitter, Linkedin, Quora y los Blogs
Mide: Facebook, Twitter, Analytics, Youtube, MySpace y Bit.ly
Mide: Facebook, Twitter, Linkedin y Foursquare
Mide: Facebook y Twitter
Mide: Twitter, Facebook, Google+ y Linkedin
Mide: Pinterest
Mide: Google+
Mide: Twitter
Mide: Twitter
Mide: Twitter
Mide: Twitter
Mide: Twitter
Mide: Facebook
Mide: Twitter
82% de las páginas Facebook hacen menos de 5 publicaciones al mes

82% de las páginas Facebook hacen menos de 5 publicaciones al mes

Un estudio hecho por la firma Recommend.ly revela que el 82% de las páginas Facebook comparten menos de 5 publicaciones por mes. 54% de estas publicaciones son actualizaciones sin enlaces fotos o videos.

Un promedio de 91% de las conversaciones que se dan en las páginas Facebook de empresa son descuidadas. Las empresas locales son aquellas que son menos activas en Facebook. Ellas participan en el 6% de las conversaciones que tienen lugar en sus páginas. El 56% de las páginas Facebook tienen menos de 256 fans.

Según Recommend.ly que ha analizado 1,7 millones de páginas en Facebook para hacer el estudio, las marcas siguen estando desorientadas sobre la mejor forma de aprovechar el gran potencial de esta red.

El CEO de Recommend.ly informa que las marcas fracasan a la hora de compartir contenido apropiado al momento apropiado, de responder correctamente a sus abonados, de participar a las conversaciones y de comprender las medidas de interacción.

Recomend.ly es una herramienta que ayuda a optimizar la presencia en Facebook ya que analiza la página y según las estadísticas te indicará cuales son los horarios ideales para compartir información. Además podrás ver una lista con tus seguidores más activos y los mensajes sin respuesta de tu página. Puedes agregar la página de dos empresas de la competencia y ellos la evaluaran para que puedas hacerles un seguimiento.

Con la opción “Zen” tienes una lista de cosas por hacer para optimizar tu página con consejos.

Los servicios de Recommend.ly son gratuitos para las páginas con menos de 250 fans. Para los otros continua siendo gratis para la versión BETA, asi que aprovecha para hacer una evaluación de tu cuenta y optimizarla.

Mundo en 3D

Como-funciona-la-tecnologia-3D.jpg 
 iStockphoto/Thinkstock

Siempre he disfrutado de una buena película en el cine pero, en nuestros días, las nuevas tecnologías hacen que la experiencia sea realmente única y sorprendente. Aunque colocarse esas repugnantes gafas de un poco de asco, me olvido de todo cuando mis sentidos se estremecen en la sala y es que las nuevas películas en 3D han llevado el realismo a su máximo extremo.
Pero aún más divertido que ver a las señoras saltando asustadas en la sala, cuando alguna escena las toma por sorpresa y creen que algo vuela hacia su cara o tienen que esquivar un trozo de árbol en llamas cayéndole encima, es conocer cómo diantres se logra todo esto. ¿Te has preguntado cómo funciona la tecnología 3D?

Una breve mirada histórica: desde el estereoscopio a las gafas

Como-funciona-la-tecnologia-3D-1.jpg 
iStockphoto/Thinkstock

Para poder entender adecuadamente qué es y cómo funciona el 3D deberíamos remontarnos hasta el año 1838, cuando el científico e inventor británico Sir Charles Wheatstone describió el llamado proceso de estereopsis por primera vez. Según este señor, la estereopsis es el proceso a través del cual los humanos perciben en tres dimensiones, a partir de dos imágenes muy similares que son superpuestas. Wheatstone, de hecho inventó el estereoscopio, el primer dispositivo capaz de crear la ilusión de ver imágenes tridimensionales.
Con el paso del tiempo, sus ideas se fueron desarrollando y numerosos avances se fueron consolidando, lo que trajo una especial herramienta para las artes visuales. Un claro ejemplo fueron las cámaras fotográficas estereoscópicas, que permitían tomar fotografías en tres dimensiones. Estas cámaras tomaban una fotografía y creaban dos imágenes con variaciones mínimas que se capturaban en simultáneo. De esta manera, la cámara imitaba la visión binocular humana, en la que se crea una imagen para cada ojo y luego el cerebro se encarga de unirlas, formando una sola imagen en 3D.

Como-funciona-la-tecnologia-3D-2.jpg 
© Getty Images/Photos.com/Photos.com/Thinkstock

(Fotografía capturada con una cámara estereoscópica)
Aproximádamente a partir de la década de los ’50, la historia del cine comenzaba a dar su primeros pasos en el desarrollo de lo que, de cierto modo, hoy conocemos como la tecnología 3D. Para entonces, los directores comenzaron a experimentar y arreglárselas con diferentes elementos para provocar en los espectadores un efecto de tercera dimensión. Entre los ’80 y ’90, la idea del formato 3D tuvo una especie de resurgimiento y gracias al desarrollo de nuevas tecnologías, desde el 2000, la tecnología 3D se ha vuelto de lo más frecuente y eficaz.

Ley de Atraccion Gratis

Este Reporte te Explica como Aplicar La Ley y Lograr Resultados ElSecretoSobreLaLeyDeAtraccion.com
¿Carga a Venezuela?

Puerta a Puerta o Carga Consolidada Somos su Solución, Entrega Inmediat tclservices.net
Tecnología Humanitaria

Diseño y creación de tecnologías para desarrollo social www.ilabamericalatina.org
Actualmente, las películas en 3D, que son las de más alto presupuesto, están en todas partes. En realidad, hoy el 3D se utiliza en una variedad de ámbitos, hasta existen televisores con 3D que permiten utilizar esta tecnología en tu hogar y por ejemplo, en los videojuegos, se emplea todo el tiempo. Existen 4 grandes tipos de tecnología 3D que se utilizan con mayor frecuencia en el cine: el anaglifo, la polarización, el de gafas activas de obturación y el de la barrera de paralaje.

El 3D y su funcionamiento

Como-funciona-la-tecnologia-3D-3.jpg 
 Fuse/Thinkstock

La tecnología 3D funciona intentando replicar los procesos de estereopsis y las mismas ideas a las cuales nos referimos cuando hablamos de las cámaras fotográficas estereoscópicas. Nuestros ojos se encuentran a una distancia aproximada de entre 50 y 70 mm. de separación entre uno y otro, lo que resulta en el hecho de que cada uno inevitablemente capta una imagen diferente a la del otro. Ambas imágenes llegan al cerebro y allí es donde se hace la geometría de alta potencia, allí se forma una única imagen en 3 dimensiones, por lo que podemos decir que en sí el cerebro se encarga de todo. Es precisamente ésto lo que busca replicar la tecnología 3D.
En el cine (como en la TV, los videojuegos, etc.), se colocan las imágenes en la pantalla y ya sea con las gafas, lo proyectores de plata o cual sea la herramienta, especialmente diseñadas para hacerle llegar diferentes perspectivas de cada imagen a cada ojo. El cerebro averigua cuáles son las diferencias y automáticamente corrige los errores geométricos y matemáticos de cada punto y de cada ángulo, logrando una sincronización perfecta y formando una sola imagen en tres dimensiones. El cine ha sido pionero en el desarrollo de esta tecnología y aunque ya mencionaba que existen 4 tipos de ésta utilizados con más frecuencia, los 2 más comunes son el anaglifo y la polarización.

El anaglifo y la polarización

Como-funciona-la-tecnologia-3D-4.jpg 
iStockphoto/Thinkstock

El anaglifo no es más que el de las gafas azules y rojas, esas con las que luces como todo un idiota, si. Funcionan cuando se proyectan imágenes en esos dos colores, cada ojo tiene una perspectiva de cada color y el cerebro les pone el efecto 3D, pero esta técnica no es muy eficiente pues limita la gama de colores considerablemente
El de las gafas polarizadas es más común y funcionan mejor ya que la luz es polarizada o se le puede dar una orientación diferente a cada imagen. Por ejemplo, proyectar una imagen en forma horizontal y otra vertical mientras que cada lente de las gafas permitirá la polarización correspondiente, luego ya sabemos, le toca al cerebro. El problema con estas es que la cabeza debe mantenerse en una posición determinada que suele ser muy incómoda, tanto como en La Naranja Mecánica.
Para solucionar estos problemas, hoy la tecnología 3D utiliza un complejo sistema de rotación de polarización que hace que la película se proyecte en dos direcciones y giros diferentes. Luego, las gafas recogen esas rotaciones opuestas (una con sentido horario y otra antihorario) y separan cada imagen en cada lente, el resto lo hacen los ojos y el cerebro. De esta manera, no importa desde donde se mire ni si se mueve la cabeza, superando el problema de la postura.
Muy interesante, ¿no lo crees? ¿Cómo crees que se podrá utilizar esta tecnología en el futuro? ¿Para que otras cosas crees que nos puede servir fuera del ámbito del arte y el entretenimiento? 

Ajustes básicos para grabar vídeo con nuestra cámara DSLR

 Video en DSLR

La grabación de vídeo con cámaras DSLR es una realidad. Son muchos los usuarios que se lanzan por una Canon 7D o Nikon 7000 entre otros modelos buscando una opción más económica con respecto a las cámaras de vídeo profesionales. Evidentemente, pese a los grandes resultados que ofrecen hay limitaciones que no podemos obviar. De todas formas son y seguirán siendo una gran opción, más aún viendo como los fabricantes apuestan por esta función en sus nuevos modelos. Tanto en cámaras como en objetivos más silenciosos para no echar a perder una grabación por exceso de ruido al enfocar. Visto el interés de la función vídeo vamos a ver cómo configurar nuestra cámara DSLR para la grabación de vídeo.

Estilo de imagen

Estilo de imagen
Lo primero que tenemos que hacer es configurar el estilo de imagen que vamos a usar. Lo ideal es hacer uso de un perfil plano que luego nos permita un mejor etalonaje (procesado de la imagen: color, contraste, saturación…)
Si usáis una cámara Canon podéis descargar e instalar el perfil Technicolor que se puso no hace mucho a disposición de los usuarios tras un acuerdo entre ambas empresas.
Si no puedes instalar un nuevo perfil opta por modificar los que vienen ya preinstalados. Elige el perfil neutro, baja la nitidez, el contraste y la saturación. La idea es conseguir una imagen con un ligero tono grisáceo que luego nos permitirá un mejor ajuste en nuestro programa de edición.

Control de luces y el uso de los valores ISO

El siguiente punto es el control de luces. La mayoría de cámaras tienen opciones que permiten activar o desactivar el control de luces. Cuando grabamos vídeo ese control de luces automático puede llegar a resultar muy molesto. Sobre todo si nos movemos entre planos donde haya cambios con fuertes contraluces.
En cuanto a los ISO hay que procurar usar los valores ISO nativos siempre que sea posible.Principalmente porque el resto de opciones son ni más ni menos que esos mismos valores pero con ganancia subida o bajada de forma digital. Para mantener un rango dinámico adecuado los mejor es usar los ISO nativos. Y si tenemos que decidirnos por otro valor procurar que sean siempre valores ISO donde la ganancia esté bajada, por ejemplo ISO 320.

La regla de los 180 grados

Si hay algo que nos permite la grabación de vídeo con cámaras DSLR es conseguir ese look de cine que tanto gusta, aunque poco a poco esto irá cambiando. Para conseguirlo debemos controlar la apertura del obturador. La regla de los 180 grados consiste en colocar el obturador en un valor doble con respecto el número de fotograbas al que grabemos.
Por ejemplo, si grabamos a 24 o 25 fps nuestro obturador deberá estar en 1/48 o 1/50 respectivamente. Si por su parte estamos grabando a 50 fps el valor será 1/100. Esto nos permite obtener movimientos de la imagen naturales que nos recordarán a esas escenas de cine.

Extra, Magic Lantern

Magic Lantern
Si vuestra cámara es Canon y permite la instalación de firmware no oficial Magic Lantern os recomiendo encarecidamente que lo instaléis. Con esta versión modificada las cámaras ganan muchísimas prestaciones, sobre todo a la hora de grabar vídeo.
Y es que nos da un mayor control pudiendo establecer valores como la apertura, diafragma, ISO, etc… de forma más específica para cada situación. Sin duda, ML es lo mejor que podemos instalar en nuestra cámara Canon

Fuente: xatakafoto.com

Desarrollan cámara de 1 Gigapixel


Científicos de la Universidad de Duke han desarrollado una cámara de 1 Gigapixel, que se compone de cerca de 100 microcámaras, cada una de 14MP instaladas sobre una superficie esférica similar al tamaño de una pelota de fútbol. Cada microcámara captura una porción de la imagen, luego son unidas mediante un poderoso software, resultando en una sola toma de 1 Gigapixel capturada en 18 segundos. El dispositivo denominado Aware-2, pesa 100 libras, tiene un tamaño aproximado de dos hornos microondas apilados, ofrece 5 veces más detalle de lo que una persona con una medida 20/20 puede ver, además de un campo visual de 120°, viene siendo financiado por el Departamento de Defensa de los Estados Unidos por un monto de $25 millones, los responsables del proyecto confían en terminar una versión a color de 10 Gigapixeles a fin de año, para luego construir un dispositivo de 50 gigapixeles, su máximo potencial actual.

10 comparativas Vs Moodle

Como punto de partida se señalan a continuación 10 alternativas open source a Moodle. Son descripciones deliberadamente breves y es preciso visitar los distintos enlaces para explorar cada solución con algún detalle.

Docebo Se usa en formación corporativa y en educación superior. Ofrece soporte de numerosos modelos de aprendizaje y compatible con SCORM 1.2 and 2004. Ofrece interfaces a sistemas externos como videoconferencia y sistemas de Recursos Humanos.
eFront La instalación de base es minimalista pero se puede extender fácilmente con módulos disponibles en el site. Existen versiones comerciales con características adicionales.
Dokeos Un LMS bien concebido que también ofrece autoría de contenidos y herramientas de videoconferencia. Soporta conversión de documentos Office a Flash. Ofrece sincronización con sistemas de Recursos Humanos tales como Oracle y SAP.
Claroline Enfocado más bien al entorno educacional que al corporativo, este sistema está basado en principios pedagógicos específicos (como también lo está Moodle). Soporta contenido SCORM así como herramientas de contenido como Wiki y otras herramientas online.
ATutor Realmente es un LCMS, y también ofrece herramientas de gestión del aprendizaje. La “A” se refiere a su accesibilidad y tiene un excelente soporte de los estándares de accesibilidad así como soporte SCORM, IMS, QTI etcétera. Es de origen canadiense.
ILIAS Provee herramientas para test y tutoria así como elementos de colaboración como chats y foros y tecnologías de distribución como RSS y podcasts.
OLAT Un sistema bien concebido en su décimo año de desarrollo, pero tiene bastantes requerimientos respecto del servidor.
Sakai Concebido por las Universidades, es un proyecto con un mapa de ruta muy claro y que ha avanzado considerablemente en los últimos años. Basado en Java/Tomcat es mantenido por la Sakai Foundation que gestiona las relaciones con los apoyos educacionales y comerciales.
.LRN Desarrollado originalmente por el MIT, .LRN dice ser la solución LMS más adoptada en entornos corporativos.
openelms Se promueve específicamente como una solución de negocio y tiene una base diversa de clientes, desde Merrill Lynch al club de fútbol Queens Park Rangers.
Ganesha El LMS fue desarrollado por Anema, existe desde 2001 y está en uso en numerosas organizaciones de gran tamaño. El site, como el propio LMS está en francés, pero puede ser localizado.
Hasta aquí hemos traducido de eLearning Zone. Hay que añadir que Moodle tiene una presencia muy grande entre las universidades españolas, donde todo apunta a que es la solución mayoritaria. Es una solución con una comunidad grande y activa que ha generado muchos módulos adicionales. Eso no quiere decir que sea la única adoptable o que sea la recomendable para todo tipo de proyectos. Asimismo entre las listas anteriores encontramos que probablemente no sea la mejor solución “corporate”, aunque sí puede ser apropiada también en proyectos bien focalizados y definidos. Posee la ventaja añadida de tener una buena base de personal que lo sabe manejar, pero obviamente no se le pueden pedir enfoques que no tiene o funcionalidades de las que en este momento carece.
Desde una perspectiva general la mayoría de estas herramientas corresponden a la era Web 1.0 y sólo recientemente comienzan a añadir elementos 2.0 tales como los wikis y los blogs, algunas de estas plataformas comienzan a incluir módulos de “red social”, como es el caso de “Atutor social”.
En cuanto al origen de estas plataformas existen tres grandes referentes: 
A. Entornos centrados en la creación, gestión y distribución de contenidos, con algunas herramientas de comunicación añadidas, pero en segundo plano. El software de referencia es ATutor.

B. Entornos centrados en la comunicación y las actividades de enseñanza/aprendizaje que incluyen, también, herramientas para gestionar materiales. El sistema de referencia es Moodle.

C. Entornos de trabajo en grupo para comunidades académicas que incorporan funcionalidades utilizables en la enseñanza, aunque no fuera éste su propósito inicial o fundamental. El sistema de referencia es .LRN.

El Proyecto OKI está incidiendo en algunas de las limitaciones técnicas de estos sistemas que carecen de APIs unificadas que permitan ir añadiendo interoperabilidad y la posibilidad de desarrollar módulos que funcionen simultáneamente en varias plataformas (ver http://www.scorm.com/blog/2008/12/what-is-a-platform-for-e-learning/ ). Al igual que hubo en su día una normalización del “courseware” a través de SCORM debería llegarse a una estandarización más clara a nivel técnico y funcional de las plataformas, que por otra parte deberían evolucionar hacia entornos 2.0  y a una alta interoperabilidad. Industrialmente esto se está concretando en un nuevo SCORM 2.0 a través de una amplia intervención de diversas empresas bajo el amparo del LETSI.
Otra dificultad y sobrecoste añadido es la excesiva dependencia de configuraciones concretas de los entornos y las escasas utilidades para gestionar la presentación gráfica de las plataformas, que normalmente ofrecen una experiencia gráfica pobre y limitada.
A nivel industrial sigue existiendo por todo ello inestabilidad en los estándares y en los desarrollos añadiéndose la paradoja de que los entornos más exitosos son conceptos que -con las excepción de SAKAI- son relativamente antiguos como entornos web, DOKEOS es una reconcepción de Claroline cuyo mayor mérito ha sido la interconexión con sistemas ERP y CRM, esta solución que está localizada en Español tiene el inconveniente de que su versión completa es Open Source pero no gratuita, requiriendo por tanto acuerdos de licencia.
Queda por ver también cómo se integrará la filosofía “cloud” en estos entornos, la interoperabilidad con redes y sistemas 2.0 altamente evolucionados e implantados (como WordPress o servicios como Google Docs o Facebook) , etcétera. Por otra parte todos estos proyectos distan enormemente de los desarrollos 3.0 por lo que cualquier decisión que se adopte en este sentido quizá sólo pueda considerarse como alternativa a corto plazo, siendo crítico el proceso de vigilancia tecnológica.
En el fondo si el centro de la red está pasando a ser el usuario ninguna de estas plataformas está respondiendo al modo de uso esperado y probablemente surgirán nuevas y radicales alternativas a estas filosofías. Conceptos como el PLE que incorpora ELGG, la extensión del concepto de eProfile y otras probablemente sí se aproximan más a las nuevas tendencias.
Asimismo en el nivel tecnológico cabe preguntarse si los entornos LAMP serán sustituidos por otros más modernos basados en Java o en Rails. Especialmente esta última plataforma requiere menos lineas de código para cada desarrollo y con ella podría evolucionarse mucho más rápidamente en comunidades más reducidas.


Artículo

@Alexandersilvar