sábado, 30 de abril de 2011

Página recomendada: Wallbase


Wallbase es un sitio que te ofrece más de 350.000 fondos de escritorio de temática variada en alta resolución .Con unos pocos clicks, Wallbase les permitira filtrar los resultados determinando que resolución,color o categoría.

viernes, 29 de abril de 2011

Linux celebra sus 20 años [infografía]

Linux cumple 20 años y es sin duda uno de los grandes desarrollos de software del último tiempo que ha modificado el panorama del mundo tecnológico. Tanto por el sistema en sí mismo, como por lo que respresenta como desarrollo emblemático del software libre. La Fundación Linux ha querido recordar este aniversario con una infografía que ilustra los principales hitos en su desarrollo.


EL ESTAFADOR #79: PROFESORES


Publicación No. 79 de el Estafador, excelente web de humor gráfico que es una parada obligatoria para todos los que gustamos de explorar la red y sobretodo si nos gusta el humor inteligente.

miércoles, 27 de abril de 2011

4 grandes engaños de los fabricantes de cámaras digitales


Muchos me preguntan a la hora de querer comprarse una cámara de fotos qué funciones o características deberían tener en cuenta a la hora de comparar la cámara. La gente se pierde con la terminología complicada de las cámaras y lo que buscan es una cámara que les ayude a conseguir buenas fotos y que esté bien de precio.

Sin embargo, en las cámaras existen algunas características/funciones que en mi opinión NO SIRVEN DE NADA y lo único que consiguen es que paguemos UN PRECIO MÁS CARO cuando en realidad esas funciones son inútiles.

¿Quieres averiguar qué son?

4 grandes engaños de los fabricantes de cámaras digitales:

El engaño de los megapíxeles: Muchos megapíxeles no significan necesariamente mejor calidad. Los megapíxeles sirven para que la foto conserve una buena calidad aunque sea impresa en un formato grande. Por ello, es verdad que cuanto mayor sea el tamaño en el que vayamos a imprimir la foto, mayor número de megapíxeles tendremos que tener. Pero a decir verdad, la mayoría de las cámaras digitales hoy en día tienen un número de megapíxeles más que decente para el uso y la impresión que una persona particular pudiera hacer de ello. Por ejemplo 8 megapíxeles son más que suficientes, 10 megapíxeles cumplen con la función de sobra. ¿Para qué voy a querer una cámara de 18 megapíxeles? ¿A caso vamos a imprimir la foto en un poster gigante que colgaremos en enormes paneles publicitarios? Si fuera ése el caso, sí, conviene tener muchos megapíxeles, pero como no es el caso seguramente 8 megapíxeles, 10 ó 12 sean más que suficientes.

Lo de los megapíxeles por lo tanto no es más que una bobada que los fabricantes utilizan para hacernos pagar más. Siempre que tengáis entre manos una cámara de 8 megapíxeles, os serán suficientes. Nunca paguéis un precio más caro sólo por tener mayor número de píxeles.

Los megapíxeles "interpolados": Éste es otro engaño de los fabricantes de las cámaras fotográficas. En esta ocasión el engaño es peor. Se trata de los megapíxeles interpolados, quiere decir que la cámara tenga unos megapíxeles "reales", por ejemplo 10MP, pero además de eso que la cámara sea capaz de "forzar" los megapíxeles para que parezcan más. Esto es otra tontería porque lo que realmente interesa con respecto a los megapíxeles es cuántos megapíxeles "REALES" tenemos, y como hemos visto en el punto anterior incluso esto no es tan relevante a partir de un momento dado, pero megapíxeles forzados o "interpolados" eso sí que NO SIRVE ABSOLUTAMENTE DE NADA, porque ahí la cámara lo único que hace es agrandar la foto "imaginándose" más megapíxeles y por lo tanto se pierde la calidad.

El zoom digital: En fotografía, el único zoom que importa es el óptico, o sea el zoom de verdad. A parte del zoom óptico, existe lo que se llama zoom digital, que NO SIRVE DE NADA. A lo sumo el zoom digital lo único que hace es agrandar la imagen, haciendo que ésta pierda nitidez y calidad. Para eso es mejor hacer la foto y posteriormente agrandarla en el ordenador por ejemplo. Los que vayáis a comprar una cámara digital réflex no tendréis este problema nunca porque en las cámaras réflex el único zoom que hay es el del objetivo y éste es totalmente óptico.

Sensibilidad ISO: En principio la sensibilidad ISO de una cámara ayuda a captar fotos en condiciones de poca luz (por ejemplo un atardecer, o una esquina con muy poca luz). En este tipo de casos se recomienda subir el valor ISO de la cámara y normalmente veríamos, como por arte de magia, cómo la foto sale más iluminada. Cuando tenemos suficiente luz, normalmente dejamos el ISO en un valor bajo (como 100 por ejemplo) o automático. Cuando vemos que hay menos luz, lo subimos a un valor ligeramente superior, por ejemplo 200.. Si las condiciones son muy oscuras, tal vez lo tengamos que subir un poco más, 400 por ejemplo. El problema surge debido a que, cuanto más subamos el valor ISO, más ruido sale en la foto. Esto es así. Ninguna cámara ha conseguido hoy en día ofrecer altos valores ISO sin que éstos estén acompañados de un ruido que estropea totalmente la foto. Por lo tanto, pasa como con los megapíxeles: necesitamos tener un mínimo de ISO en la cámara, pero no es imprescindible llegar a cifras muy altas de ISO, básicamente porque no las usaremos nunca, ya que el usarlas hará que nuestra foto salga llena de ruido. Por otro lado, por algo tenemos flash en la cámara. Éste se encargará siempre de iluminar nuestros encuadres y hacer que no necesitemos recurrir al ISO prácticamente nunca.

Moraleja: No hay que obsesionarse con las prestaciones de la cámara. Una buena foto no la hace la cámara, la haces tú.

blogdelfotografo

martes, 26 de abril de 2011

Publicidad digital: retos, riesgos y oportunidades


Ahora bien, ¿se debe analizar por separado la publicidad en medios digitales y la realizada en medios convencionales, o la planificación debe tender a la convergencia? ¿Cómo ha cambiado el consumo de medios el mercado de la publicidad, y en concreto, la publicidad on line? ¿Qué desafíos plantea? De todo esto, y mucho más, se ha hablado en la mesa redonda “Publicidad en medios digitales: retos, riesgos y oportunidades” desarrollada en Foro Internacional de Contenidos Digitales (FICOD) en Madrid, el 16 de noviembre, y moderada por José Domingo Gómez Castallo, director general de Autocontrol.

He aquí algunas de las conclusiones:
El consumo de medios ha cambiado por el efecto multitasking: se ve la televisión mientras se navega en Internet, se lanzan mensajes por Twitter o se escribe en Facebook. Predomina la multicanalidad y la multipantalla. Y se hacen cada vez más complejas, por tanto, las vías a través de las cuales llegar al potencial cliente.

El 76% de los usuarios se fía más de las recomendaciones que hacen los contactos en Facebook o Twitter que de los medios tradicionales de publicidad. Más importante que la publicidad en sí es, por tanto, que los propios consumidores lo recomienden y su efecto amplificador.

Los social media incorporan una nueva forma de relacionarse con el consumidor, en la que la comunicación es continua y bidireccional. Cada empresa tiene que ajustar muy bien el tono de la comunicación, las respuestas y las intervenciones. Ha cambiado cómo se vigila la propia marca, su reputación y su posicionamiento.

El papel de las agencias de medios evoluciona: dejan de ser meros organizadores de espacios para configurarse como organizadores de audiencias, debido a la elevada segmentación de públicos y canales.

Cambian también los sistemas de medición de resultados: los clics, las impresiones, la cobertura… ya no son las únicas métricas, pero tampoco están bien definidas las alternativas. ¿Cómo se calcula el ROI de una campaña en social media? ¿Por los RTs, el número de followers o fans, las menciones, o ningunas de ellas? El reto está en manejar los datos adecuados y transformar la información y los conocimientos en valor.

Lo digital deja de ser un medio, para convertirse en un simple “contenedor” que permite a las empresas hablar y comunicarse con sus audiencias. La publicidad digital deja paso al concepto de “comunicación digital”, en el que la clave está en hablar de persona a persona. Y el riesgo está en creer que el dispositivo o los nuevos soportes son lo importante, cuando lo realmente esencial es mantener una comunicación relevante y útil para el consumidor.

El público on line es por naturaleza infiel: está a un clic de cualquier otra cosa. No cabe trasladar al medio digital el formato de publicidad convencional, basado en la “intrusión” en el ocio del consumidor. El nivel de tolerancia a la intrusividad en publicidad digital es mucho menor que en cualquier otro medio.

Hay que pensar qué quiere el usuario, y dárselo. Porque el usuario es quien marca definitivamente el camino, quien toma el poder sobre las marcas y puede incluso obligarle a cambiar su estrategia empresarial, como ocurrió en el caso de la campaña de Greenpeace contra KitKat. Si impone la comunicación bidireccional, que genera valor y es transparente.

La recogida de datos del usuario, y qué se hace con ellos, se convierte en uno de los auténticos talones de Aquiles de la publicidad digital: pues para poder ofrecerle al consumidor lo que busca, habrá primero que saber cómo es y qué puede necesitar. Las cookies quedan, así pues, en el punto de mira.

En el tintero quedó un apunte de Ana Castro, responsable de Medios y Puntos de Contacto de Coca-Cola: “La idea es la clave de todo. Sin una buena idea, no hay éxito posible. Hay que capitalizar la oportunidad”.

hablandoencorto

lunes, 25 de abril de 2011

7 Claves de Google sobre el futuro de la Publicidad Display

Google dio una conferencia sobre las 7 tendencias que ellos vislumbran para la publicidad display en el 2015. La conferencia fue parte de su nueva campaña denominada “Watch this Space“, en donde la empresa busca promover su red de Display (Banners, ubicaciones Rich Media, etc) para campañas de branding, sin hacer tanto foco en el performance y la generación de resultados medibles como lo habían venido haciendo hasta ahora.

1- Video Advertising: 50% de los anuncios online en el 2015 van a tener video, y se va a pagar por visualización. Por eso están lanzando ese tipo de formato en YouTube. Cuando una persona está viendo un video (seguramente premium), YouTube le dará la opción de elegir qué anunciante quiere ver como sponsor, o de no elegir y verlo con cortes comerciales de manera más tradicional.

Otro concepto que muestra es la posibilidad de que el usuario pueda saltear el anuncio una vez que vio unos pocos segundos, y si eso sucediera el anunciante no pagaría por esa impresión. La idea que proponen, en contra de lo que sucede en la TV tradicional, es que es posible mostrar menos anuncios, dándole control al usuario, y con eso generar mayor impacto de la marca y además una mayor monetización.

2- Real Time Bidding: 50% de los anuncios de display orientados a audiencias van a ser comprados con tecnología de Real Time Bidding. La tecnología de Real Time Bidding (subasta en tiempo real) permite a los anunciantes pujar por cada impresión del inventario disponible, de acuerdo con el valor que tiene específicamente para él. El valor puede estar dado por el contexto en el que se muestra el anuncio o en la audiencia a la que se está exponiendo. Esto además es potencialmente beneficioso para el publisher que tiene la capacidad de monetizar más porcentaje de su inventario, y gracias al behavioral targeting, a precios más altos.

3- Mobile Advertising: Los anuncios serán primero en móviles. La pantalla móvil será en 2015 la primera por la que los usuarios se relacionarán con las marcas. Los dispositivos móviles son cada día más poderosos, y gracias a las las características personales y ubicuas de estos dispositivos, es que los anuncios servidos en ellos lograrán cada día un impacto mayor en los consumidores.

Por otro lado, Google ve a los dispositivos móviles como un puente para llevar a la web anuncios offline en revistas o vía pública, mediante por ejemplo el uso de Google Doodles, una función experimental que permite buscar en la web a través de imágenes.

4- Métricas: Las métricas mejorarán: Existirán al menos 5 métricas mejores que el clic para medir resultados. Medir el éxito de campañas en base a clics, o a las acciones realizadas después del último clic es una visión que -por ser la menos mala- ha logrado una amplia aceptación entre los anunciantes. Sin embargo, en base a los avances tecnológicos, se podrán usar otras métricas confiables (de acuerdo con Google) para medir y comparar campañas. En su discurso mencionan las siguientes:

Engagement Rate: El engagement rate implica la posibilidad de medir una acción (conversión) como consecuencia de más de un impacto o interacción con la marca. La sumatoria de varios puntos de contacto genera ese “engagement”, y cada uno de ellos tiene un peso en particular.
Video: El video ofrece métricas de visualización y atención dispensada por los usuarios al clip.
View through conversions: Conversiones que vinieron de personas que vieron un anuncio de la marca pero no hicieron clic en él. Display lift in search: Impacto de los anuncios de display en la cantidad de búsquedas de una marca.

Sentiment analysis: Análisis del sentimiento del contenido de una página, y como impacta eso en relación a los anuncios servidos.

5-Social Ads: 75% de los anuncios van a ser sociales. Los usuarios deberían poder compartir un anuncio, proveer feedback o comentar. La actividad social va a hacer que los anuncios sean lo más específicos posible. Se van a convertir en un canal de ida y vuelta entre la marca y los anunciantes. Hoy los anuncios de Facebook ya tienen muchos componentes sociales, y Google parecería estar en camino a lograr este tipo de integración en los próximos meses.

6- Rich Media: Rich media en el 50% de las campañas de branding. El banner se va a convertir en cosa del pasado. Google asegura que la combinación de Real time + social + rich media genera oportunidades únicas. En esta imagen, por ejemplo, muestran como la conferencia que estaban dando en ese momento estaba siendo mostrada en un banner e integrada con comentarios de twitter en tiempo real.

7- Tamaño del Mercado: La industria del display va a ser de 50 mil millones de dólares en 2015. Las personas navegan decenas de veces más en sitios de contenido que en resultados de búsqueda. Sin embargo, lo que hizo crecer la inversión online en mayor medida durante los últimos 10 años ha sido la publicidad en buscadores. La aparente contradicción entre un uso mucho menos intensivo, con una mayor inversión, se explica con los mejores resultados que ha sabido demostrar Search.

Hoy, gracias a tener mejores capacidades de targeting, y con gigantes como Google, MSN, Yahoo y Facebook empujando el negocio, la predicción de crecimiento no parece descabellada.

netadblog

miércoles, 20 de abril de 2011

La historia de los virus [infografía]

Brain, Stoned, Michelangelo o Happy99. Si tenés varios años detrás de una computadora seguramente alguno de estos nombres te sonarán conocidos porque fueron virus de los primeros virus para PC. En 2011 se cumplen 25 años desde la creación del primer virus informático para computadoras personales, algo que comenzó como simple travesura pero hoy constituye un complejo submundo que sirve para obtener dinero ilícito.

Con esto motivo, la gente de F-Secure -un antivirus hoy no tan popular pero que tuvo su momento de esplendor- lanzó una intereante infografía que intenta recorrer los momentos salientes de esta historia.

martes, 19 de abril de 2011

Un hombre reclama la propiedad del 80% de Facebook



Hoy en día nadie puede negar que Facebook sea la red social más popular de todo el mundo. Sin embargo, el sitio creado por Mark Zuckerberg siempre ha estado en medio de diferentes controversias ligadas a supuestas traiciones y robos de ideas. Y parece que las demandas caen como gotas de lluvia.

Recientemente se conoció que un hombre presentó una demanda contra Mark Zuckerberg y Facebook por el reclamo del 80% de la autoría de esta popular red social. El sujeto en cuestión se llama Paul Ceglia, y ésta es la segunda vez que rellena un formulario de reclamo contra la principal cara visible de la red social.

Lo que el hombre indica es que una gran parte de Facebook le pertenece después de que apoyara económicamente (con 1000 dólares) el sitio original desarrollado por Zuckerberg. Y parece que irá con este litigio hasta el final ya que contrató a DLA Piper, un bufete de abogados muy respetado.

Según las especificaciones indicadas por el denunciante, el trato firmado 8 años atrás con el actual CEO de Facebook aseguraba que Ceglia poseía el 50% del sitio, más un 1% adicional por cada día que pasara después de la fecha límite en el que la web no estuviese funcionando. ¿Pero cómo puede probar esta denuncia?

Ceglia, mediante sus abogados, indicó que posee guardada una serie de correos electrónicos entre él y Mark Zuckerberg. Aparentemente en los mensajes se liberan detalles del trato entre ambas partes para la creación de un sitio web que permitiese a los usuarios relacionarse entre sí.

Habrá que ver qué ocurre con este litigio. Por lo pronto los principales directivos de Facebook salieron a desmentir los rumores de Paul Ceglia e indicaron que se trata de una persona que ya fue encarcelada previamente por fraude corporativo; por lo que querría beneficiarse a cuestas de Mark Zuckerberg y todo su séquito. ¿Quién guardará la verdad?

lunes, 18 de abril de 2011

Cultura.rwx, una revista digital sobre cultura libre y copyleft


cultura.rwx es una nueva publicación que pretende contribuir al debate informado y profundo sobre el movimiento del cultura libre y copyleft. El tema es particularmente interesante en el ámbito del diseño, donde muchas veces el desconocimiento o la falta de información suelen hacer que muchos creadores vislumbren el copyright como única alternativa para “proteger” sus creaciones.

Esta última edición tiene algunos artículos sobre el derechos de autor, el festival noruego open source pikselfest y el constructivismo en el trabajo con nuevas tecnologías. cultura.rwx se publica cada dos meses y además de leerse online los autores han tenido la feliz idea de permitir la descargar de un PDF con todo el número completo.

thuer

martes, 12 de abril de 2011

¿La muerte de la fotografía? (Parte 3)


La migración digital y la crisis de la indicialidad: interactividad y fenomenología

Ahora bien, las formulaciones teóricas mencionadas al principio de este trabajo se ligan a un objeto que, a grandes rasgos, no sufrió modificaciones técnicas sustanciales durante 150, en el cual la tecnología fue evolucionando en ciclos de aproximadamente veinte años de duración. La pregunta es si dichos planteos podrían/podrán dar cuenta de las implicancias que comenzaron a tener lugar a partir del cambio tecnológico que se inicia con los procesos digitales.

Una primera distinción expresa la necesidad de diferenciar a la fotografía según el dispositivo que la genera: como fotografía analógica se denomina aquella basada en materiales sensibles y procesos del orfen de lo físico-químico, y como fotografía digital a la que se produce cuando los impulsos fotoeléctricos del referente afectan a un sensor electrónico que traduce los valores tonales en clave numérica. Una buena cantidad de estudios coinciden en señalar que este pasaje de una tecnología a otra no afectó sustancialmente el modo de tomar las fotografías, es decir, en cuanto a la dimensión técnica de la producción, incluso en prácticas más “libres” como la artística. Tal como lo recupera Laurent Jullier,11 el punto de vista de Alain Buttard es una buena síntesis: la cámara digital “no presenta mucho interés para quien la usa como una cámara fotográfica analógica”.12 En la fase de post-producción, en el trabajo desarrollado por fotógrafos, sí se observa una intensificación de las intervenciones. Retoque, fotomontaje y otras formas de manipulación que estuvieron presentes desde los mismos orígenes de la fotografía, se multiplican al ser facilitadas por los programas de tratamiento de imágenes. Desde trabajos que se centraron en el análisis de la recepción, particularmente de las fotografías periodísticas publicadas en medios gráficos, se ha señalado recurrentemente la disposición de los lectores a interpretar las nuevas imágenes digitales informativas del mismo modo que lo hacían con las tradicionales analógicas. Se sostiene mayormente que la creencia en los valores de verosimilitud y objetividad continúa vigente más allá del cambio tecnológico.13 Planteos como el de Kevin Robins14 bucea en la búsqueda de continuidades más que de rupturas en el pasaje de lo analógico a lo digital. Entre otras cuestiones, sostiene que en verdad la hiperproducción e hipercirculación de imágenes digitales, en términos culturales, no es más que una nueva fase con que se despliega un eje central del posmodernismo: la primacía de las imágenes por sobre el mundo material. Insiste: “Cualquier cosa considerada ‘nueva’ en las tecnologías digitales tiene algo de antiguo en la significación imaginaria de la ‘revolución de la imagen’”.

Sin embargo, y tal como señala el mismo Robins, la preocupación reside en la referencia existencial de las imágenes del mundo, es decir, en el modo cognitivo, emocional estético, moral y político en que las imágenes (ya no las fotografías) digitales puestas a circular en Internet han cambiado la forma de relacionarse con el mundo. Se trata de imágenes surgidas sin la necesidad de un referente real o cuyo grado de intervención sobre una huella indicial hicieron perder toda remisión a aquél, construyendo de ese modo la agenda de una nueva experiencia vivencial. Si la gran revolución que produjo la fotografía cuando surgió en el siglo XIX fue acercar el mundo al burgués sentado en su sillón, ahora una gran masa instalada frente a los monitores y sin mayor competencia en la técnica fotográfica (re)crea un mundo para sí y para otros. Se trata de imágenes –las electrónicas– que “no están congeladas, no desaparecen; su cualidad no es elegíaca, no son sólo grabaciones de mortalidad. Las técnicas digitales producen imágenes de forma criogénica: pueden despertarse, ser reanimadas, ‘puestas al día’”, sostiene Robins. Jullier15 entiende que el lugar “público” de las imágenes digitales depende de la capacidad de los programas para simular la toma de huellas analógicas y el esclarecimiento de un saber del arché16 referente a dichos programas. Las imágenes fotográficas puestas en Internet son entendidas como “imágenes en acto” por Jean Louis Weissberg, aludiendo de este modo al pasaje de una contemplación “pasiva” hacia una apropiación que las activa.17 En el mismo sentido, esta interactividad que tiene como materia prima fotografías devenidas en imágenes digitales contribuye en una medida mucho mayor a la “hiperrealidad” de la cual hablaba Baudrillard.

Por otro lado, las imágenes digitales se insertan en dispositivos narrativos de un modo cualitativamente distinto que en la etapa analógica. Además de lo ya señalado a propósito del video sobre las Torres Gemelas, donde las fotografías analógicas irrumpen en la secuencia narrativa, las fotografías e imágenes digitales participan activamente de la trama del mosaico. Tal como señala Lorenzo Vilches,18 la estructura mosaico no es una metáfora visual (como el enfoque, punto de vista, perspectiva), sino que se trata de una imagen obtenida por manipulación digital para lograr una visión virtual, pudiendo reunir diferentes tiempos y espacios en una sola imagen. De esta manera, el mosaico contribuye a la nueva economía de narrativas y representaciones, teniendo obvias consecuencias en las nuevas lógicas de gestión del conocimiento. En este contexto de utilización, las fotografías e imágenes digitales se revalorizan, modificando el peso relativo que les asigna el conglomerado. Sin dudas, si la fragmentación ha sido uno de los recursos estéticos posmodernos con mayor eficacia política, estas formas fragmentarias más recientes no sólo que se montan sobre el anterior fundamento, sino que, apoyadas en mucho mayor grado sobre aspectos sensoriales, se constituyen en un medio mejorado para similares propósitos.

maestriadicom

jueves, 7 de abril de 2011

Cómo escribir para la web enfocado en el lector del Internet


A pesar de que estamos en la Era de la Informática y el Internet se ha posicionado como una de las primordiales herramientas de comunicación a nivel mundial, todavía existen carencias manifiestas en las habilidades de comunicarse a través de la web. La mayoría de las personas que escriben bien para material impreso, no saben comunicarse en forma creativa y persuasiva a través de la web, ya que desconocen el comportamiento de ese ser misterios que ha intrigado a miles de empresarios de la web: el lector del Internet.

A muchas personas les encantaría ganar dinero escribiendo para el Internet. Saben que el lenguaje primordial en el Internet es el idioma escrito, a pesar del advenimiento del audio y del video en la web.

Aceptémoslo: estamos en la Era de la Informática y el Internet vino para quedarse. Es una herramienta de comunicación poderosa que ha trascendido las fronteras físicas, sociales y culturales de nuestro planeta. En el caso específico de la gestión empresarial, nos ha permitido alcanzar a un mercado globalizado con productos y servicios que en otro tiempo estaban confinados a un área geográfica determinada.

En consecuencia, la habilidad de comunicarse en forma creativa y persuasiva a través de la web es altamente cotizada. Sin embargo, muchas veces se encuentran textos en el Internet de excelente calidad que son pasados por alto, mientras que otros textos, de menor valor informativo, captan la atención de sus visitantes.

El problema es que sus autores desconocen los fundamentos básicos de escribir para el Internet. Aplican los conocimientos que tienen para presentar sus conocimientos a través de material impreso, sin saber que en el Internet rigen otras reglas que nuestras profesoras de lenguaje no nos enseñaron.

Ya no basta con tener facilidad con los idiomas y excelentes habilidades de comunicarse con palabras. Hay que saber cómo presentarlas adecuadamente en el Internet. No piense por un minuto que sus escritos “offline” van a captar la atención de sus lectores online. A la hora de escribir para la web, es peligroso suponer que sus lectores van a quedar deslumbrados con su forma de escribir.

La realidad es que la mayoría de las personas que visitarán su texto no estarán dispuestas a leer todo lo que escribe. Van a recorrer el contenido con una mirada fugaz y, si nada capta su atención, es muy probable que se alejen con un clic del mouse para no volver jamás.

Para captar la atención de sus lectores en la web, es importante que usted comprenda la diferencia entre un lector que lee material impreso y un lector que lee en una pantalla: Está demostrado que casi el 80% de las personas recorren la pantalla con su vista sin leerlas.

Esto se debe a los 4 factores siguientes:

1. Leen un 25% más lento

Leer desde una pantalla cansa la vista mucho más que la lectura de material impreso. Por eso el lector de la web lee alrededor de un 25% más lento.

2. El lector del Internet no es pasivo

El lector del Internet es más activo. Quiere oprimir enlaces y buscar más información en vez de leerse un artículo del principio al final.

3. Siempre está dispuesto a irse

Cada vez que su lector busca un tema en la web, se le presentarán miles de opciones diferentes. Cada página debe competir por la atención del lector con millones de otras páginas. Sus lectores no saben si la página que usted ofrece contiene la información que están buscando o si habrá otra mejor. Por ende, tienen la tendencia de querer seguir buscando.

4. No quiere perder tiempo innecesariamente

La vida moderna es acelerada y las personas no quieren hacer un esfuerzo grande para obtener la información que están buscando, Ya están cansados de recibir tantos correos electrónicos en sus trabajos. No quieren pasar tiempo innecesario en una página web. Por eso es tan importante que cualquier persona que se quiera comunicar con sus lectores en forma virtual, sepa cómo presentar su información para que sus lectores no abandonen su texto. Toda persona que quiere tener éxito en la web, ya sea prestando un servicio o teniendo su propio negocio, necesita conocer los fundamentos básicos de cómo escribir para el Internet.

gestiopolis

miércoles, 6 de abril de 2011

¿La muerte de la fotografía? (Parte 2)


De “fotografía” a “lo fotográfico”

Durante todo el siglo XIX y hasta la década de los 80, las teorías de la fotografía giraron en torno al análisis del propio dispositivo y de sus productos. Se indagaba acerca de la fotografía, donde “fotografía” como sustantivo expresaba el núcleo del sujeto que, en todo caso, era indagado según las diversas calificaciones ligadas a los usos sociales: fotografía periodística, documental, paisajística, de guerra, familiar, artística, etc. Pero, como señala Olivier Richon,7 “fotografía” derivó hacia “lo fotográfico”, donde “fotográfico” devino de adjetivo en sustantivo, tanto en el plano sintáctico cuanto en el semántico. Si bien este desplazamiento ya estaba presente en el planteo de Dubois, es en el uso por parte de Craig Owens (vinculado a la mencionada revista October) donde adquiere un mayor peso. Owens, a principios de los 908 y retomando las líneas ya planteadas por Crimp, encuentra más apropiado hablar de “lo fotográfico” para caracterizar varias temáticas que adquieren relevancia en las prácticas posmodernas: la teorización en función de las múltiples copias, el cuestionamiento de la originalidad en los mismos originales, la “muerte del autor”, la mecanización de la producción. Como señala Richon, “fotográfico” —en tanto adjetivo— no tiene el poder de nombrar objetos (función privativa del sustantivo). Por lo tanto, “fotográfico”, al tiempo que parece aludir a la falta de referente fijo, describe, refiere a todo tipo de imágenes portadoras de características fotográficas. (Y no hace falta llegar a los 80-90 para observar su presencia: Bazin se interesa por la imagen fotográfica en tanto forma particular de imagen,9 del mismo modo que algunos enfoques derivados del estructuralismo en los 60: “El mensaje fotográfico” de Barthes, por ejemplo). En tal sentido, “lo fotográfico” también involucra a medios que están más allá de la fotografía misma. Esta perspectiva, que de algún modo diluye la referencia directa, va a tener una línea de continuidad importante en las reflexiones acerca de la fotografía digital. Inclusive, hay desarrollos que vinculan las ideas de huella y lo fotográfico en la era digital para explicar desplazamientos en un tipo de fotografía de usos sociales bien definidos como es la periodística. David Campany10 sostiene que, debido a que un alto porcentaje de las imágenes periodísticas publicadas por la prensa gráfica —y mucho más por los periódicos digitales— provienen de videos, se ha redefinido al fotoperiodismo. A diferencia de los modos de trabajo en el fotoperiodismo tradicional, ahora el reportero gráfico no registra el acontecimiento, puesto que otros medios (el video) satisfacen la instantaneidad requerida por internet y la televisión, que registran referentes “reales” en la simultaneidad del acontecimiento. Por lo tanto, el fotoperiodista recién se hace presente con posterioridad, para recoger las huellas del acontecimiento: ruinas, (rastros de) cuerpos, fragmentos de un todo que ha desaparecido. Es más: puesto que el video digital cubre las necesidades editoriales, incluso ciertos trabajos ya no requieren ser elaborados con cámaras fotográficas digitales. Campany refiere, por ejemplo, a las fotografías tomadas a las ruinas del atentado del 11 de septiembre de 2001 en EEUU, cuando el único fotógrafo autorizado para tal fin, Joel Meyerowitz, ingresa al recinto con una cámara analógica de placa (es decir, tecnología del siglo XIX). Las fotografías de Meyerowitz son las únicas que quedarán para la posteridad, depositadas en el Museum of the City de Nueva York. Pero hay otro elemento a considerar en el texto de Campany: la difusión masiva de dichas fotografías se hace a través de un video, Reflections on Ground Zero, “un informativo especial” de 30 minutos que mostraba el trabajo del fotógrafo, y que fue emitido por el Channel Four News británico. Las fotografías de placa fueron insertadas de modo que “interrumpían” el flujo de las imágenes del video. En ese punto Campany señala la experiencia fuertemente sensorial que el público tiene con esas imágenes, contraria a los modos de consumo que crecientemente se fueron imponiendo con los medios digitales: la fotografía analógica deteniendo al flujo incesante de imágenes digitales.

maestriadicom

lunes, 4 de abril de 2011

¿La muerte de la fotografía? (Parte 1)


Los 160 años de desarrollo de la fotografía cobraron un giro significativo cuando, hacia mediados de la década de l980, las fotografías comenzaron a nutrir la generación de imágenes digitales. Desde entonces, éstas han ido sepultando gradualmente a la fotografía analógica, tanto en sus formas de producción como en su circulación y consumo. El cambio afectó en forma general: el ejercicio profesional, la práctica artística, el uso doméstico, las formas de conservación, por sólo citar algunos. Aquellos rasgos que las teorías de la fotografía consideraron ontológicamente definitorios del medio fueron puestos a revisión.

Desde la certeza de estar frente a un fenómeno radicalmente novedoso, hasta planteos más escépticos respecto de las posibles innovaciones que el cambio tecnológico coadyuvaba, la reflexión teórica interpretó, de diversos modos, los alcances de las nuevas prácticas. El presente artículo escrito por la profesora Silvia Pérez Fernández repasa algunos ejes de su seminario Una aproximación al postmodernismo en fotografía, centrándose en el viraje que se opera en la teoría de la fotografía, desde los abordajes que se consolidaron a principios de la década de 1980 (provenientes mayormente de la semiótica) hasta aquellos discursos que empezaron a emerger desde mediados de los años 90. En algunas zonas de éstos, los cambios introducidos por la tecnología digital (principalmente en términos de circulación y consumo a través de Internet) comenzaron a ser interpretados en clave fenomenológica.

Derivas teóricas en torno a la imagen digital en las postrimerías de la fotografía analógica: la semiótica

El inicio de la década de 1980 fue un punto de inflexión en la historia de las teorías de la fotografía: estaba constituyéndose el último gran modelo teórico que intentaba “saldar”, a su modo, siglo y medio de reflexión en torno a la misma. En el contexto más general de revisión de los grandes legados teóricos en las ciencias humanas y sociales, del desarrollo discursivo del posmodernismo, la fotografía es vuelta a pensar desde un cruce en el cual intervienen, básicamente, dos modelos semióticos: el peirciano y el postestructuralista. A la vez, la síntesis adquiere rasgos distintivos en los dos escenarios principales de irradiación: Francia y Estados Unidos, en los que se vertió el peso de herencias teóricas disímiles.1

El caso de EEUU es más complejo, puesto que la incorporación muy tardía de tradiciones que en Europa tenían entonces años de influencia y desenvolvimiento (como el abordaje sociológico de Pierre Bourdieu),2 deriva en planteos menos reactivos que en Francia. El grupo de críticos y teóricos nucleados en torno a la publicación October, editada por el MIT, dicen ser gestores de un “postmodernismo de resistencia” en el cual confluyen Marx, Althousser, Gramsci y la Escuela de Frankfurt; un amplio abanico de autores enrolados en el postestructuralismo francés; el psicoanálisis lacaniano; el feminismo; los estudios culturales y el situacionismo, entre otros. Desde el lado de una “teoría fotográfica crítica”, incorporan los trabajos de Gisèle Freund, Bourdieu y algunos artículos de Roland Barthes, como así también la recepción tardía de los escritos de Benjamin.3 Entre los críticos que adscriben a esta línea, sobresalen los trabajos de Rosalind Krauss y Douglas Crimp, más allá de la influencia masiva del texto inaugural de la discursividad posmoderna iniciada por Susan Sontag a mediados de los 70, con la publicación de los ensayos que luego derivarán en Sobre la fotografía.4 Como especificidad propiamente norteamericana, la creación de la categoría “actividad fotográfica de la posmodernidad” por parte de Crimp y su afirmación de que la discusión del (sobre) postmodernismo es una discusión en torno a la fotografía, dan cuenta del lugar central que ella desempeña. Son algunas características inherentes al medio las que posibilitan poner en tela de juicio las nociones de original, autor, por ejemplo. Esas formulaciones someten a revisión ciertas categorías tradicionales empleadas por la historia del arte: originalidad, unicidad, autoría. Krauss analiza los desplazamientos que la teoría fotográfica produce en los abordajes de la historia del arte, aunque (quizás) forzando demasiado ciertos supuestos filosóficos y otros propios de la práctica fotográfica. Sin embargo, hay un punto de la reflexión que emparenta el pensamiento norteamericano con el francés: la idea de huella como noción que define ontológicamente a la fotografía. En el caso de Krauss, la autora sostiene que la fotografía tiene en su origen la marca de la teoría de los espectros, floreciente durante el primer tercio del siglo XIX, que giraba en torno a cómo las radiaciones emitidas por los cuerpos se depositaban en la materia. La fotografía, para la autora, es la técnica que entronca en esa tradición por ser un registro imagético de las radiaciones luminosas.

En Francia, en cambio, buena parte de la propuesta teórica se enmarca dentro de lo que Scott Lash5 ve como una característica de la discursividad teórica posmoderna propia de aquel país: la anulación, en un mismo movimiento, de la “diferencia saussureana” y la “distinción bourdiana”, al tiempo que la emergencia del yo y del inconciente. Así, las figuras de Barthes y Philippe Dubois son exponentes del giro conceptual con sus ya clásicos trabajos de inicios de los años 80.6 En Barthes predomina la crítica a todo abordaje previo, “científico”, de la fotografía (incluso el suyo propio). También expresando la crisis y replanteos del discurso teórico académico tradicional y la emergencia de la experiencia autobiográfica, su ensayo gira en torno a la imposibilidad de definir a la fotografía. Esa particular forma de huella es inaprehensible para el pensamiento: remite a un tiempo y espacio que afectan de modo absolutamente individual a quien es atrapado por la imagen, imposibilitando toda conceptualización y generalización teóricas más allá de un puñado de nociones. La fascinación que provoca la escritura de La cámara lúcida agrega, también, su cuota de empañamiento. En Dubois el planteo es diferente: el capítulo inicial del libro es una clara toma de posición en favor de una definición de la fotografía que apunta su crítica hacia dos modelos epistémicos: el positivismo y los abordajes que reposan en la (de)construcción simbólica. Al igual que Krauss, el pensamiento de Charles Pierce es recuperado por Dubois en función de la elaboración de una terciaridad fotográfica: la iconicidad mimética de la primera etapa (siglo XIX), la transformación simbólica y la codificación que prevalecen durante todo el siglo XX en tradiciones que van desde el estructuralismo social y lingüístico hasta la fotografía antropológica o la autoral como la de Diane Arbus y, finalmente, la indicialidad como modo específico de vinculación entre referente e imagen fotográfica. Dubois es claro: la fotografía es ante todo huella, en una segunda y necesaria instancia (puesto que huella sólo remite al momento en que la superficie sensible es alterada físicamente por la presencia de la luz que emana del referente) se define la reducción mimética o la codificación cultural.

maestriadicom