Posteado por: bibliopress | agosto 20, 2007

Organización de los recursos educativos en la Web 2.0

Este artículo es muy interesante y es de Don Juan José de Haro, Doctor en Biología y profesor de Matemáticas e Informática del Colegio Amor de Dios de Barcelona (Turó).

Este artículo se complementa muy bien con el intento de clasificación de las tics en Educación, donde hay una interesante guía relativa a las herramientas colaborativas en entornos no presenciales. En definitiva, un excelente y completísimo trabajo. Aquí el articulo original:

Desde hace tiempo vengo buscando una relación entre los diferentes sistemas que nos ofrece internet para la tarea educativa. La finalidad es la de poder optimizar y racionalizar su uso. Esto es lo que ha motivado la mayoría de los artículos de este blog. Directamente en esta línea han ido los anteriores artículos Un intento de clasificación de las TIC en educación y Tipos de edublogs.

Lo que intento mostrar ahora es una posible vía de organización de los recursos, a grandes rasgos, para poder usar los elementos de la web 2.0 en la educación. El mapa conceptual que hay más abajo corresponde a la organización que necesitaría un profesor o Departamento Pedagógico para poder utilizar las TIC en el desarrollo de la clase diaria docente, como apoyo a la clase presencial. Teniendo en cuenta que pueden coexistir, de hecho es lo más normal, varios profesores, niveles o asignaturas diferentes al mismo tiempo. Esto quiere decir que para realizar actividades de forma aislada con una clase o usar internet sólo de forma totalmente puntual, este esquema es excesivo y se pueden omitir fragmentos del mismo.

No se han tenido en cuenta los sistemas cerrados como Moodle, ya que su forma de uso se aparta considerablemente de la educación 2.0.

A continuación se describen brevemente los aspectos más importantes que aparecen en el mapa conceptual que hay al final.

Creación de Contenidos
Se han considerado dos sistemas básicos para generar contenidos finales: el blog y el wiki. El resto de sistemas se han contemplado como ayuda para la construcción del resultado final.

El blog para microcontenidos dinámicos sin jerarquía ramificada. Es decir, para contenidos de poca extensión y/o que llevan implícito un cambio temporal frecuente o continuo, de carácter básicamente lineal o independiente. Es el caso de las instrucciones del profesor para una actividad determinada durante la semana, para hacer un comentario ante un tema tratado en clase, para contestar preguntas breves o responder una caza del tesoro, entre muchas otras que podríamos citar.

El wiki para contenidos estables y tareas donde es importante una estructura jerárquica más o menos compleja, muy especialmente si es ramificada. Por ejemplo, la creación de historias entre varios, la elaboración de trabajos con conceptos anidados (aquí hay otro ejemplo) y, en general, cualquier tema que requiera una investigación amplia o donde deban sumarse los resultados de varios para crear un contenido completo y con sentido. Por lo tanto, según mi opinión, los trabajos de cierta complejidad deberían realizarse en un wiki.

Centro Global de Recursos
Es un espacio en Internet donde se centralizan aspectos generales y necesarios para el desarrollo de la clase. Por ejemplo, las direcciones de sindicación de los recursos utilizados (wikis, blogs, marcadores sociales, canal de vídeos, etc.), el modo de organización general de los grupos de alumnos, las convenciones utilizadas para etiquetar los contenidos o las direcciones de los wikis de los alumnos, por ejemplo. En cuanto al sistema utilizado para este centro de recursos, basta con una, o varias, páginas web estáticas ya que su contenido puede permanecer inalterado durante todo un curso escolar. Igualmente puede servir un wiki o las páginas web de WordPress, entre otros.

Centro de noticias sobre las Actividades
Es necesario un sistema de publicación de avisos, tareas e informaciones de diversa índole que se quiera dar a los alumnos. Por este motivo debería existir un blog con estas características (creo que esta debería ser su única función). Este sería, en realidad, el centro de atención de todas las actividades realizadas ya que aquí estaría toda la información del momento que se necesitase para cada ocasión.

Herramientas y Técnicas
Se ha distinguido entre las herramientas que se utilizan para crear los contenidos y las técnicas usadas para elaborar el trabajo. Las primeras serían servicios puntuales que sirven para aportar información en conjunción con otros (mapas, enlaces, presentaciones, etc.). Los técnicas serían las diferentes metodologías empleadas para la creación de este contenido y que hacen referencia a la forma de trabajo más que a los instrumentos (WebQuest, PBL, etc.)

Un Ejemplo
La web RUDNET 2.0, de la Escuela Técnica Superior de Ingenieros de Telecomunicación de la Universidad Politécnica de Madrid, tiene una estructura parecida a la propuesta en este artículo. Disponen de un blog con páginas estáticas actuando como centro de recursos, donde explican la organización de los cursos, así como la forma de encontrar la información mediante etiquetas predefinidas. El mismo blog actúa como centro de noticias y cada alumno dispone de un blog propio donde van colocando los ejercicios sugeridos por el profesor. No usan wikis, pero los contenidos de los ejercicios realizados tampoco lo requieren, ya que son actividades breves con una estructura lineal.

Anuncios
Posteado por: bibliopress | agosto 17, 2007

Ranking Mundial de Universidades en la Web

Nos es grato, publicar los siguientes datos para nuestra universidad:

Ranking Julio  2007
Universidad Arturo Prat

2.252 de 4000 Universidades en el Mundo
Ver Ranking Mundial

22 de 100 Universidades en el Cono Sur de América
ver ranking en el Cono Sur de América

11 de 40 Universidades en Chile
ver ranking en Chile

 El Ranking Mundial de Universidades en la Web se adhiere formal y explícitamente a todas las propuestas enunciadas en el documento Berlin Principles of Higher Education Institutions (http://www.che.de/downloads/Berlin_Principles_IREG_534.pdf). El objetivo último es la continua mejora y refinamiento de las metodologías utilizadas de acuerdo a un grupo de principios de buenas prácticas acordados previamente.

El “Ranking Mundial de Universidades en la Web” es una iniciativa del Laboratorio de Cibermetría que pertenece al Centro de Información y Documentación Científica (CINDOC) que es parte del mayor centro nacional de investigación de España, el CSIC.

El Laboratorio de Cibermetría se dedica al análisis cuantitativo de Internet y los contenidos de la Red, especialmente de aquellos relacionados con el proceso de generación y comunicación académica del conocimiento científico. Esta es una nueva y emergente disciplina que ha sido denominada Cibermetría (nuestro grupo desarrolló y publica la revista electrónica gratuita Cybermetrics desde 1997), también conocida como Webometría.

Nosotros creemos que los sitios web pueden reflejar mejor la producción de profesores e investigadores ya que usando este medio pueden ser capaces de mostrar una imagen más completa de sus actividades. Para este fin, la Web ofrece la posibilidad de compartir la comunicación académica de una manera no sólo formal (revistas electrónicas, bibliotecas institucionales) sino también informal. La publicación web es barata, y mantiene los altos estandares de calidad del proceso de revisión por expertos (peer review). Potencialmente es capaz de alcanzar audiencias mucho mayores que la publicación tradicional, y de hecho con el actual énfasis en las iniciativas “Open access“, se facilita el acceso al conocimiento científico de investigadores e instituciones de paises en desarrollo. Por último, terceras partes del mundo económico, industrial, político o cultural pueden beneficiarse de la garantía de acceso universal que la publicación en la Web asegura.

Con este ranking pretendemos aportar una motivación extra a los investigadores de todo el mundo para que publiquen más y mejores contenidos científicos en la Web, poniéndolos de esta forma a disposición de los compañeros de profesión y a la gente en general donde quiera que se encuentren.

El “Ranking Mundial de Universidades en la Web” fue lanzado oficialmente en el año 2004, y es actualizado cada 6 meses (los datos son recolectados durante los meses de Enero y Junio y publicados un mes más tarde). Los indicadores Web utilizados están basados y se correlacionan con los tradicionales indicadores bibliométricos y cienciométricos. El objetivo del proyecto es el de convencer a las comunidades académicas y políticas de la importancia de la publicación web no sólo para la diseminación del conocimiento académico sino también como una forma de medir la actividad científica, el rendimiento y el impacto.

A) Intenciones y objetivos de los rankings
1. Documentación de las instituciones de educación superior (procesos y resultados) en la Web. Los rankings basados en datos Web pueden ser combinados con otros indicadores no-web, de hecho nosotros estamos ya publicando análisis comparativos siguiendo una iniciativa similar. Pero el objetivo actual del Ranking de Universidades es el de promover la publicación en la Web por las universidades, evaluando el compromiso de las mismas para con la distribución electrónica, y el de luchar contra un problema muy preocupante en el entorno académico que es el de la aparición de una brecha digital que es incluso más evidente entre las universidades de paises desarrollados. El Ranking de Universidades no pretende valorar el rendimiento de las mismas basándose únicamente en su producción en la Web, sino que además se cuantifica un amplio rango de actividades diferentes a los habituales que miden la generación actual de indicadores bibliométricos que sólo se centran en aquellas actividades generadas por la élite cientifíca.

2. Propósito del Ranking y grupos objetivo. El Ranking de Universidades mide el volumen, visibilidad e impacto de las páginas web publicadas por las universidades, con un énfasis especial en la producción científica (artículos evaluados, contribuciones a congresos, borradores, monografías, tesis doctorales, informes, etc) pero también teniendo en cuenta otros materiales como el proveniente de cursos, documentación de seminarios o grupos de trabajo, bibliotecas digitales, bases de datos, multimedia, páginas personales, etc., y la información general de la institución, sus departamentos, grupos de investigación o servicios de soporte y gente trabajando ó atendiendo a cursos.
Hay un grupo que es objetivo directo del Ranking y que es el de las autoridades universitarias. Si el rendimiento de la web de una institución está por debajo de lo esperado de acuerdo a su excelencia académica, entonces se debería reconsiderar la política web de la institución, promoviendo el incremento substancial del volumen y la calidad de sus contenidos electrónicos.
Los miembros de la institución son un objetivo indirecto ya que esperamos que en un futuro no muy lejano la información web pueda ser tan importante como lo son otros indicadores bibliométricos y cienciométricos para la evaluación del rendimiento científico de académicos y sus grupos de investigación.
Finalmente, aquellos estudiantes que estén buscando universidad no deberían usar estos datos como la única guía aunque una posición alta siempre indicará que la institución mantiene una política que promueve el uso de las nuevas tecnologías y posee recursos para la adopción de las mismas.

3. Diversidad de instituciones: Misiones y objetivos de las instituciones. Las medidas de calidad para instituciones orientadas a la investigación son, por ejemplo, bastante diferentes de aquellas que son apropiadas para instituciones más generalistas. Las instituciones que participan en el ranking y los expertos que lo realizan deberían ser consultados a menudo.

4. Fuentes de información e interpretación de los datos. El acceso a la información en la Web se realiza principalmente a través de motores de búsqueda. Estos intermediarios son gratuitos, universales, y muy potentes incluso cuando consideramos sus limitaciones y defectos (limitaciones en la cobertura y subjetividad, falta de transparencia, estrategias y secretos comerciales, comportamiento irregular). Los motores de búsqueda son piezas clave para medir la visibilidad y el impacto de los sitios web de las universidades.
Existe un número limitado de fuentes que son útiles para los propósitos “webométricos”: 7 motores generales de búsqueda (Google*, Yahoo Search*, Live (MSN) Search*, Exalead*, Ask (Teoma), Gigablast y Alexa) y 2 bases de datos científicas especializadas (Google Académico* y Live Académico). Todos ellos poseen unas bases de datos independientes muy grandes (gigantescas), pero debido a las facilidades para la obtención de datos sólo aquellos marcados con un asterisco son usados para la compilación del Ranking de Universidades.

5. Contextos lingüísticos, culturales, económicos, e históricos. El proyecto pretende tener una cobertura auténticamente global, no circunscribiendo el análisis sólo a unos cientos de instituciones (las universidades mundialmente conocidas) sino incluyendo tantas organizaciones como sea posible. El único requerimiento en nuestro ranking internacional es el de tener una presencia web autónoma con un dominio independiente. Esta aproximación permite a un gran número de instituciones la monitorización de su ranking actual y la evolución de su posición tras modificar adecuadamente sus políticas e implementar iniciativas específicas. Las universidades de los paises desarrollados tienen la oportunidad de conocer de forma precisa el límite de los indicadores que distingue la élite.
Las imparcialidades actualmente identificadas del Ranking de Universidades incluyen la tradicional asociada al idioma (más de la mitad de los usuarios de Internet son de habla inglesa), y una nueva de tipo disciplinar (la tecnología en lugar de la biomedicina es ahora mismo el tópico más en boga) Ya que en la mayoría de los casos la infraestructura (espacio web) y la conectividad a Internet ya existen, el factor económico no se considera como una limitación (al menos para las universidades del Top 3000).

B) Diseño y peso de los indicadores
6. Metodología usada para crear los rankings. La unidad utilizada para el análisis es el dominio institucional, así que sólo universidades y centros de investigación con un dominio independiente son consideradas. Si una institución tiene más de un dominio principal, se usan 2 o más entradas con las diferentes direcciones. Entre un 5-10% de las instituciones no tienen una presencia web independiente, y la mayoría de ellas se encuentran en paises en desarrollo. Nuestro catálogo de instituciones no incluye sólo universidades sino que además incluye otras instituciones de Educación Superior tal y como recomienda la UNESCO. Los nombre y direcciones han sido obtenidas desde fuentes tanto nacionales como internacionales, incluyendo entre otras:

La actividad universitaria es multi-dimensional y esto se refleja en su presencia web. Así que la mejor forma de construir el ranking es a través de la combinación de un grupo de indicadores que mida todos estos diferentes aspectos. Almind & Ingwersen propusieron el primer indicador Web, Web Impact Factor (WIF), que se basa en un análisis de enlaces que combina el número de enlaces desde páginas externas al sitio web y el número de páginas del mismo, una relación 1:1 entre visibilidad y tamaño. Esta relación se usa para el ranking pero se añaden dos nuevos indicadores al componente del tamaño: n úmero de documentos, medido como la cantidad de ficheros ricos en el dominio web, y el número de publicaciones que están siendo recolectadas en la base de datos del Google Académico. Como ya se ha comentado, los 4 indicadores fueron obtenidos de los resultados cuantitativos extraidos de los principales motores de búsqueda tal y como se detalla a continuación:

Tamaño (S). Número de páginas obtenidas a partir de 4 motores de búsqueda: Google, Yahoo, Live Search y Exalead. Para cada motor, los resultados se normalizan logarítmicamente a 1 para el valor más alto. Después, para cada dominio los resultados máximo y mínimo son excluidos y a cada institución se le asigna un rango de acuerdo a la suma combinada de los restantes valores obtenidos.
Visibilidad (V). El número total de enlaces externos recibidos (inlinks) por un sitio sólo se puede obtener de forma fiable desde Yahoo Search, Live Search y Exalead. Para cada motor, los resultados son normalizados logarítmicamente a 1 para el valor más alto y entonces son combinados para generar el rango.
Ficheros ricos (R). Los siguientes tipos de archivo fueron seleccionados tras valorar su relevancia en el entorno académico y editorial, y su volumen en cuanto al uso con respecto a otros formatos: Adobe Acrobat (.pdf), Adobe PostScript (.ps), Microsoft Word (.doc) y Microsoft Powerpoint (.ppt). Este dato fue extraído usando Google y juntando los valores obtenidos para cada tipo de archivo tras normalizar logarítmicamente tal y como se ha descrito anteriormente.
Scholar (Sc). Google Académico provee el número de artículos y citaciones de cada dominio académico. Los resultados obtenidos desde la base de datos de Google Académico comprende artículos, informes y otro tipo de material relacionado.

Los 4 rangos fueron combinados de acuerdo a la siguiente fórmula en la que cadad uno tiene asignado un peso diferente:

Rango Webométrico (posición)=4*RangoV+2*RangoS+1*RangoR+1*RangoSc

7. Relevancia y validez de los indicadores. La elección de los indicadores fue hecha de acuerdo a varios criterios (ver nota), con algunos de ellos se intenta captar la calidad y los puntos fuertes académicos e institucionales, mientras que con otros se intenta fomentar la publicación web y la implantación de iniciativas “Open Access”. La inclusión del número total de páginas se basa en el reconocimiento de un nuevo mercado global para la información académica, ya que la Web es la plataforma adecuada para la internacionalización de las instituciones. Una presencia web fuerte y detallada que proporcione descripciones exactas de la estructura y actividades de la universidad puede atraer nuevos estudiantes y académicos de todo el mundo. El número de enlaces externos recibidos (inlinks) por un dominio es una medida que representa la visibilidad e impacto del material publicado, y aunque la motivación para enlazar es muy diversa hay una fracción significativa de esa actividad que funciona de manera similar a como lo hace la citación bibliográfica. El éxito del autoarchivado y otras iniciativas de almacenamiento de la información se ven reflejados por los datos de archivos ricos y Google Académico. Los altos valores obtenidos para los formatos pdf y doc significa que no sólo los informes administrativos y burocráticos están implicados sino que la producción académica es muy significativa. Los archivos de tipo PostScript y Powerpoint están claramente relacionados con la actividad académica.

8. Medir los resultados preferentemente a los recursos. Los datos referentes a los recursos son relevantes en cuanto a que reflejan la condición general de una institución dada y están generalmente más accesibles. La medida de los resultados proporciona una valoración más ajustada de la capacidad y/o calidad de las instituciones o sus programas. Esperamos ofrecer un mejor balance en el futuro, pero actualmente queremos llamar la atención acerca de estrategias incompletas, políticas inadecuadas y malas prácticas en lo que a publicación web se refiere antes de intentar mostrar un escenario más completo.

9. Balanceando los diferentes indicadores: Evolución actual y futura. Las reglas actuales para los indicadores de rango, incluyendo el modelo de pesos descrito, han sido probados y publicados en artículos científicos (ver nota). Se continua investigando sobre este tópico, pero el objetivo final es el de desarrollar un modelo que incluya datos cuantitativos adicionales, especialmente indicadores bibliométricos y cienciométricos.

C) Recolección y procesado de datos
10. Estándares éticos. Hemos identificado algunos defectos relevantes en los datos obtenidos desde los motores de búsqueda incluyendo la sub-representación de algunos paises e idiomas. Ya que el comportamiento es distinto según el motor utilizado, una buena prática consiste en combinar los resultados obtenidos de varias fuentes. Cualquier otro error no es intencionado y no debería afectar a la credibilidad del ranking. Por favor, ponte en contacto con nosotros si piensas que el ranking es parcial o poco objetivo en cualquier aspecto.
11. Datos verificados y auditados. La única fuente de datos para construir el Ranking de Universidades es un pequeño conjunto de motores de búsqueda globalmente disponibles y de acceso gratuito. Todos los resultados pueden ser duplicados de acuerdo a la metodología explicada y teniendo en cuenta la naturaleza explosiva del crecimiento de contenidos en la web, su volatibilidad y el comportamiento errático de los motores comerciales.
12. Recolección de datos. Los datos son recolectados durante la misma semana, en dos rondas consecutivas para cada estrategia seleccionando el valor más alto. Cada sitio web que se encuentra bajo el mismo dominio institucional es explorado, pero no se realiza ningún intento de combinar contenidos o enlaces provenientes de diferentes dominios.
13. Calidad de los procesos de ranking. Tras la recolección automática de datos, las posiciones son comprobadas manualmente y comparadas con las ediciones anteriores. Algunos de los procesos son duplicados y se añaden nuevas experiencias desde una variedad diferente de fuentes. Las páginas que enlazan al Ranking de Universidades son exploradas, y los comentarios de blogs y otros foros son tenidos en cuenta. Finalmente, nuestra dirección de correo recibe muchas peticiones y sugerencias que son reconocidas de forma individual.
14. Medidas organizacionales para incrementar la credibilidad. Los resultados del ranking y las metodologías utilizadas son discutidas en revistas científicas y presentadas en conferencias internacionales. Esperamos que cuerpos internacionales de consejeros e incluso de supervisores tomen parte en el futuro desarrollo del ranking.

D) Presentación de los resultados del Ranking
15. Muestra de los datos y factores implicados. Las tablas publicadas muestran todos los indicadores Web utilizados de una forma muy sintética y visual. No sólo se proporciona un ranking principal que agrupa las 3000 primeras instituciones a nivel mundial (Top 3000) sino que también se muestran otros rankings regionales con propósitos comparativos.
16. Actualización y reducción de errores. Los listados se ofrecen desde paginas dinámicas que conectan a varias bases de datos donde los errores pueden ser fácilmente corregidos cuando son detectados.

Contacta con nosotros
Nuestro grupo agradece los comentarios, sugerencias y propuestas que puedan ser útiles para mejorar este sitio web. Intentamos mantener una posición objetiva acerca de los datos cuantitativos provistos pero los errores pueden ocurrir. Por favor, tenga en cuenta que la unión, o cambio de dominio, o que problemas de conectividad pueden afectar al ranking de las instituciones.

Actualmente los miembros de nuestro equipo son Isidro F. AGUILLO, José Luis ORTEGA, Mario FERNÁNDEZ (Webmaster) y Helena ZAMORA.

Para obtener más información, por favor contacta con:

Isidro F. Aguillo
CINDOC – CSIC
Joaquín Costa, 22
28002 Madrid. ESPAÑA

Posteado por: bibliopress | agosto 13, 2007

La tecnología tiene valor en la medida en que aporta soluciones

Entrevista a Jesús Maximoff, director general de Intel Iberia

Cuando se cumplen 25 años del nacimiento del PC, Intel vuelve a estar de plena actualidad con el lanzamiento de vPro, su plataforma para el entorno profesional con la que, siguiendo la línea marcada por Centrino, deja de lado las especificaciones técnicas para centrarse en el negocio, en lo que puede aportar a los clientes. Hemos querido aprovechar la ocasión para charlar con Jesús Maximoff, director general de la firma en nuestro país, quien, además, nos habla sobre el rol que debe tener la tecnología así como del papel que tiene que asumir una compañía como la suya.

Tras un período tranquilo son muchos los lanzamientos que pone Intel sobre la mesa, capitaneados por Core 2 Duo y sobre todo por vPro. En la línea de Centrino, se ha cambiado el tipo de mensaje, hablando de negocio, no de tecnología…

Efectivamente, éste es el cambio más importante que se ha producido, empezando por Centrino. Cuando tienes una compañía como la nuestra, formada por ingenieros, te concentras mucho en características, en mejoras de los productos, pero, efectivamente, toda nuestra industria se había olvidado que no se trataba de eso, sino que el objetivo era aportar soluciones a problemáticas muy específicas. La de la movilidad era muy concreta, porque las personas quieren moverse libremente con un ordenador que no pese demasiado y conectarse desde donde quieran. Son soluciones y Centrino vino a responder muy bien a esto, y por ello la adopción de este producto durante los últimos tres años ha sido fenomenal, mucho más allá de lo que nosotros podíamos haber previsto. Pero, además, nos dio la guía de hacia dónde nos dirigíamos en términos de soluciones.

Si Centrino era movilidad, ¿qué es vPro?

vPro es muy parecido, pero añade más. Si hablamos con el director de tecnología de una empresa de cualquier tamaño, porque poco importa eso, veremos que a él le están pidiendo que sea más exigente y que ayude a la innovación, porque es el futuro de cualquiera. Pero, al mismo tiempo, se le pide reducir costes mientras que tiene que mantenerse dando soporte al crecimiento del negocio. Quizá es seguir hablando de los tres grandes factores de siempre: mitigar el riesgo, ayudar al crecimiento y reducir los costes. Es algo sistemático. Pero, curiosamente, cuando ojeamos los estudios de Gartner lo que está pasando es una realidad completamente diferente. El 90 por ciento de las inversiones de TI se están empleando en mantener lo que ya existe y sólo un diez por ciento se dedica a innovar. Ese noventa por ciento se queda en la instalación, una instalación en la que se han ido añadiendo elementos según eran necesarios, pero en la que se han ido incrementando los costes de mantenimiento. En realidad nos encontramos con un lastre para el negocio. La tecnología, en vez de ser un soporte para el negocio se estaba convirtiendo en una especie de lastre, una especie de saco sin fondo en el que el responsable de TI no paraba de poner dinero pero no acababa de ver grandes resultados. vPro viene justamente a responder a este tipo de necesidades.

¿En qué medida solventa vPro esta problemática?

Los estudios que hemos hecho nos demuestran que podemos llegar a ahorrar hasta un 40 por ciento de los costes de mantenimiento del PC. Creo que es la primera vez que algo que se estaba convirtiendo en una commodity, como es el PC, viene a responder y a apoyar el negocio. Los estudios, de hecho, no son iguales en todos los usuarios, pero señalan que este ahorro oscila entre el 18 y el 80 por ciento. ¿Cómo? Pues precisamente lo que hace esta plataforma es, tras observar las necesidades del mercado, combinar una serie de componentes, tanto de hardware como de software, para ofrecer estas soluciones. Los responsables de TI tienen preocupaciones importantes, como podría ser, por ejemplo, el ahorro de costes en consumo de energía. Ponemos sobre la mesa Core 2 Duo que aporta una solución a esto. Pero los usuarios piden cada vez más. Alguien podría preguntarse para qué quieren más prestaciones, mayor seguridad, tener mejores aplicativos y, además, ser más rápidos, porque el tiempo es importante tanto en la atención de un cliente como en la resolución de unos planos en el caso de un arquitecto, o en la respuesta que da una fuerza comercial a través de un CRM. Todo es importante. Y todo esto es la parte de hardware, pero no nos paramos ahí, sino que incorporamos componentes de software para mejorar la gestión, porque todos tenemos que actualizar máquinas e inventariarlas sin disparar los costes de mantenimiento, donde estaban dejando una gran parte de sus presupuestos los responsables de TI. Cuando se cuenta con 30 máquinas, es un problema, pero cuando éstas son 20.000 y encima están dispersas, el problema se acentúa. Ahí, la respuesta ha sido la gestión con IAMT, un componente que antes se utilizaba de alguna manera en el elemento hardware pero que ahora se ha embebido en la plataforma, reduciendo mucho los costes, lo que permite, con la colaboración de otras plataformas de software, gestionar los ordenadores de forma activa. Esto lo que nos permite es tener funciones como el “despertar del PC” por la noche, de manera que se le puedan actualizar los controladores o cualquier otra aplicación para que el usuario pueda emplearlo a la mañana siguiente, reduciendo los costes de forma significativa. Además, hemos adornado todo esto en una plataforma sobre la que ya se han presentado numerosos modelos para aportar al usuario la posibilidad de elegir, que creo que es lo importante. No se trata de una solución propietaria, sino de diferentes ofertas. Pero no nos hemos parado ahí y hemos aportado otro elemento: la virtualización. Cuando hablas de esto con los clientes no te hablan sólo de ahorro de costes, sino que para ellos es seguridad, porque dentro de una misma máquina pueden conseguir un mayor nivel de seguridad y, sobre todo, flexibilidad. Por tanto, los componentes de vPro son altas prestaciones, reducción de costes, flexibilidad y seguridad, algo similar a lo que supuso el lanzamiento de Centrino, con conectividad en cualquier momento, altas prestaciones, bajo consumo eléctrico y formatos más pequeños.

Y cuentan con el respaldo de la industria…

Esto es lo que nos ha animado, tras poner la primera piedra, para aportar la solución que el mercado reclama. Hay una larga lista de usuarios que han acogido muy bien esta propuesta, porque reducir los costes relacionados con la tecnología es algo cada vez más estratégico en los negocios, y puede hacer que el director de tecnología se dedique a lo que su empresa le demanda: que soporte la innovación y los nuevos productos.

Esto se ve fácilmente en la gran empresa, pero ¿qué ocurre con las de menor tamaño?

Es importante para todo tipo de empresas precisamente por la misma razón. Imagina el conocimiento necesario para mantener una instalación con múltiples productos diferentes añadidos durante ocho años. Por eso es importante, porque las pequeñas empresas también crecen y a veces se ven desbordadas. Este tipo de soluciones se pueden aplicar a un negocio pequeño. Una empresa de veinte puestos también va a necesitar gestión, porque si uno de esos trabajadores está parado, es dinero que no gana la empresa. Hay estudios sobre el TCO (coste total de propiedad) que muestran que, cuando una máquina se para, se pierde más que lo que aporta esa máquina, ya que también se para al de al lado, ya fue al compañero es al primero al que se le pide ayuda. Pero también hay otro aspecto interesante que podemos ver: la gestión remota. Hace años que se habla del modelo ASP, pero vemos que cada vez hay más empresas que están ofreciendo este servicio de gestión remota a la pequeña y mediana empresa. Este nuevo tipo de plataformas puede abrir modelos de negocio nuevos que, hasta la fecha, no se podían implementar. A la PYME le aportamos una respuesta, y creo que la necesitan más, porque sus presupuestos son más reducidos.

Porque los profesionales necesitan la tecnología, aunque muchas veces no sean conscientes de ello o, incluso, se pueda acabar convirtiendo en un problema de sobredimensión…

Es un debate que pudo existir en el pasado, porque hoy ya nadie se plantea si la tecnología aporta. Hoy hablamos de innovación como el principal motor de crecimiento, y sin tecnología es prácticamente impensable. Y afecta tanto a la tecnología de base, como el PC o los servidores, como a toda la que se despliega sobre ellos, como la gestión de flotas o la atención de los clientes, y no digamos las comunicaciones. Lo que sí es cierto es que tecnología por tecnología no es suficiente. La carrera del megahercio, de las prestaciones porque sí, no da respuesta al usuario, porque lo que éste necesita es una solución que responda a sus grandes retos que, como decíamos antes, son responder al crecimiento, abaratar los costes y reducir los riesgos. Cualquier tecnología que de respuesta a estos problemas sería bienvenida en cualquier entorno.

Pero estamos en un país en el que no se tiene la tecnología como una prioridad o, al menos, no como debiera. ¿Por qué? ¿Cómo se puede solucionar?

Éste es un tema en el que nos va mucho a todos, porque es hablar del futuro de las empresas y, por tanto, de la economía de un país. Clarísimamente el camino es la innovación, y creo que se ha hecho una gran labor por parte de la Administración en los últimos cuatro o cinco años, incluso a través de los diferentes partidos políticos. La apuesta va en aumento, y vemos que los planes gubernamentales van incrementando su aportación para que, desde el profesional hasta la pequeña y la mediana empresa, se adopte tecnología. Pero ha sido difícil, porque estos profesionales, por su naturaleza, están muy centrados en su negocio y tienen poco tiempo para mirar hacia la innovación, hacia la tecnología. Creo que la labor de concienciación es importante, y se ha hecho mucho en este área, si bien hay que seguir haciéndolo. Además, se han puesto en marcha ayudas económicas que muchas veces han fracasado porque no hemos sabido comunicarlas bien o simplificarlas. Nosotros hemos estado trabajando en colaboración con entidades bancarias, como en el caso del programa Banespyme, porque no sólo es cuestión de tener un plan, sino de comunicarlo. Nuestra industria grita mucho, pero es como si estuviéramos gritando en otra habitación, tenemos que transmitírselo al profesional a través de canales cercanos a él. ¿Es suficiente? No, porque en España tenemos ratios saneados en tecnología comparados con Europa, pero no así los usos avanzados de esta tecnología, y ahí es donde, a través de la tecnología, se empiezan a recoger los frutos. Poner diez PC en un negocio no sirve de nada, pero si le añadimos un CRM que me permita conocer mejor a mi cliente y sus necesidades, esto se convierte en una solución. Tener una web no aporta mucho, pero hacer un uso avanzado de ella sí. Ese uso avanzado de la tecnología es vital. Estamos hablando del siguiente paso: una vez que nos hemos informatizado tenemos que ver qué hacemos con esta tecnología. Para ello, volvemos al punto de inicio, dado que el que puede hacer eso es el director de TI, pero él dedica el 90 por ciento de sus recursos a mantener lo instalado y es lo que tratamos de cambiar con vPro. Porque no se trata sólo del coste directo, sino del coste oculto. Es fácil saber lo que cuesta un director de TI que pasa su tiempo tratando de mantener lo instalado, no innovando, pero ¿cómo calculamos el coste para la empresa de esta falta de aportación y de innovación del director de TI?

Por tanto, el cliente necesita una serie de elementos y, sin embargo, parece que nos empeñamos sólo en aportarle un mejor precio sin pararnos a hablar de otra cosa. ¿Por qué acabamos llegando siempre a algo que no pide el cliente y, además, tiene gran coste para la industria?

La innovación en nuestra propia industria es un tema muy delicado. Si miramos los últimos años, no es que nos guste, sino que está en nuestro ser invertir en investigación y desarrollo, e Intel está poniendo mucho dinero en ello, pero no así otras muchas empresas. Pero cuando no innovas sólo te puedes diferenciar en el precio. El usuario pide soluciones y la industria muchas veces crea una demanda que no existe a través de precios porque no sabe responder a través de la innovación. Por eso creo que vPro o Viiv pueden dar respuesta a esto, porque cuando la propuesta del fabricante no aporta diferenciación y sólo se basa en precio, el cliente se da cuente y exige más precio. Creo que la respuesta es justamente innovar, y eso es lo que le aportamos a la industria con vPro.

¿Esta innovación ha posicionado ahora a Intel con las mejores propuestas en todos los segmentos?

Creo que sí. Llevo diez años en esta empresa y no he visto nunca una propuesta tan potente. En movilidad, Centrino es imbatible. En consumo, Viiv. Mientras, vPro viene a responder a las grandes necesidades del profesional. En el área de servidores también es impresionante, y la guinda es Itanium, sobre todo en España, con unos crecimientos espectaculares.

Esto se produce en un momento en el que la compañía se ve afrontando una reestructuración. ¿Cómo puede afectar a España?

– Es muy pronto todavía y decir cualquier cosa sería especular, porque somos una empresa global y no es fácil asignar a las diferentes personas a las distintas subsidiarias. Se trata de un proceso a largo plazo para mejorar la eficiencia de la compañía, tanto en personal como en ahorro de costes. Queremos hacer de Intel una empresa mucho más adaptada a su tiempo.

Autor:
Miguel Ángel Gómez ( miguelag@idg.es )
Revista: PC World (Número: 235)
Fecha de publicación: 10 / 2006 (España)
Fuente bibliográfica: PC World
© 2006 IDG COMMUNICATIONS, S.A.

Posteado por: bibliopress | agosto 1, 2007

Estadisticas Julio 2007

Para el portal de la biblioteca universitaria, llevamos una estadisticas mediante Google Analytics. Este mes de mayo tenemos los siguientes resultados:

  • Mes: Julio 2007
  • Visitas: 20.031
  • Paginas Vistas: 68.721
  • Usuarios unicos: 14.910
  • Promedio 3,43 p/v
  • Tiempo en el sitio: 00:03:51
  • Blog: 5.000 visitas app.

Nada mal, seguimos en aumento, para nuestros portales el PR (Page Rank) es el siguiente: Biblioteca 5, Blog 4.

Posteado por: bibliopress | julio 30, 2007

Decálogo de “Buenas Prácticas” con TIC en el Aula

Artículo de Manuel Area, Profesor de Tecnología Educativa. Facultad de Educación. Universidad de La Laguna (España)

Muchos docentes, en estos últimos meses, han empezado a utilizar didácticamente computadoras e Internet. Sin embargo, en numerosas ocasiones, se desarrollan en las escuelas e institutos actividades con las TIC sin disponer de ideas claras y definidas de cómo organizar situaciones de clase apoyadas en el uso de la tecnología. Es más bien un trabajo docente de “ensayo y error”, de probar y experimentar a ver qué pasa cuando llevo al alumnado a la sala de informática. Por ello muchos profesores empiezan a solicitar recomendaciones o principios para una buena práctica con los ordenadores en el aula.

Con esa intencionalidad he elaborado el siguiente decálogo de principios de actuación didáctica con las TICs. Como os podeis imaginar, pretendo abrir el debate y la reflexión sobre cuáles podrían ser las ideas básicas o principios comunes que cualquier docente debiera tener en cuenta a la hora de planificar actividades pedagógicas para su alumnado con la tecnología. Es decir, elaborar un decálogo de “buenas prácticas” con TIC en el aula.

Hay otros intentos de identificar algunos de estos principios básicos. Por ejemplo en Aulablog se puede encontrar un listado de rasgos o características del El perfil del profesor TIC presentado en el I Encuentro Edublogs. Dentro de Aulablog también se ofrece una reflexión al respecto titualada El perfil del profesor TIC (II) y que recomiendo que sea consultada.
1. Lo relevante debe ser siempre lo educativo, no lo tecnológico. Por ello, un docente cuando planifique el uso de las TIC siempre debe tener en mente qué es lo que van a aprender los alumnos y en qué medida la tecnología sirve para mejorar la calidad del proceso de enseñanza que se desarrolla en el aula.

2. Un profesor o profesora debe ser consciente de que las TIC no tienen efectos mágicos sobre el aprendizaje ni generan automáticamente innovación educativa. El mero hecho de usar ordenadores en la enseñanza no implica ser mejor ni peor profesor ni que sus alumnos incrementen su motivación, su rendimiento o su interés por el aprendizaje.

3. Es el método o estrategia didáctica junto con las actividades planificadas las que promueven un tipo u otro de aprendizaje. Con un método de enseñanza expositivo, las TIC refuerzan el aprendizaje por recepción. Con un método de enseñanza constructivista, las TIC facilitan un proceso de aprendizaje por descubrimiento.

4. Se deben utilizar las TIC de forma que el alumnado aprenda “haciendo cosas” con la tecnología. Es decir, debemos organizar en el aula experiencias de trabajo para que el alumnado desarrolle tareas con las TIC de naturaleza diversa como pueden ser el buscar datos, manipular objetos digitales, crear información en distintos formatos, comunicarse con otras personas, oir música, ver videos, resolver problemas, realizar debates virtuales, leer documentos, contestar cuestionarios, trabajar en equipo, etc.

5. Las TIC deben utilizarse tanto como recursos de apoyo para el aprendizaje académico de las distintas materias curriculares (matemáticas, lengua, historia, etc.) como para la adquisición y desarrollo de competencias específicas en la tecnología digital e información.

6. Las TIC pueden ser utilizadas tanto como herramientas para la búsqueda, consulta y elaboración de información como para relacionarse y comunicarse con otras personas. Es decir, debemos propiciar que el alumnado desarrolle con las TIC tareas tanto de naturaleza intelectual como social.

7. Las TIC deben ser utilizadas tanto para el trabajo individual de cada alumno como para el desarrollo de procesos de aprendizaje colaborativo entre grupos de alumnos tanto presencial como virtualmente.

8. Cuando se planifica una lección, unidad didáctica, proyecto o actividad con TIC debe hacerse explícito no sólo el objetivo y contenido de aprendizaje curricular, sino también el tipo de competencia o habilidad tecnológica/informacional que se promueve en el alumnado.

9. Cuando llevemos al alumnado al aula de informática debe evitarse la improvisación. Es muy importante tener planificados el tiempo, las tareas o actividades, los agrupamientos de los estudiantes, el proceso de trabajo.

10. Usar las TIC no debe considerarse ni planificarse como una acción ajena o paralela al proceso de enseñanza habitual. Es decir, las actividades de utilización de los ordenadores tienen que estar integradas y ser coherentes con los objetivos y contenidos curriculares que se están enseñando.

« Newer Posts - Older Posts »

Categorías