Informe sobre Encuentro de invierto de la ALA, Filadelfia 24-28 enero 2014.

Informe elaborado por María Jesus Morillo, Departamento de Proceso Técnico de la Biblioteca Nacional de España

Encuentro de invierno de la ALA, Filadelfia, 24-28 de enero 2014

El presente informe pretende dar cuenta de los múltiples y diferentes eventos a los que he asistido en el Encuentro de Invierno de la Asociación Americana de Bibliotecas (ALA), en torno a los temas de Proceso Técnico. Dada la abundancia de conferencias, comités y grupos de interés que se producen en cada conferencia de la ALA, intenté seleccionar aquellos de más utilidad entre los múltiples celebrados en torno a los “Technical Services”. La decisión en muchos casos ha sido difícil, pues la coincidencia en el tiempo de varios actos me ha impedido asistir a algunos y he debido inclinarme por la opción aparentemente más interesante y enriquecedora, teniendo en cuenta, fundamentalmente, los intereses de la Biblioteca Nacional de España en estos temas. Asimismo se recoge la información sobre las reuniones del MARC Advisory Committee que tuvieron lugar el sábado 25 y el domingo 26, en el que la BNE está representada.

En lo relativo al proceso técnico, uno de los temas que ha protagonizado este Encuentro de la ALA ha sido el desarrollo del modelo BIBFRAME, por parte de la Biblioteca del Congreso y la empresa Zepheira. Hasta en cuatro ocasiones he podido escuchar a Eric Miller, presidente de la empresa Zepheira, que está trabajando con la Biblioteca del Congreso en su desarrollo, hablar de BIBFRAME. Para él, es necesario repensar el entorno bibliotecario como una web de datos. Ya que se habla tanto de sistemas de descubrimiento piensa que dichos sistemas puedan ser simplemente la web.

El proyecto BIBFRAME, tal como explicó Sally McCallum, jefa de la Network Development/MARC Standards Office de la Library of Congress, se ha constituido como un proyecto que pretender ser una alternativa a MARC, más compatible con el nuevo entorno de compatibilidad y desarrollo de la web semántica y los datos enlazados. Durante el último año 2013 se ha desarrollado el modelo, así como toda una serie de herramientas y se ha experimentado con datos existentes. Entre las herramientas en desarrollo está un editor para la catalogación directa en BIBFRAME, mediante el cual es posible incluir en los registros de forma automática recursos de otras comunidades, o herramientas para la conversión de registros MARC a BIBFRAME. Para 2014 el énfasis se pondrá en el Implementation testbed, o banco de pruebas para la implementación. BIBFRAME se ha definido como un modelo de Linked Data, nacido y basado en la web y que utiliza y se sirve de la web en todo su potencial. Tanto Sally McCallum, de la Library of Congress, como Eric Miller, de Zepheira alentaron a la participación en el proyecto como “Early Implementers”.

Si por algo se han caracterizado las presentaciones en torno a Linked Open Data y BIBFRAME es en la insistencia en la colaboración, la experimentación y la necesidad de no quedarse atrás. “Building together” podría ser el lema y las piezas de Lego como imagen de ese esfuerzo constructivo han sido una constante. “The future is now” podría perfectamente ser otro de esos lemas.

El suelo que pisamos es cada vez más inestable y los modelos en los que nos hemos asentado durante los últimos cincuenta años parecen definitivamente obsoletos. Todo en el universo web vive en una eterna demo: no existe ni el final, ni lo hecho, ni lo correcto en estos momentos, lo único que existe es un entorno en permanente cambio, y esto afecta al entorno bibliotecario como le ocurre a la web, comentaba Eric Miller.

Nuestros flujos de trabajo deben cambiar y lo van a hacer necesariamente. Es fundamental estar atentos a los nuevos desarrollos y experiencias, y subirse al tren lo antes posible. Aquellos conferenciantes que no pertenecen al ámbito estrictamente bibliotecario han reiterado que la comunidad bibliotecaria es una de las mejor preparadas para los retos de la web semántica. Lo importante, se ha señalado, no es el formato MARC, sobre el que se ha codificado la información durante tanto tiempo, sino los propios datos codificados, que son de una gran calidad porque han sido recogidos por bibliotecarios expertos. El valor real está en los datos.

En relación a los cambios en los procesos y flujos de trabajo se ha reiterado en diversas ocasiones la necesidad de que los departamentos de catalogación tradicionales deben reconvertirse en departamentos especializados en gestión de metadatos. En este sentido se manifestaban John Riemer, Jefe del Library Cataloging & Metadata Center de UCLA (Universidad de California, Los Ángeles) y Philip E. Schreur, Jefe del Metadata Departament de la Universidad de Stanford.

La búsqueda de nuevas vías para abordar viejos problemas se pone de manifiesto en proyectos como el presentado por las Universidades de Harvard, Columbia, Yale y Toronto sobre el desarrollo de una herramienta web para compartir el conocimiento experto en idiomas diferentes y su aplicación a la descripción bibliográfica. Se podría abordar de esta manera la catalogación de todas aquellas obras en lenguas y escrituras más desconocidas, importantes para comunidades de investigadores especializados, y para cuyo proceso no se cuenta con el personal con los conocimientos adecuados de dichas lenguas y escrituras.

Es necesario que aprovechemos la tecnología para una mayor eficacia. Diane Hillmann, de la Dublin Core Metadata Initiative, lo tiene claro: “Usa al ser humano para aquellos temas que requieran conocimiento humano y toma de decisiones. Para todo lo demás usa las máquinas”.

Viernes, 24 de Enero de 2014

TECHNICAL SERVICES DIRECTORS OF LARGE RESEARCH LIBRARIES INTEREST GROUP: “BIG HEADS”

Uno de los encuentros más importantes para temas de proceso técnico en cada Congreso de la ALA es el Grupo de Interés de Directores de Servicios Técnicos de Grandes Bibliotecas de Investigación, conocido coloquialmente como “Big Heads” que, en este Midwinter Meeting de Filadelfia, tuvo lugar el viernes 24 de enero a partir de las ocho y media de la mañana.

Comenzó con dos presentaciones sobre cooperación entre instituciones en temas de catalogación: la primera, sobre los esfuerzos cooperativos del CIC (Committee on Institutional Cooperation), consorcio de grandes bibliotecas académicas fundado en 1958 y del que forman parte Indiana University Libraries, Michigan State University Libraries, Norhwestern University Library, Ohio State University LIbraries, Pennsylvania State University Libraries, Purdue University Libraries, University of Chicago Library, University of Illinois at Urbana-Champaign Library, University of Illinois at Chicago Library, University of Iowa Libraries, University of Michigan Library, University of Minnesota Libraries, University of Nebraska-Lincoln Libraries y University of Wisconsin-Madison, en relación a la catalogación de obras en otras lenguas; la segunda, sobre la catalogación cooperativa también de obras en lenguas extranjeras entre tres escuelas de la Universidad de Harvard, la Universidad de Columbia, la Universidad de Yale y la Universidad de Toronto.

A continuación, Eric Miller, presidente de Zepheira, presentó los desarrollos y evolución de BIBFRAME. Para terminar, Beth Camden, directora del PCC (Program for Cooperative Cataloging) de la Biblioteca del Congreso, habló sobre el futuro del programa teniendo en cuenta, sobre todo, los avances respecto al modelo BIBFRAME.

CHRIS CRONIN: CIC Heads of Cataloging group’s cooperative cataloging pilot

croninc@uchicago.edu

Chris Cronin, director de Servicios Técnicos de la Universidad de Chicago, explicó el proyecto piloto de un año en el que se van a embarcar ocho de las catorce bibliotecas pertenecientes a CIC, por medio del cual cada biblioteca con un conocimiento experto de determinadas lenguas ayudará al resto catalogando sus recursos en dichas lenguas.

El acuerdo entre estas ocho bibliotecas se ha centrado en que cada una catalogará entre 100 y 120 títulos que ofrecerá al resto. En total, el proyecto piloto podrá concluir con la catalogación de un total de entre 800 y 900 títulos. Bibliotecas como las de la Universidad de Pensilvania o Wisconsin-Madison se han mostrado también interesadas en la catalogación cooperativa de recursos cartográficos y la ayuda por parte de otras bibliotecas con más conocimiento experto de la catalogación de estos recursos. Cronin animó al resto de las bibliotecas que no se habían sumado al proyecto piloto a unirse a la iniciativa.

Uno de los debates posteriores se centró en la normalización de la catalogación reconociéndose que existen diferencias entre las diferentes instituciones que integran la CIC en la aplicación de las RDA. El principio general que guía el proyecto, según Cronin, es que si un bibliotecario con un conocimiento experto de una lengua extranjera puede catalogar de acuerdo a los estándares de BIBCO (Monographic Bibliographic Record Program del Program for Cooperative Cataloging), validar puntos de acceso, añadir encabezamientos de materia y clasificación, puede participar en el proyecto.

Para la evaluación del proyecto se contabilizarán los costes de la catalogación, la redistribución de los registros, así como el uso de las escrituras vernáculas. Cronin bromeó con que estaban pensando incluir en la evaluación los costes de la propia evaluación. Todavía quedan algunas cuestiones por definir y la propia fecha de la puesta en marcha del proyecto no se ha decidido todavía.

SCOTT WICKS, BOB WOLVEN, JOAN SWANEKAMP, CAITLIN TILMAN: Cooperative cataloging” Initiative

scott.wicks@harvard.edu, wolven@columbia.edu, joan.swanekamp@yale.edu, caitlin.tillman@utoronto.ca

El proyecto presentado por Scott Wicks (Universidad de Harvard) , Bob Wolven (Universidad de Columbia) , Joan Swanekamp (Universidad de Yale) , y Caitlin Tillman (Universidad de Toronto), tiene por objeto el desarrollo de una herramienta web para compartir el conocimiento experto en idiomas diferentes y su aplicación a la descripción bibliográfica.

La catalogación tal y como la hemos conocido en los últimos cincuenta años ya no sirve a las necesidades de los investigadores actuales. La cooperación en términos de desarrollo de las colecciones se ha centrado en la eliminación de duplicados y el préstamo interbibliotecario, pero no se ha avanzado en la catalogación de colecciones ocultas pendientes de proceso.

Existen problemas de financiación y existen diferentes perspectivas en torno al problema, ya que no supone lo mismo 10.000 $ en Alemania, donde puede ser una cantidad insignificante que en países del Extremo Oriente, por ejemplo.

El proyecto que se presenta pretende aprovecharse de las ventajas que ofrece el entorno web para encontrar expertos en diferentes lenguas fuera del mundo bibliotecario que puedan suministrar metadatos útiles para que sean aprovechados por los catalogadores expertos en el proceso técnico de colecciones en dichas lenguas. Consideran necesario el conocimiento experto de lenguas diferentes para poder catalogar y sacar a la luz cantidad de colecciones ocultas al público hasta ahora.

Durante muchos años se ha dependido de la Biblioteca del Congreso, pero no solo se necesitan conocimientos expertos en el ámbito de la catalogación sino también en el dominio de diferentes lenguas. Piensan que esta herramienta podría ser utilizada por empresas, la comunidad filóloga y que podría ser desarrollada por expertos en lenguas, aunque no tengan experiencia en catalogación. Están buscando lograr una herramienta que pueda mapear los datos a MARC o a cualquier otro formato. El proyecto está todavía en desarrollo, pero genera muchas expectativas.

ERIC MILLER: BIBFRAME: Challenges for implementation (UC Davis’IMLS research grant on the future of cataloging)

em@zepheira.com; http://zepheira.com/alamw14

Eric Miller, cofundador y presidente de la empresa Zepheira, habló sobre un proyecto a desarrollar junto a la Universidad de California, campus de Davis (UC Davis), durante dos años, para el que han contado con la financiación de una beca de investigación IMLS (Institute of Museum and Library Services), que tiene como objetivos la investigación sobre el futuro de la generación de metadatos en bibliotecas académicas y su implementación en la web, así como el estudio del panorama actual en relación a la normativa y las tecnologías en torno a los datos. Pretende convertirse en una hoja de ruta para la experimentación y la orientación en este ámbito. En el proyecto, aparte de Zepheira y las Bibliotecas de la UC Davis, participan también la Library of Congress, OCLC, NISO (National Information Standards Organization) y Kuali OLE (Open Library Environment).

Para Eric Miller, el entorno es tan cambiante en este momento que para cuando tienes ya un plan de actuación, todo ha quedado desfasado. En su presentación se centró en analizar los desafíos para la implementación de BIBFRAME, lo que necesitamos saber sobre esta iniciativa y cómo puede afectar al resto de los trabajos técnicos en las bibliotecas.

Es necesario repensar la biblioteca como una Web de datos.

Según Eric Miller, tenemos la oportunidad de deconstruir todo el ecosistema bibliotecario, pero es necesario desarrollar una estrategia web. Para ello es necesario identificar los elementos clave y preguntar a todos los interesados sobre los desafíos, beneficios y preocupaciones que se plantean respecto al tema. ¿De qué manera el software, los sistemas y flujos de trabajo actuales están impidiendo la adopción de nuevas normas? ¿Qué significa realmente la sustitución de MARC?

¿Por qué nos resulta tan difícil cambiar de una norma a otra si cambiar de un Sistema de correo electrónico a otro nos resulta tan fácil? Somos una de las comunidades más conscientes de la importancia de las normas. No debería ser tan difícil para nosotros.

Para valorar el impacto del cambio, es necesario evaluar tanto los beneficios como las limitaciones y efectos colaterales. Y es preciso hacerlo de forma más colectiva, consiguiendo involucrar a toda la comunidad bibliotecaria en el proceso. En relación a los próximos sistemas de gestión bibliotecaria que usen las nuevas normas, será necesario que se evalúe el retorno de la inversión, lo que va a ser una parte clave del proceso.

¿Se puede realizar este proceso en momentos diferentes para distintas bibliotecas? Quizás lo mejor sea hacerlo en grupo antes que individualmente. ¿Podemos identificar otros patrocinadores con los que asociarnos para adoptar estos nuevos modelos?

Probablemente los nuevos Sistemas de Descubrimiento sean simplemente la web.

Si el proyecto finaliza con éxito prevén mejorar significativamente el intercambio de metadatos normalizado, trazar una hoja de ruta bien analizada e investigada, reducir el miedo a lo desconocido, comprender claramente el impacto del cambio hacia BIBFRAME y el uso de la web como una plataforma de apoyo al futuro de todos los trabajos y procesos bibliotecarios.

El futuro imaginado por los desarrolladores de este proyecto es aquel en el que un usuario que encuentre un libro de su interés a través del OPAC de la biblioteca pueda descubrir a través de ese mismo OPAC, con tecnología basada en datos enlazados, que el autor del libro firma sus libros en algún lugar de la ciudad, por ejemplo. O utilizar la tecnología de referencias cruzadas de los blogs, por las cuales un blogger puede recibir noticias de si un determinado post suyo ha sido referenciado por alguien, en los catálogos de las bibliotecas. Esto no ocurrirá simplemente por qué un bibliotecario catalogue un recurso y añada manualmente esa referencia, sino cuando la interfaz de intercambio de datos del catálogo de la biblioteca  permita ese cruce de referencias de forma automática. Es realmente fácil relacionar las interacciones con otros recursos e informaciones fuera del propio catálogo de forma automatizada, interacciones como nuevas traducciones de las obras, nuevas colecciones creadas, etc. Todo este tipo de relaciones se podrán mostrar en los OPACs locales.

BETH CAMDEN: Future Directions for the PCC

Beth Camden, presidenta del Programa de Catalogación Cooperativa (PCC) de la Library of Congress, anunció que a finales de diciembre de 2014 se dejarán de utilizar las AACR’s en los registros del PCC y se habrá hecho el cambio total hacia la aplicación de RDA como norma de catalogación.

PCC se verá obligado a cambiar su forma de actuación en el entorno de BIBFRAME y datos enlazados.

¿Qué significado va a tener el control de autoridades en este nuevo entorno ya no basado en MARC? ¿Cómo podría ser este futuro? El enfoque de RDA ya es diferente porque no se plantea en términos de encabezamientos, sino en una perspectiva de identidades. Trata de la gestión de identidades como opuesto al control de autoridades.

Por otra parte, PCC está abriendo vías de colaboración con otras instituciones que están trabajando asimismo en el tema de la gestión de identidades, como ISNI u otras organizaciones de gestión de derechos. En este sentido, una de dichas vías de colaboración sería entre NACO e ISNI, ya que ellos además están también enlazando a VIAF.

Se prevé que para noviembre de 2014 los departamentos de Catalogación y Metadatos estén saliendo del entorno MARC. ¿Cuál es el valor del PCC en el diseño de estas nuevas normas? Todos estos temas son los que están en este momento gravitando sobre el futuro del PCC.

INFORMSUS PROCESS APPLICATIONS

JASON LEDUC: InformsUs Process Applications

jleduc@countingopinions.com

Jason LeDuc, Director de ventas de la empresa Counting Opinions, presentó una serie de aplicaciones y herramientas como Reference Tracking, Events and Program Management, Reading Programs, Contest Management, que están desarrollando y que pueden ser personalizadas para necesidades locales. Estas herramientas están diseñadas para automatizar procesos bibliotecarios redundantes permitiendo que el personal disponga de más tiempo para la gestión, evitando dichas cargas de trabajo repetitivas. Con la automatización de dichas tareas se consigue además una disminución de errores, una mejora de la eficiencia y una mayor satisfacción de los usuarios de las bibliotecas.

También habló sobre la herramienta InformsUs, una herramienta basada en web para el desarrollo e implementación de formularios y encuestas personalizadas para bibliotecas, multilingües, que permite importar los datos estructurados, garantizar su integridad, confirmaciones por correo electrónico, filtrado, controles de edición en tiempo real, etc.

Sábado, 25 de Enero de 2014

MARC ADVISORY COMMITTEE 1

http://www.loc.gov/marc/mac/

Abrió la reunión del nuevo comité MAC (MARC Advisory Committee) su presidente, Matthew W. Wise, bibliotecario de la Universidad de Nueva York. Este nuevo comité surge tras la finalización de MARBI (Machine-Readable Bibliographic Information) en el verano de 2013, tras cuarenta años de actividad.

Tras la presentación de sus miembros, se procedió a la aprobación de las actas del último encuentro de MARBI de junio de 2013, que fueron sancionadas por unanimidad.

A continuación se pasó a la discusión y aprobación de dos propuestas:

1. Proposal Nº 2014-01: “Defining Indicator Values for Field 588 Source of Description Note in the MARC 21 Bibliographic Format” y presentada por OCLC y el programa CONSER (Cooperative Serials Program, del Program for Cooperative Cataloging) de la Library of Congress.

La propuesta que se plantea es la definición del primer indicador del campo 588, Nota de fuente de la descripción, como un control de la visualización asociada para evitar los errores al escribir notas como “Fuente de la descripción” y “Último número consultado”. Así, el primer indicador tendría tres posiciones:

# No se proporciona información

1 Fuente de la descripción

1 Último número consultado

Thurstan Young, representante de la British Library, mostró su preocupación por aquellos que no quieran reconsiderar el proceso de reconfiguración de sus sistemas. También se expresaron dudas sobre las posibles implicaciones respecto a las lenguas. Sally McCallum señaló, en este sentido, que es solo un indicador y que se puede escribir la frase en cualquier lengua. Así también lo había manifestado Everett Allgood, ya que se puede permitir generar frases específicas por lenguas basándose en el subcampo $b del 040 (Lengua de catalogación) También se argumentó que podría ser usado este indicador para otros propósitos, pero se manifestó que superaba las consideraciones de esta propuesta.

Tras el debate la propuesta fue aprobada por unanimidad.

2. Proposal Nº 2014-02 titulada “Making Subfield $c Repeatable in Fields X10 and X11 of the MARC 21 Bibliographic and Authority Formats”, presentada por el Canadian Committee on MARC.

La propuesta señala que dado que los puntos de acceso para congresos, conferencias y similares pueden tener una o más sedes y dado que RDA 11.13.1.8 establece que “si las reuniones de una conferencia, etc., tuvieran lugar en dos o más ubicaciones, se añade cada uno de los nombres de dichas ubicaciones”, convertir en repetible el subcampo $c (Sede del congreso) en los campos X10 y X11 mejoraría el análisis automático de la información.

En el debate posterior a la presentación de la propuesta se planteó de forma generalizada el beneficio que supone de cara a una mayor granularidad de la información recogida.

Reinhold Heuvelmann, de la Deutsche Nationalbibliothek, expuso ciertos problemas con la puntuación dada en los ejemplos. Se señaló que en la propia propuesta se exponía que seguía las instrucciones del Apéndice E.1.2.4, Puntos de acceso de entidades, que señalan que las localizaciones múltiples deben separarse con punto y coma.

Tras el debate la propuesta fue aprobada por unanimidad. Finalmente Reinhold Heuvelmann, de la Deutsche Nationalbibliothek, presentó el

Discussion Paper Nº 2014-DP03, “Miscellaneous information” in Topical Term and Geographic Name Fields of the MARC 21 Bibliographic and Authority Formats.

En sistemas de encabezamientos de materias como LCSH (Library of Congress Subject Headings) o en EMBNE (Encabezamientos de Materia de la BNE) se utilizan los paréntesis para deshacer homonimias. No es el caso de la Deutsche Nationalbibliothek, que en el proceso de fusión de cuatro ficheros de autoridades de países de lengua alemana en un único

“Gemeinsame Normdatei” (GND, Integrated Authority File) han tenido que optar por hacer repetible el subcampo $g en gran parte del formato y utilizar un subcampo $9g en aquellos casos, como X50 y X51 en los que el subcampo $g no está definido.

En el debate posterior, John Attig, de la Penn State University, habló, por ejemplo de que esto plantearía un nuevo tema que es un cambio en la codificación. En general, se ven beneficios de cara a promover una mayor granularidad de la información recogida, pero se sugiere la necesidad de llevar a cabo un estudio más profundo para definir distintos tipos de calificadores y su codificación.

CATALOGING NORMS INTEREST GROUP (ALCTS CAMMS – CATALOGING & METADATA MANAGEMENT SECTION)

La sesión de este grupo de interés sobre normas de catalogación de la Association for Library Collections and Technical Services (ALCTS) de la American Library Association (ALA) ofreció dos presentaciones en torno a temas de catalogación y gestión de metadatos. La primera de ellas corrió a cargo de Bill Schultz y Ellen Corrigan de la Booth Library de la Universidad Eastern Illinois que hablaron de cómo los momentos dedicados por ellos a tareas de referencia en su biblioteca les habían servido en la toma de decisiones respecto a la catalogación y gestión de metadatos. Carolyn Hansen y Sean Crowe, de la Universidad de Cincinnati se encargaron de la segunda presentación, en la que mostraron su experiencia desde un modelo de catalogación tradicional a otro en el que la gestión de metadatos pasa a ser fundamental.

BILL SCHULTZ, ELLEN CORRIGAN: Crossing the Line: The Experience of Catalogers on the Reference Desk

wnschultz@eiu.edu, ekcorrigan@eiu.edu

Bill Schultz y Ellen Corrigan señalaron que era necesario aprovechar los conocimientos del personal catalogador en los mostradores de referencia y mostraron como su experiencia de trabajo semanal en dichos mostradores les había hecho repensar su actividad también como personal catalogador. Es necesaria una mayor implicación entre ambos tipos de trabajo en la biblioteca y llegar a traducir el conocimiento experto en catalogación en relación a otras bases de datos, sobre todo en los ámbitos de la indización y la asignación de encabezamientos de materia, para la búsqueda y localización de información en bases de datos.

CAROLYN HANSEN, SEAN CROWE: From Cataloging to Metadata: Difference in Scope, Skills and Standards

carolyn.hansen@uc.edu, sean.crowe@uc.edu

Carolyn Hansen y Sean Crowe explicaron cómo habían logrado establecer la transición desde un proceso de catalogación tradicional a uno basado en la gestión de metadatos.

Para ambos, es fundamental y necesario que existan ámbitos de colaboración entre profesionales con diferentes habilidades y conocimientos. Partiendo de su propia experiencia comentaron cómo Carolyn Hansen por su ámbito de trabajo y conocimientos provenía de ese mundo de la catalogación tradicional, mientras que Sean Crowe era un especialista en gestión de recursos electrónicos con grandes conocimientos tecnológicos. La colaboración había sido fundamental para ambos pues les había permitido poner en común sus diferentes conocimientos al servicio de un nuevo escenario en el que la transformación de metadatos de un esquema a otro es fundamental. Cada vez va a ser más necesario, comentaron, sumar a los conocimientos tradicionales de catalogación aquellos de metadatos.

Para ellos es muy importante tener una base, aunque sea sucinta, del mayor número de estándares. Es más provechoso tener conocimientos generalistas de muchos, que un conocimiento muy especializado de unos pocos. Y estos conocimientos de estándares deben referirse tanto a metadatos estructurales, como descriptivos y administrativos.

Por otro lado, los conocimientos esenciales para la transformación de metadatos se han de referir a la estructura intelectual (mapping), las herramientas para la automatización y las interfaces de visualización.

Como parte de sus esfuerzos han creado una hoja de ruta para la transformación de Dublin Core a VRA (Visual Resource Approximation) (https://github.com/crowesn/DC_to_VRA), para transferir 9000 imágenes de una colección digital desde DSpace repository a LUNAcommons. En sus trabajos evitan el uso de software propietario y utilizan OpenOffice.

CATALOG MANAGEMENT INTEREST GROUP

RICHARD SAPON-WHITE (Head of Cataloging and Metadata Services, Oregon State University): “Transitioning to a 21st Century “Catalog”: Challenges and Successes”

richard.sapon-white@oregonstate.edu

Richard Sapon-White, de la Universidad de Oregón, habló del proyecto que viene desarrollando el consorcio de bibliotecas universitarias de Oregon, Idaho y Washington, la Orbis Cascade Alliance, para pasar de sus sistemas locales a otro compartido por sus 37 miembros. El sistema elegido ha sido Alma como sistema de gestión y Primo como plataforma de descubrimiento, ambos de ExLibris.

El desarrollo del proyecto les ha obligado a llevar a cabo innumerables tareas de mantenimiento para poder llevar a cabo la transición. Han utilizado la herramienta MARCEdit para llevar a cabo todas las tareas relacionadas con eliminación de duplicados y corrección masiva de registros. Comenta como la planificación significa siempre un ahorro de tiempo.

JON E. ROTHMAN Head, (Library Systems Office, University of Michigan University Library), “Managing Bibliographic and Descriptive Metadata for HathiTrust” presented by Jonathan E. Rothman,

jrothman@umich.edu

Jonathan Rothman, de la Universidad de Michigan, explicó el proceso de obtención de metadatos de las bibliotecas que aportan fondos al repositorio de obras digitales HathiTrust, creado en 2008 por 13 universidades pertenecientes al CIC (Committee on Institutional Cooperation) más la Universidad de California.

Explicó cómo las bibliotecas pertenecientes a HathiTrust deben proporcionar los metadatos antes de ingresar en el repositorio los contenidos digitales. Las especificaciones de metadatos son: MARC binario o estructura MARCXML, una cabecera y un 008 válidos, un 245 $a (o $k cuando sea apropiado) y un campo 955 para describir un único ítem.

Para la gestión de los metadatos, la Biblioteca digital de la Universidad de California ha desarrollado un sistema de gestión de metadatos específico para HathiTrust, denominado Zephir, lanzado el pasado mes de octubre de 2013 y en fase de producción en diciembre de 2013, para almacenar, gestionar y exportar registros bibliográficos que acompañan a los objetos digitales depositados en el repositorio. Entre las múltiples funcionalidades del nuevo sistema está el que permite mantener todas las versiones de los registros recibidos de las bibliotecas participantes, gestionar su descarga y gestión, así como los informes de error.

MARC FORMAT TRANSITION INTEREST GROUP MARLENA BARBER (Health Sciences Library, East Carolina University): Curating MARC Indexing to Optimize Discoverability of Resources at ECU Libraries

barberm@ecu.edu

En la Universidad de East Carolina utilizan un Sistema de gestión de bibliotecas de formato propietario, Symphony, pero necesitaban un Sistema más flexible, preferiblemente open source. Marlena Barber cuenta el proceso de implementación de VuFind en su Universidad para posibilitar una mayor visibilidad de los recursos de las bibliotecas y comenta cómo la elección de esta herramienta se decidió debido a que puede ser personalizada de muchas maneras. Para ello crearon un grupo de trabajo entre diferentes bibliotecas de la Universidad que se ocupó de evaluar los campos MARC que serían indexados y mostrados al usuario final en VuFind.

ALLISON JAI O’DELL (University of Miami Libraries): Book Artists Unbound: an EAC-CPF-based Discovery Tool for Contextualization of Creators

a.odell@miami.edu

Allison Jai O’Dell presentó un proyecto de contextualización de información relativa a libros de artistas no encuadernados pertenecientes a las colecciones especiales de la Universidad de Miami. Para sacar a la luz esta información de contexto relativa a los creadores implantaron una herramienta de descubrimiento basada en EAC-CPF (Encoded Archival Context: Corporate Bodies, Persons and Families), cuya demo se puede consultar en: http://www.library.miami.edu/sp/subjects/guide.php?subject=book_artists

Básicamente, lo que hicieron fue recopilar metadatos sobre estas colecciones de libros de artista a partir de una base datos bibliográfica basada en el formato MARC y convirtieron dicha información al esquema EAC-CPF XML utilizando el editor RAMP (Remixing Archival Metadata

Project), herramienta que permite generar registros de autoridad de creadores de colecciones archivísticas y publicar incluso dichos contenidos como páginas de Wikipedia. Este editor permite además enriquecer de forma semiautomática dichos registros con información de VIAF y WorldCat.

Mediante esquemas de visualización de datos y una exposición interactiva de los registros, se pueden visualizar relaciones entre artistas, sus estudios, técnicas utilizadas, colaboradores, géneros, biografías, materias, temas, formación.

JEFF STETSON (PROQUEST): Building on the Past: (Re) Constructing Comprehensive Title Histories for Serials Management using MARC Records

La base de datos de conocimiento de Proquest integra metadatos de distintas fuentes. Un punto realmente complicado en la gestión y catalogación de las publicaciones periódicas son los cambios de títulos y la evolución y reconstrucción de su historia. Proquest está interesada en la normalización de la información sobre estas publicaciones periódicas. Jeff Stetson ha diseñado un servicio que sirve para analizar la información existente y dispersa por diversos campos de los registros MARC creados por catalogadores individuales y reconstruir la historia de estas publicaciones.

Para Stetson, diseñador de bases de datos, no bibliotecario, MARC no es tan importante como los datos codificados, que son de una gran calidad porque han sido recogidos por bibliotecarios expertos. El valor real está en los datos.

Lo que ha pretendido con el proyecto de este servicio es diseñar una nueva forma de mirar a los datos contenidos en los registros MARC.

Domingo, 26 de Enero de 2014

METADATA INTEREST GROUP

DIANE HILLMAN: The Other Side of Linked Data: Managing Metadata Aggregation

metadata.maven@gmail.com

Diane Hillman, de Dublin Core Metadata Initiative, se pregunta quién está usando los Datos Enlazados ofrecidos ya por tantos proyectos. No solo es necesario ofrecer los datos, sino que es necesario conocer cómo se usan para poder informar sobre dichas prácticas.

Desde la óptica del modelo actual basado en MARC es difícil imaginar un nuevo escenario en el que se compartan datos de otros dentro de nuestros propios catálogos bibliotecarios, pero en la actualidad se ofrecen perspectivas de mayor poder y creatividad para bibliotecarios expertos en catalogación y metadatos. Si queremos participar en el mundo de los Datos Enlazados Abiertos, debemos comprender qué requiere de nosotros y de nuestros sistemas este mundo.

No se vislumbra claramente cómo se va a producir el cambio desde MARC, pero es necesario que trabajemos por comprender este nuevo universo y encontremos nuevas vías de trabajo.

¿Cuál debería ser la regla que guiara nuestros pasos? Usa al ser humano para aquellos temas que requieran conocimiento humano y toma de decisiones. Para todo lo demás usa las máquinas.

SANDRA MCINTYRE (Mountain West Digital Library), KRISTY BERRY DIXON (Digital Library of Georgia) and AMY RUDERSDORF (Digital Public Library of America): Harvesting and Normalization at the Digital Public Library of America: Lessons from a Diverse Aggregation

sandra.mcintyre@utah.edu; kldixon@uga.edu; amy@dp.la

La Digital Public Library of America (DPLA) es tanto una plataforma para usar de base y construir a partir de ella, en la que participan instituciones como Internet Archive, Smithsonian, Digital Commonwealth, Biodiversity Heritage Library, Hathitrust, Digital Library of Georgia, Harvard, Kentucky Digital Library o los National Archives, entre otros; como un portal de descubrimiento, de carácter público. Estas instituciones pueden ser Service Hubs o Content Hubs. Las primeras agregan metadatos que apuntan a objetos digitales de bibliotecas locales o de otras instituciones patrimoniales. Hasta ahora representan a estados o regiones de los Estados Unidos, aunque se prevé que puedan existir también Service Hubs que no sean de carácter geográfico. Las segundas son grandes bibliotecas, museos, archivos o repositorios digitales que mantienen relaciones de uno a uno con DPLA.

Algunas cifras sobre los participantes en el proyecto que se pueden citar: Un 30% de los participantes son bibliotecas universitarias, un 15% bibliotecas públicas, un 12% museos, un 10% archivos, un 11% sociedades históricas, un 4% Sociedades históricas, un 4% bibliotecas especiales, un 1% editores, entre otros. En DPLA existen en la actualidad más de 5 millones y medio de registros, se manejan 9 esquemas de metadatos y 25 pasarelas que representan los datos de 1100 instituciones.

Respecto a la agregación de los datos, se trabaja con esquemas como Dublin Core, MODS, MARCXML y cinco perfiles de aplicaciones de metadatos locales. Los mayores problemas en la agregación se dan por falta de contexto fundamentalmente en encabezamientos de materias y geográficos. En ocasiones la ambigüedad de los datos puede provocar inexactitudes. Una persona que se apellida Paris puede ser confundida con el encabezamiento geográfico de la ciudad francesa.

¿Cómo se están afrontando estos desafíos en la actualidad? Mediante la normalización a través de vocabularios controlados como los siguientes:

· Para nombres y entidades: ULAN, LCNAF, VIAF, DBpedia, EAC-CPF.

· Para datos geográficos: Geonames.org, DBpedia, TGN.

· Para materias: LCSH, MeSH, DBpedia.

· Para formatos: AAT, LCSH, TGM.

· Además, se están utilizando vocabularios regionales y/o locales como diccionarios geográficos para nombres regionales, parroquias para colecciones de la Iglesia Católica o de la Iglesia Mormón.

Recomiendan que los flujos de trabajo se documenten y se apliquen, así como que los metadatos se liberen con una licencia CC0* de dominio público y se compartan los recursos con licencias CC. En relación a los Datos enlazados recomiendan la inclusión de IDs y de URIs.

Los datos en DPLA se almacenan en JSON-LD, basados en las especificaciones DPLA MAP. JSON-LD es un formato de datos enlazados sencillo. En la mayoría de los casos los errores pueden ser fácilmente detectados y corregidos por máquinas, en otros casos pueden ser detectados por las máquinas pero solo corregidos por humanos.

Pronto tendremos interfaces que interpreten los datos enlazados y veremos de una manera más clara todo su potencial. Las implicaciones para los usuarios serán una mayor precisión en las búsquedas, la localización de recursos en múltiples lenguas y la posibilidad de aumentar el descubrimiento de forma más minuciosa.

Las implicaciones para los DPLA Hubs serán una menor necesidad de limpieza de datos y una mejora de los datos a nivel local en su preparación para la integración en DPLA.

¿Cómo empezar? Es necesario limpiar los datos con herramientas como OpenRefine, Data Wrangler y GREL/regez. ¿Qué ofrece DPLA? Un modelo sostenible para bibliotecas digitales.

LIBRARY OF CONGRESS BIBFRAME UPDATE FORUM

Sally McCallum (Chief of the Network Development and MARC Standards Office, Library of Congress): BIBFRAME PROJECT: A PRIORITY FOR THE LIBRARY OF CONGRESS

smcc@loc.gov

BIBFRAME se ha constituido como un proyecto que pretender ser una alternativa a MARC, más compatible con el nuevo entorno en relación a la web semántica. Durante el último año 2013 se ha desarrollado el modelo, así como toda una serie de herramientas y se ha experimentado con datos existentes. Todo ello se ha llevado a cabo en un entorno abierto.

Para 2014 el énfasis se pondrá en el Implementation testbed, o banco de pruebas para la implementación. La Library of Congress proporcionará un coordinador para mantener la información en circulación. Para la participación en esta fase de pruebas es necesario haber desarrollado o estar a punto de desarrollar una implementación de BIBFRAME, formalizar la fase de pruebas de forma apropiada, participar en las discusiones en esta fase de pruebas e informar de los resultados. Pueden participar también empresas. Existe un registro para los implementadores: http://www.loc.gov/bibframe/implementation/register.html

Para apoyar esta fase de pruebas se ha establecido un vocabulario estable, unos componentes de software básicos (módulo de entrada de datos, transformaciones MARCXML a BIBFRAME, vocabulario en RDF, juegos de registros de muestra, herramientas). Los temas ahora mismo en fase de análisis y discusión son: agregados, holdings, modelos para imágenes en movimiento y grabaciones sonoras, modelos relacionados de archivos y museos, etc.

BIBFRAME se va a constituir como un vocabulario pasarela entre instituciones.

Existen tres formas de visualizar el vocabulario BIBFRAME: Model View, que permite entrar en el vocabulario a través de sus clases principales (Obra creativa, Instancia, Anotación y Autoridad); Category View, que detalla todas las propiedades en grandes categorías, como títulos o identificadores; List View, que presenta en una única página todo el vocabulario con una lista ordenada de clases y propiedades.

Sally McCallum animó a participar y ampliar la lista de interesados en la implementación.

Reinhold Heuvelmann: BIBFRAME Report from the German National Library

r.heuvelmann@dnb.de

En este momento la Biblioteca Nacional Alemana está haciendo la transición desde MARC a BIBFRAME. El punto de partida ha sido un aprendizaje exhaustivo en torno a la Web Semántica. En 2012 comenzaron a experimentar, analizar las prioridades y recursos de la DNB y a definir un modelo de alto nivel. Durante 2013 se han centrado en la formación, las discusiones sobre el modelo y el vocabulario, relaciones institucionales y en llevar a cabo un prototipo para el mapeo y la conversión.

Los registros de autoridad del GND (Gemeinsame Normdatei) ya se han convertido a BIBFRAME y se están desarrollado mappings internos y externos desde PICA a MAB, MARC y BIBFRAME y de MARC y MAB a PICA. En el OPAC han creado un nuevo apartado añadiendo la representación del registro en BIBFRAME a la relación de acciones en relación a un registro bibliográfico, que van desde imprimir a visualizaciones en RDF/XML, MARC21/XML, etc.

El proceso todavía no se ha completado, está basado en vocabulario de 2013 y todavía no han publicado toda la documentación en torno al proyecto.

Los próximos pasos a dar se centrarán en el seguimiento de las discusiones y el aprendizaje, informar a la comunidad en los países de habla alemana, completar el mapping de Pica a BIBFRAME, la representación de las relaciones, definir los holdings como bf:Annotation, expandir bf:Authority, así como hacer descargas masivas.

Jackie Shieh: GW Libraries

Las bibliotecas de la George Washington University comenzaron a experimentar con BIBFRAME en 2013. En este proceso de experimentación están trabajando fundamentalmente con datos en MARC21 para transformarlos al modelo BIBFRAME.

Las Obras BIBFRAME se generan a partir de autoridades y, esencialmente, a partir de los registros bibliográficos están extrayendo los datos para Obras e Instancias. Están utilizando un $0 en campos como 100 o 650 para introducir URIs de los registros de autoridad en los registros bibliográficos.

Para terminar sentenció que el apoyo institucional es vital, que la colaboración fortalece el proceso, fomentar un entorno de aprendizaje, establecer y nutrir nuevas relaciones, así como que es fundamental y necesario divertirse por el camino.

Eric Miller: BIBFRAME Approach

em@zepheira.com

Eric Miller, presidente de Zepheira, presentó el editor que han desarrollado, actualmente en fase DEMO. En este momento, todo en el universo web vive en una eterna demo: no existe ni el final, ni lo hecho, ni lo correcto en estos momentos, lo único que existe es un entorno en permanente cambio, y esto afecta al entorno bibliotecario como le ocurre a la web, comentaba Eric Miller.

La comunidad bibliotecaria ha realizado un magnífico trabajo con los registros de autoridad y el editor conecta a varios servicios de registros de autoridades como VIAF. Es fundamental aprovecharse de todos estos recursos ya existentes y alimentados durante años, pero es necesario transformarlos a RDF.

Con dicho editor es posible también añadir a nuestros registros de forma automática recursos de otras comunidades. También se pueden crear herramientas desde otras comunidades para enriquecer nuestros registros.

El editor BIBFRAME está diseñado para ayudar a asentar las discusiones, en gran parte abstractas, sobre el modelo BIBFRAME y se espera que funcione como un medio para acelerar la experimentación. Todavía es pronto para su implementación, pero los resultados son increíblemente prometedores.

Proporcionó el siguiente enlace: http://zepheira.com/alamw14/, para los que estén interesados en recibir noticias o convertirse en implementadores.

CaMMS FORUM

Sally McCallum (Chief of the Network Development and MARC Standards Office, Library of Congress): MARC Tags to BIBFRAME Vocabulary: a new view of metadata

smcc@loc.gov

Sally McCallum comentó que BIBFRAME trata de metadatos y usa las convenciones RDF del W3C. La lista de clases, propiedades y sus atributos constituyen el vocabulario BIBFRAME.

Las clases principales en BIBFRAME son: Obra, Instancia, Autoridad y Anotaciones. La clase Obra incluye las Obras y Expresiones de RDA; la clase Instancia incluye las manifestaciones de RDA; la clase Autoridad incluye los nombres y las materias, pero no los títulos que pertenecerían a la clase Obras en BIBFRAME. Para esta clase, Autoridad, sería necesario explorar otros tipos como clasificación, editor, etc. Por último, la clase Anotaciones incluye los ítems de RDA.

Entre las categorías de recursos habló de los tipos de recursos de la obra BF que se corresponderían con la posición 06 de la cabecera en MARC, como material textual, cartográfico, música notada, grabación sonora, archivo de ordenador, etc. El modo y la comunicación de la Instancia BF se corresponderían con el nivel bibliográfico, la clase de material y la forma de publicación en la posición 07 de la cabecera, los campos 007 posición 00 y 008 posición 23 como impreso, manuscrito, material de archivo, táctil, electrónico, monografía, colección, publicación periódica, etc.

Existen propiedades para listas de categorías especiales como las desarrolladas para los campos 336/338 del formato MARC, que se acomodan a las listas RDA, aunque se podrían utilizar listas de otras comunidades.

Siguió desgranando grupos de propiedades en el vocabulario y su correspondencia con MARC, como por ejemplo en relación a los títulos:

· Título de la Instancia àCampo 245

· Título de la Obra àCampo 240 y Autoridad de Autor/Título

· Título abreviado àCampo 210

· Variaciones de títulosàCampo 246 y 4XX de los registros de Autoridad

Respecto a las relaciones entre títulos, comentó que en BIBFRAME se habían formulado dos objetivos fundamentales: describir un recurso y establecer sus relaciones con otros recursos. A las relaciones específicas hay que añadir relaciones, por así llamarlas, subespecíficas, que se corresponden con los campos MARC 76X-78X, como suplemento de, traducción, reproducción, etc.

Recomendó la lectura detenida de la descripción y la terminología BIBFRAME.

Michael Colby (Head of Original Cataloging and Music Bibliographer, University of California, Davis): BIBFLOW: A UC Davis Library Website

bibflow@lib.ucdavis.edu; http://www.lib.ucdavis.edu/bibflow/

BIBFLOW es un proyecto de las bibliotecas de la UC Davis (Universidad de California), la Library of Congress, NISO, Zepheira, OCLC y Kuali, financiado por la organización gubernamental estadounidense IMLS (Institute of Museum and Library Services), de una duración de dos años, que tiene como objetivo investigar el futuro de los procesos técnicos en las bibliotecas a la luz de los nuevos modelos, normas y formatos como RDA y BIBFRAME.

Una de las principales preguntas que planea e impulsa el proyecto es cómo el software, los sistemas de gestión de bibliotecas y los flujos de trabajo actuales están inhibiendo la adopción de nuevos estándares. Para ello es necesario poner en claro cómo las bibliotecas de investigación deben adaptar las prácticas actuales, los flujos de trabajo, los sistemas de gestión y las asociaciones con otras instituciones para apoyar esa evolución hacia nuevos estándares y tecnologías. Durante el desarrollo del proyecto pretenden recolectar registros en diferentes normas de codificación como MARC o Dublin Core, hacer mappings y convertirlos al modelo BIBFRAME. Asimismo, pretenden estudiar y establecer una hoja de ruta para la viabilidad de la implementación de BIBFRAME.

Entre las herramientas que van a utilizar estan VuFind, ViewShare, OLE (Open Library Environment) o GoogleScholar.

Eric Miller (President, Zepheira): BIBFRAME

em@zepheira.com

Eric Miller, presidente de Zepheira, definió BIBFRAME como un modelo de Linked Data, nacido y basado en la web y que utiliza y se sirve de la web en todo su potencial. La unión entre Web y datos bibliográficos aportados por bibliotecas puede enriquecerse y fortalecerse mutuamente.

Hasta hace muy poco hemos estado luchando contra la web, más que siendo parte de ella. Es preciso que establezcamos alianzas y que aprovechemos la web.

Estamos en un ciclo de cambio. Las normas están en proceso de maduración en este momento, las herramientas también, pero no recomienda a las bibliotecas que esperen “al final”. Es preciso que nos demos cuenta de que nuestros usuarios no ven los límites entre la información procedente de archivos, de museos o de bibliotecas.

En este sentido, BIBFRAME es un modelo más grande y potente que cualquiera de cualquier comunidad catalogadora.

MARC ADVISORY COMMITTEE 2

http://www.loc.gov/marc/mac/

Comenzó con la presentación, por parte de Thurstan Young de la British Library, de la Proposal No. 2014-03: Renaming and Redefining 347 $f (Transmission Speed) in the MARC21 Bibliographic Format.

El subelemento de RDA “Velocidad de transmisión” (Transmission Speed) fue renombrado “Velocidad de transferencia” (Encoded Bitrate) por la Library of Congress, al cerciorarse de que era inadecuado, ya que el primero se refiere a la velocidad en la que los datos se transmiten en directo, lo que es muy diferente del segundo que se refiere a la velocidad a la que el contenido se ha codificado (número de bits procesados por unidad de tiempo). Asimismo, la Library of Congress procedió a redefinir el alcance de dicho subelemento ya que hay más tipos de contenido que el audio y el video. Por todo ello es por lo que se propone renombrar el subcampo $f (Velocidad de transmisión) del campo 347 (Características del archivo digital).

La propuesta fue aceptada por unanimidad.

A continuación Reinhold Heuvelmann, de la Deutsche Nationalbibliothek, presentó el Discussion Paper Nº 2014-DP01, “Designating Never Published in the MARC 21 Bibliographic Format”, planteado a propuesta de la biblioteca nacional alemana.

A veces, se proyecta la publicación de una obra, pero finalmente nunca se publica. Puede que la información quedé en registros de catalogaciones en publicación y sería interesante conservar estos registros actualizados con la información de que nunca serán publicados en su caso, sobre todo de cara a labores de adquisición, principalmente en aquellas bibliotecas con obligaciones de depósito legal. Se proponen varias opciones: un nuevo código en la posición 17

(Nivel de codificación) de la cabecera; un nuevo código en la posición 6 del campo 008 (Tipo de fecha / Estado de la publicación); o bien el uso del campo 263 (Fecha proyectada de publicación)

En el debate posterior, se plantea si es necesario mantener ese tipo de registros puesto que nunca van a colgar ejemplares de ellos y pueden generar confusión. Otros miembros del Comité aceptan que puede ser información relevante para las bibliotecas nacionales, fundamentalmente. En cualquier caso, no existe consenso respecto a la vía para codificar este tipo de información.

MARC ADVISORY COMMITTEE 3

http://www.loc.gov/marc/mac/

Tras una pausa de descanso, continúan los debates en torno a las propuestas restantes: DP-02 y DP-04:

1. Discussion Paper Nº 2014-02: “Relationships Between Subject Headings from Different Thesauri in the MARC 21 Authority Format”, presentado por Reinhold Heuvelmann, de la Deutsche Nationalbibliothek.

El formato MARC permite a través de los campos 7XX establecer relaciones de equivalencia entre diferentes sistemas de encabezamientos de materia y tesauros, pero lo que no permiten es ir más allá de estas relaciones de equivalencia. Es imposible expresar de esta forma relaciones jerárquicas o asociativas entre distintos sistemas y tesauros. Para suplir estas carencias, desde la Deutsche Nationalbibliothek se propone definir dos nuevos subcampos en los campos 7XX: $i (Frase explicativa de la referencia) y $4 (Código de relación), ambos repetibles.

En el debate suscitado se planteó si se había contemplado la posibilidad de generar relaciones de forma automática y se contestó que no, que se pensaba en crearlas de forma manual. El representante de la British Library, Thurstan Young, también planteó su preocupación por los casos en los que fuera necesario establecer más de una relación. También se habló de una vía alternativa que podría ser añadir nueva codificación en el subcampo $w, ya que además los catalogadores están familiarizados con su uso en los campos 5XX. Finalizó el debate con la necesidad de llevar a cabo una investigación más profunda sobre el tema.

2. Discussion Paper Nº 2014-04: “Recording RDA Relationship Designators in the MARC 21 Bibliographic and Authority Formats”, presentado por Bill Leonard, en representación del Canadian Committee on MARC.

La necesidad de encontrar los mecanismos apropiados para los designadores de relación que se explicitan en los apéndices I (Relaciones entre un Recurso y Personas, Familias y Entidades), J (Relaciones entre Obras, Expresiones, Manifestaciones e Ítems) y K (Relaciones entre Personas, Familias y Entidades) de RDA se viene discutiendo desde 2009. En enero de 2013 se solicitó la redacción de un documento de revisión sobre el tema que tratara de encontrar un lugar para etiquetas amigables para el usuario que expresaran tipos de relaciones así como códigos que designaran las relaciones de forma precisa. Además, se amplió la discusión a todos los apéndices relevantes de RDA y todos los campos relevantes en los Formatos MARC tanto de Autoridades como de Registros Bibliográficos.

Se plantean dos opciones para los designadores de relación de RDA en la codificación MARC21:

A. El texto del designador de los Apéndices I o J debería grabarse en el subcampo de término de relación relevante, con lo que no sería necesario hacer ningún cambio en MARC21. La desventaja es que no se explicita la entidad WEMI a la que se refiere la relación. No se puede hacer un mapping automático de estas relaciones RDA durante una migración a un catálogo FRBRizado. En algunos casos podría inferirse la información utilizando datos grabados en otros campos, pero no siempre.

B. Definir codificación adicional para separar la información proporcionada al usuario de la codificación de las relaciones con un mayor grado de granularidad.

a. Nuevos códigos para los designadores de relación del Apéndice I.

b. Nuevo subcampo $7 en los campos 700-730 de los registros bibliográficos y 500-530 de los registros de autoridad para los designadores de relación del Apéndice J.

c. Incluir los designadores de relación del Apéndice J en los campos 760-787:

i. Ampliar el uso del subcampo $4 en los campos 760-787, desarrollando los códigos de relación de MARC21 y haciéndolos corresponder con las relaciones especificadas en el Apéndice J de RDA.

ii. Definir un nuevo subcampo $j en los campos 760-787 para las relaciones especificadas en el Apéndice J de RDA, lo que requeriría una definición de códigos por la Library of Congress.

iii. Redefinir la posición 0 del subcampo $7 en los campos 760-787, actualmente “tipo de encabezamiento principal”, como “tipo de encabezamiento relacionado”.

En la discusión se señaló que resulta confuso y que los catalogadores realmente no llegan a comprender totalmente los designadores de relación definidos en RDA. Quizás de aquí a un año habremos alcanzado suficiente conocimiento para redactar unas “buenas prácticas” en torno al tema. Se insistió en que una solución permanente para este problema va más allá del formato MARC.

Lunes, 27 de Enero de 2014

HEADS OF CATALOGING INTEREST GROUP

Dos conferenciantes en esta sesión: John Riemer, de la Universidad de California y Philip E. Schreur, de la Universidad de Stanford, que centran sus intervenciones en cómo cambiar y evolucionar a partir de un Departamento de Catalogación tradicional.

JOHN RIEMER, “Living up to One’s Digital Potential in a Traditional Cataloging Unit”

jriemer@library.ucla.edu

John Riemer, Jefe del Library Cataloging & Metadata Center de UCLA desde el año 2000, habló de cómo reconvertir un Departamento de Catalogación tradicional en otro tipo de Unidad que pueda afrontar nuevos retos en el ámbito digital y cuyo personal pueda asumir nuevas actividades relacionadas en torno a los metadatos.

Para conseguirlo considera fundamental revitalizar al personal con nuevos desafíos y evitar los “gabinetes de curiosidades”, como denominaba Marija Dalbello en “Institutional Shaping of Cultural Memory: Digital Library as Environment for Textual Transmission” (Library Quarterly, vol. 74, n. 3, 2004, pp. 265-298) a las colecciones digitalizadas de materiales antes restringidos al personal investigador.

Dos enfoques diferentes se pueden tomar para abordar esta reconversión: por un lado, crear una unidad dentro del Departamento de Catalogación tradicional para abordar los temas digitales; por otro, implicar a todo el personal y compartir responsabilidades. John Riemer recomienda ésta última vía.

Para ello es necesario formar al personal. Dublin Core no suplantará a MARC y no es una norma que se refiera al contenido.

Por último, es necesario una reconceptualización del trabajo en torno al control de autoridades diferenciando entidades, creando identificadores, desenfatizando la construcción de encabezamientos y ampliando el ámbito de quién puede contribuir al trabajo de autoridades.

Una de sus últimas publicaciones es “The Expansion of Cataloging to Cover the Digital Object Landscape”, Cataloging and Classification Quarterly, Vol. 48, n. 6/7, 2010.

PHILIP E. SCHREUR, “Evolution, Revolution, Transfiguration: SOMETHING WONDERFUL IS ABOUT TO HAPPEN”

pschreur@stanford.edu

Philip E. Schreur, Jefe del Metadata Departament de la Universidad de Stanford, haciendo un remedo de la película “2001: Una odisea del espacio”, hace un balance de lo que ha sido la evolución del Departamento de Catalogación de la Universidad de Stanford desde los años noventa hasta ahora.

Evolución: El Departamento de Catalogación de la Universidad de Stanford ha pasado por muchas fases en los últimos veinte años. Desde los tiempos de la catalogación por copia, en la que el personal empleaba una gran parte de su tiempo revisando se pasó a la subcontratación del trabajo de catalogación. En 1996 se rediseñó el Departamento de Catalogación, que volvió a ser remodelado en 1999. Con posterioridad, ya en la primera década del siglo XXI se comenzó a oír hablar insistentemente de la obligación de “catalogar Internet”, cuando no existían las herramientas para poder hacerlo, pero mucha gente, sin mucho conocimiento, hablaba continuamente de ello.

Revolución: Comienzan a desarrollarse modos automatizados de análisis y se crea la Biblioteca Digital como una unidad diferente fuera del Departamento de Catalogación. En 2008, sin embargo, se reconvirtió el Departamento de Catalogación en Departamento de Metadatos.

La primera decisión que se tomó en este nuevo entorno fue, de cara al desarrollo del personal del nuevo Departamento de Metadatos, que un 20% de su jornada la dedicara el personal a investigar nuevos modos de trabajo, nuevas herramientas, etc. Se realizaron nuevos experimentos que tuvieron un impacto fundamental en la biblioteca digital. El Departamento se convirtió en un Departamento de Descubrimiento, sobre todo, en relación a Linked Open

Data.

Para afrontar un cambio de esta naturaleza, es necesario salir fuera y buscar el desarrollo de estas nuevas habilidades. Las descripciones de las funciones de los puestos de trabajo deben variar radicalmente y formar al personal en cuestiones como: XML, Web Semántica, Ontologías, Linked Open Data, Sparql, etc. Es necesario que el personal adquiera el lenguaje y lo entienda para poder entrar en la discusión sobre estos nuevos desafíos.

La norma RDA no ha sido revolucionaria, pero ha posibilitado el pensar y repensar el proceso de la catalogación y lo que se pretende conseguir con dicho proceso. Por su parte, Linked Open Data no es más que una tecnología de apoyo a dicho proceso.

Tres proyectos han sido claves en esta revolución: Linked Open Data, Ontologías y los metadatos BIBFRAME.

Transfiguración: ¡Comienza una nueva odisea! ¿Qué hay ahí fuera?

Es necesario repensar los flujos de trabajo que, en la actualidad, se están orientando fundamentalmente a los proyectos. Philip E. Shreur piensa que no se va a poder soportar por mucho tiempo este modelo de bases de datos dividido entre el catálogo y el repositorio para los recursos digitales. Se deben establecer las bases para un trabajo colaborativo entre el Departamento Digital y el Departamento de Catalogación o Metadatos. Son necesarias nuevas alianzas: dentro de la biblioteca, con el Departamento Digital y con el Lab que desarrolla ontologías, etc.; fuera de la biblioteca, con Backstage. Es necesario que nos dirijamos hacia un modelo de metadatos más flexible.

Una de sus últimas publicaciones es “The Academy Unbound: Linked Data as Revolution” (Library Resources & Technical Services, Vol. 56, No. 4, 2012, pp. 227-237).

TECHNICAL SERVICES WORKFLOW EFFICIENCY INTEREST GROUPMICHAEL WINECOFF, “Using MarcEdit and Excel to Identify Bibliographic Problems with Batchloaded Records”

mkwineco@uncc.edu

Michael Winecoff, bibliotecario de Servicios Técnicos de la University of North Carolina en Charlotte, comenta como los registros MARC que proporcionan las empresas o la propia OCLC se descargan muy a menudo sin llevar a cabo un mínimo control de calidad, por lo que es preciso identificar los problemas que les puedan afectar y que pueden hacer que queden inaccesibles para el público. En su presentación Michael Winecoff recomienda utilizar las herramientas MARCEdit junto con Excel para identificarlos y mejorarlos.

ANNIE GLERUM, “Adding XSLT to the cataloger’s toolbox: efficiencies for transforming and analyzing bibliographic data”

aglerum@fsu.edu

Annie Glerum, Jefa de Catalogación Compleja en las Bibliotecas de la Florida State University, señala que MARCEdit es una herramienta muy productiva para analizar y editar ficheros de registros MARC proporcionados por empresas, pero mejora la eficiencia del análisis si se utiliza en conjunción con XSLT (EXtensible Stylesheet Language Transformations).

Annie centra su presentación en cómo usar XSLT junto a MarcEdit. Asimismo habla de la herramienta desarrollada por la Universidad de Florida, CatQC, similar a XSLT y que puede ser utilizado para las mismas tareas.

JACQUIE SAMPLES, “Process improvement: moving through chaos to achieve order”´

jacqueline.samples@duke.edu

Jacquie Samples, Jefe de la Sección de Catalogación de Publicaciones Periódicas y Recursos Electrónicos en las Bibliotecas de la Duke University, en Durham, comentó el uso de la aplicación BPM (Business Process Management) desarrollada por IBM a partir de 2013 para mejorar el flujo de trabajo en relación a la adquisición y puesta en uso de bases de datos y recursos electrónicos, desde la recomendación del bibliotecario referencista a la petición del período de prueba a la editorial correspondiente y la activación final del producto.

Un equipo conjunto formado por personal de IBM y de las Bibliotecas de la Duke University analizó el proceso de gestión de las suscripciones a bases de datos online de cara a la mejora del flujo de trabajo. Se comenzó con entrevistas al personal y un análisis del proceso.

Lo que se encontró es que la comunicación efectiva entre las unidades involucradas en el proceso se veía dificultada por un proceso ineficiente y manual. De hecho, se llegó a descubrir en este análisis del proceso cómo seis bases de datos que habían sido compradas nunca fueron activadas, con la consiguiente pérdida de una gran cantidad de dinero invertida.

Con la adopción de la aplicación BPM y la automatización de todo el proceso se ha conseguido mejorar el flujo de trabajo que, en la actualidad, ha pasado a ser automatizado casi por completo. Los factores de éxito han sido la reducción de la dependencia del correo electrónico y la memoria humana, así como la minimización de los riesgos de pérdida de datos.

Una experiencia muy interesante para tener en cuenta de cara a la mejora de la gestión de las bases de datos y recursos electrónicos en la Biblioteca Nacional de España.

Martes, 28 de Enero de 2014

BIBLIOGRAPHIC STANDARDS COMMITTEE MEETING – DCRM MSS EDITORIAL GROUP II (ACRL RBMS)

El encuentro de este grupo se dedicó a la revisión de las directrices para la Catalogación Descriptiva de Manuscritos.

Follow us on Social Media