Política sobre uso de inteligencia artificial

Editorial CSIC, tomando como principal referencia las recomendaciones del Committee on Publication Ethics (COPE), entiende que el uso de inteligencia artificial (IA) y de herramientas asistidas por IA puede suponer una tecnología auxiliar, un apoyo útil, siempre que se utilice con responsabilidad y prudencia, se declare su uso de forma detallada, y sus resultados sean revisados, corregidos y aceptados por seres humanos. Este deber de transparencia, además, está en consonancia con los principios de ciencia abierta, que fomentan la trazabilidad y reproducibilidad de la investigación.

El uso ético y responsable de estas tecnologías obliga a establecer siempre un control y supervisión por parte de quienes asumen la autoría, la edición o la revisión. Estas personas deben verificar la exactitud, precisión, validez, pertinencia e integridad del material generado por la IA, prestando especial atención (aunque no solo) a las referencias inventadas y a los sesgos que pudiera introducir el diseño de la herramienta (inconsistencias, falta de información o de fuentes, etc.), para evitar la desinformación. La rendición de cuentas sobre el manejo de herramientas de IA debe garantizar el análisis y declarar las limitaciones que se puedan detectar.

Lo más común en el ámbito de las publicaciones científicas son las lA generativas y los modelos de lenguaje de gran tamaño. Sin embargo, hay otros muchos tipos de IA que pueden utilizarse en los procesos de redacción del manuscrito o de edición y producción de la publicación, e incluso antes, en el diseño o el desarrollo de la investigación.

Existe una gran diversidad de herramientas y tecnologías que utilizan la IA para la edición, y muchas permiten proteger el contenido que agregamos en ellas. Se deben utilizar aquellas que permitan encriptar la comunicación o la información almacenada, denegar la autorización para que el modelo se entrene con nuestros contenidos o trabajar en entornos controlados, ya sea en una instalación local o en servidores con garantías de privacidad, así como cualquier otra medida de protección.

Para conocer en detalle la política de Editorial CSIC sobre uso de inteligencia artificial consulte la Guía de buenas prácticas para la edición científico-académica en la que se describen los conceptos de autoría en relación con la IA, quiénes y cómo se debe declarar el uso de IA y cómo se deben referenciar y citar las herramientas de IA.

 

[gl] Editorial CSIC, tomando como principal referencia as recomendacións do Committee on Publication Ethics (COPE), entende que o uso de intelixencia artificial (IA) e de ferramentas asistidas por IA pode supoñer unha tecnoloxía auxiliar, un apoio útil, sempre que se empregue con responsabilidade e prudencia, que se declare o seu uso de forma detallada e que os seus resultados sexan revisados, corrixidos e aceptados por seres humanos. Este deber de transparencia, ademais, está en consonancia cos principios de ciencia aberta, que fomentan a rastrexabilidade e reproducibilidade da investigación.

O uso ético e responsable destas tecnoloxías obriga a establecer sempre un control e supervisión por parte de quen asume a autoría, a edición ou a revisión. Estas persoas deben verificar a exactitude, precisión, validez, pertinencia e integridade do material xerado pola IA, prestando especial atención (aínda que non só) ás referencias inventadas e aos rumbos que puidese introducir o deseño da ferramenta (inconsistencias, falta de información ou de fontes etc.), para evitar a desinformación. A rendición de contas sobre o manexo de ferramentas de IA debe garantir a análise e declarar as limitacións que se poidan detectar.

O máis común no ámbito das publicacións científicas son as IA xenerativas e os modelos de linguaxe de gran tamaño. Con todo, hai outros moitos tipos de IA que se poden empregar nos procesos de redacción do manuscrito ou de edición e produción da publicación, e mesmo antes, no deseño ou no desenvolvemento da investigación.

Existe unha gran diversidade de ferramentas e tecnoloxías que empregan a IA para a edición, e moitas permiten protexer o contido que agregamos nelas. Débense utilizar aquelas que permitan encriptar a comunicación ou a información almacenada, denegar a autorización para que o modelo se adestre cos nosos contidos ou traballar en contornas controladas, xa sexa nunha instalación local ou en servidores con garantías de privacidade, así como calquera outra medida de protección.

Para coñecer en detalle a política de Editorial CSIC sobre uso de intelixencia artificial consulte a Guía de boas prácticas para a edición científico-académica na que se describen os conceptos de autoría en relación coa IA, quen e como se debe declarar o uso de IA e como se deben referenciar e citar as ferramentas de IA.