Image
ObCP - Opinión
Automatización sin supervisión: el nuevo riesgo en la contratación pública

La automatización en la contratación pública, aunque busca eficiencia, introduce un riesgo significativo que se convierta en un velo tecnocrático, como es el caso de la falta de supervisión algorítmica de la plataforma única. Esto puede generar discrecionalidad silenciosa y sesgos, socavando la transparencia y la rendición de cuentas.

21/07/2025

En pleno auge de la digitalización estatal, se abre paso un nuevo riesgo silencioso: la automatización sin supervisión suficiente. Si bien la eficiencia es el mantra dominante, el uso de algoritmos sin control visible puede socavar los propios principios que la contratación pública busca garantizar.

 

La digitalización de la contratación pública costarricense ha avanzado con paso firme. La implementación de una plataforma única como el SICOP, aún y con algunas deficiencias que en otras ocasiones he señalado, se ha convertido en emblema de eficiencia, trazabilidad y reducción del margen discrecional. Sin embargo, en el corazón de este proceso de modernización se esconde una paradoja inquietante: ¿Puede una herramienta diseñada para transparentar, convertirse en un velo tecnocrático que oscurece?

 

La automatización de fases clave del procedimiento de contratación —desde la recepción electrónica de ofertas hasta la aplicación automática de matrices de evaluación— responde a una lógica comprensible: Reducir los tiempos, estandarizar los procesos, minimizar los errores humanos. No obstante, al convertir “el código en norma” sin una deliberación pública ni control democrático, se corre el riesgo de instaurar una nueva forma de discrecionalidad silenciosa: la algorítmica.

 

Basta imaginar un escenario en el cual, por ejemplo, un algoritmo diseñado para ponderar el “precio más bajo con calidad aceptable” descarte automáticamente una oferta técnica innovadora que, aunque superior, no se ajusta al formato rígido preprogramado. La decisión no será imputable a una persona, sino al sistema. Y sin posibilidad de auditar o comprender la lógica decisoria, el oferente no sabrá si su exclusión se debió a una falla sustantiva o a un sesgo de diseño. En este punto, la automatización deja de ser una herramienta y se convierte en un poder normativo no controlado.

 

Costa Rica aún no discute abiertamente la dimensión algorítmica de su sistema de contratación pública. ¿Se conocen públicamente las fórmulas y ponderaciones empleadas en los pliegos tipo o matrices automatizadas? ¿Puede un oferente auditar la lógica de decisión que descartó su oferta? ¿Quién supervisa que los algoritmos no reproduzcan sesgos que violenten los principios de igualdad, proporcionalidad o libre concurrencia?

 

Mientras se exigen amplias cargas de transparencia a los oferentes —certificaciones, declaraciones juradas, verificaciones documentales—, el “cerebro” informático que toma decisiones esenciales en licitaciones millonarias permanece sin rendición de cuentas. La transparencia algorítmica no es solo deseable: es una exigencia de buena administración en el siglo XXI.

 

Algunos ordenamientos jurídicos ya han reconocido el riesgo de una automatización sin control:

  • Francia, mediante el artículo L311-3-1 del Código de relaciones entre el público y la administración [i] (Code des relations entre le public et l'administration), impone el deber de comunicar las reglas y características principales de tratamiento algorítmico que influyen en las decisiones administrativas.

 

  • La Unión Europea, a través del artículo 22 del Reglamento General de Protección de Datos (RGPD) [ii], reconoce el derecho de toda persona a no ser objeto de decisiones basadas exclusivamente en procesos automatizados, y exige que se expliquen las lógicas implicadas.

 

  • España, con el impulso del Observatorio de Contratación Pública y del INAP, ha promovido estudios y guías sobre la necesidad de dotar de “inteligencia ética” al diseño de algoritmos en contratación, incorporando principios como auditabilidad, trazabilidad y supervisión humana [iii].

 

Costa Rica se encuentra en un punto de inflexión: aún está a tiempo de incorporar transparencia algorítmica como parte de su cultura institucional, antes de que los riesgos de la automatización se vuelvan estructurales. Desde ya, es posible:


1. Incorporar expresa y puntualmente principios de transparencia algorítmica en la regulación costarricense, obligando a que toda herramienta automatizada tenga documentación pública comprensible.

2. Crear un módulo de auditoría y trazabilidad en SICOP, que permita verificar el razonamiento detrás de cada puntuación asignada.

3. Exigir que toda matriz automática sea susceptible de revisión, tanto por el oferente como por los órganos de control.

4. Formar a los operadores en ética digital y gobernanza de datos, pues la tecnología no sustituye la función pública: la redefine, pero no la exonera.

En la era digital, la contratación pública ya no puede limitarse a controlar formularios y plazos. Ahora debe auditar también el código. Porque cuando los algoritmos deciden sin rendir cuentas, la eficiencia deja de ser una virtud y comienza a ser una amenaza disfrazada de innovación.

 

[i] Code des relations entre le public et l'administration (CRPA). Ordenanza n.º 2015-1341 de 23 de octubre de 2015. Entrada en vigor: 1 de enero de 2016. Francia. Disponible en: https://www.legifrance.gouv.fr

 

[ii] Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (Reglamento General de Protección de Datos – RGPD).
Disponible en: 
https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A32016R0679  

 

[iii] Valero Torrijos, Julián. Inteligencia artificial y contratación del sector público. Observatorio de Contratación Pública. España. 2020. https://www.obcp.es/opiniones/inteligencia-artificial-y-contratacion-del-sector-publico

Colaborador