Contabilidad y Auditoría

ISSN 1515-2340 (Impreso) ISSN 1852-446X (En Línea) ISSN 1851-9202 (Vía Mail)

Nº 53 – año 27

Una mirada epistemológica sobre el costo de los nuevos bienes de capital

An epistemological perspective on the cost of new capital goods

Mg. Juan Francisco Rodriguez Brites

rodriguezbrites@gmail.com

Universidad de la República

Uruguay

  • Profesor Adjunto Grado 3 de la Unidad Académica Costos y Control de Gestión de la Universidad de la Republica (Udelar).
  • Integrante del equipo de investigación de Costos y Gestión en la Industria Creativa en la Udelar.
  • Contador Público (Udelar).
  • Máster en Administración de Empresas (MBA) y Posgrado de Especialización en Costos y Gestión Empresarial, ambos por la UdelaR.

Presentado: 31/01/2021 | Aprobado: 24/03/2021 | Publicado: Abril del 2021


Resumen

El mundo se encuentra ante una nueva etapa de la economía sustentada en grandes infraestructuras globales. Esta infraestructura está compuesta por bienes de capital con componentes virtuales y físicos que deben poder ser entendidos desde el marco conceptual de la Teoría General del Costo. Desde el concepto de “costo” se pudo concluir que los agregados económicos medios (AEM) generan valor entregando a los usuarios finales una serie de bienes y servicios que les generan utilidad, y ese valor se traslada a los factores utilizados: hardware y software, que se corresponderían con las plataformas Over-the-Top (OTT) y los proveedores de red.

Palabras claves: Teoría General del Costo – Plataformas – Digitalización – Nuevos bienes de capital – OTT

Abstract

The world is in a new stage of the economy based on large global infrastructures. This infrastructure is made of capital goods with virtual and physical components, that must be understood from the General Cost Theory. From the concept of “cost” it was possible to conclude that middle economic aggregates generate value by delivering to the end users a series of goods and services that generate utility, and that value is transferred to the factors used: hardware and software, which would correspond to Over-the-Top (OTT) platforms and network providers.

Keywords:General Cost Theory – Platforms – Digitization – New capital goods – OTT


1. Introducción

Cada día se acentúan los cambios provocados por la tecnología en la generación de nuevos bienes, formas de producción y estructuras organizativas (Budiño et al, 2011). Cerrada la segunda década del nuevo milenio, nos encontramos ante la consolidación de una nueva etapa de la economía a través de la digitalización y la convergencia.

En estas nuevas circunstancias, ciertos factores tradicionales de producción parecen perder la predominancia en la estructura de costos de las organizaciones frente a las grandes infraestructuras de hardware, redes, cables y dispositivos que, sumados al middleware y al software, servidores, aplicaciones de inteligencia artificial y algoritmos producen un sinfín de servicios y bienes compuestos exclusivamente de bits.

Estas infraestructuras físicas y virtuales están formadas por bienes de capital, lo que transforma su análisis y conceptualización a efectos de un correcto entendimiento de la realidad económica contemporánea basada en grandes inversiones de capital

2. Marco Teórico

Para la Teoría General del Costo es significativa la clasificación de los factores por su naturaleza, y en particular los bienes de capital, que Cartier (2017) identifica como “aquellos productos que son destinados a incrementar la eficiencia de las unidades productivas. A diferencia de los intermedios, no requieren procesos ulteriores, sin embargo, como ellos, tampoco sirven para atender directamente las necesidades humanas”, y cita como ejemplos las máquinas y la infraestructura.

El mismo Cartier (2002) expresa que “resulta imprescindible reconocer la existencia de diferentes categorías de factores más allá de la clásica clasificación por naturaleza”, agregando otras categorías para entender las particularidades de cada factor, como son: el compromiso de adquisición, la divisibilidad, la transferibilidad en el tiempo y la transferibilidad en el espacio.

Otra categoría mencionada por Cartier (2017) y que puede aplicarse a este factor es la “pérdida de potencialidad productiva”, que se produce en el momento de producción, en el que un factor combinado con los otros recursos se transforma en el resultado productivo pretendido. En el caso de los bienes de capital, estos pierden su potencialidad productiva en forma gradual como consecuencia de su uso por las acciones del proceso productivo, y surge la problemática de delimitar esa pérdida parcial de potencialidad, ese consumo de la energía por las acciones del proceso productivo, así como el valor de dicha pérdida.

2.1 El costo desde el enfoque técnico

El costo desde el punto de vista técnico se remite a una relación esencialmente física entre “cantidad de unidades de factor por unidad de objetivo” (Cartier, 2017); en otras palabras, el costo tecnológico “no sería otra cosa que el conjunto de las energías (de los factores productivos) destruidas en la producción” (Furlan y Provenzali, citados por Asuaga y Pombo, 2004). Es importante señalar que este enfoque técnico posee un total acuerdo doctrinal, algo que a pesar de ser conocido se entiende necesario resaltar.

Según García (2005) bajo la perspectiva técnica, “el fenómeno costo posee un único componente, el físico, que es el componente genuino, primario y auténtico que le da origen” y “la moneda cumple la función de homogeneizar los distintos recursos o factores consumidos.” Y agrega, “la aludida necesidad instrumental de su homogeneización” convierte al componente monetario “solamente en un instrumento facilitador de una lectura global del costo tecnológico”; para concluir que “la Teoría General del Costo se quedaría a mitad de camino si pretende conceptualizar el fenómeno costo desde un enfoque económico limitándolo a una relación esencialmente física expresada, por razones de homogeneización, usualmente en unidades monetarias”, lo que conduce al siguiente enfoque:

2.2 El costo desde el enfoque económico

“No hay razón para pensar que la teoría de la producción y la teoría del valor constituyen saberes excluyentes, sino todo lo contrario, en lo que refiere a teoría de los costos ambas tratan conocimientos complementarios”, expresa García (2005), y agrega que para alcanzar un “concepto económico de costo” debemos atacar el concepto central de la ciencia económica que es el valor. Entonces, “el gran reto, es determinar el valor de los factores involucrados” (Asuaga, 2011), en otras palabras, “la pérdida de potencialidad productiva puede concebirse no sólo en términos de cantidades físicas de factor que se emplean en un proceso productivo sino también en términos del valor económico que se sacrifica” explica García (2005) y luego remarca la diferencia que existe entre costo y valor, aclarando que “la bibliografía de la disciplina se ha esforzado en remarcar que costo no es lo mismo que valor, siempre en referencia a las “salidas” de un proceso productivo, pero hace falta también destacar que costo es igual a valor cuando nos referimos a las “entradas”. Un resultado productivo no vale por lo que cuesta, pero si cuesta lo que valen los recursos necesarios para obtenerlo.”

Menger (1871) sostiene que “el valor de los bienes se fundamenta en la relación de los bienes con nuestras necesidades, no en los bienes mismos. (...) el valor no es algo inherente a los bienes, no es una cualidad intrínseca de los mismos, ni menos aún una cosa autónoma, independiente, asentada en sí misma. Es un juicio que se hacen los agentes económicos sobre la significación que tienen los bienes de que disponen para la conservación de su vida y de su bienestar y, por ende, no existe fuera del ámbito de su conciencia”, y agrega: “La objetivación del valor de los bienes, que es por su propia naturaleza totalmente subjetivo, ha contribuido en gran manera a crear mucha confusión en torno a los fundamentos de nuestra ciencia.”

La clasificación que realiza Menger sobre los bienes se realiza según la inmediatez con la satisfacen las necesidades humanas, así un bien es de "de primer orden" cuando se utiliza directamente en la satisfacción de una necesidad y si lo hace indirectamente será “de orden superior", segundo, tercer, dependiendo de la distancia con el bien de primer orden. Estos bienes superiores pueden ser complementarios (es preciso disponer de todos los bienes complementarios que intervienen en la elaboración de un bien del orden inmediatamente inferior, sin los cuales éste no podría ser producido) o sustituibles (la falta de alguno o de alguna cantidad de éstos no impide la obtención del bien de orden inferior). El valor de los bienes de orden superior según Menger (1871) “está siempre y sin excepción determinado por el valor esperado de los bienes de orden inferior que ayudan a producir. Nuestros requerimientos de bienes de orden superior dependen de que los bienes que van a producir tengan un valor esperado”; esto revierte la concepción clásica de que el flujo de valor iba desde los factores hacia los productos, al considerar que el sentido del flujo era exactamente inverso.

Cartier (2012) en su resumen del tema concluye: “como derivación de esta idea, afirmaban que el costo de un producto está dado por la suma de los factores consumidos, valuados por su “utilidad general” donde “general” refiere a todas las alternativas en que dicho factor podría generar valor, y “utilidad” a la percepción subjetiva de ese valor (satisfacción de necesidades)”.

Wieser, en su libro Valor Natural de 1893, sostenía “que el valor de los factores de producción se deriva de los bienes finales a través de un proceso de imputación. La cadena causal del valor va de la utilidad marginal del bien de consumo marginal o final a los distintos factores utilizados para producir ese bien “, (Landreth y Colander, 2006).

Como los bienes de capital son bienes de orden superior, su valor está relacionado directamente con el valor de los productos finales que pueden producir, es necesario para su correcto análisis conocer también los bienes de primer orden y su impacto en valor de factores, o sea el impacto del valor en la Teoría General del Costo.

3. Desarrollo

En estos momentos, nos encontramos ante la consolidación de dos fenómenos: la digitalización y la convergencia, que han generado nuevos modelos de negocios y estructuras organizativas. En poco más de dos décadas hemos evolucionado desde conexiones básicas a Internet a la situación actual con un gran ecosistema de plataformas (Van Dijck, Poell y De Waal, 2018; Srnicek, 2018), y avanzando hacia la conectividad móvil 5G y la convergencia de lo físico con lo digital, algo posible gracias a la red móvil de quinta generación (Hassan, Yau y Wu, 2019); y el auge del M2M, machine to machine, la versión productiva de internet de las cosas (Leminen, Rajahonka, Wendelin y Westerlund, 2020). Con el aumento de la complejidad surge una demanda creciente de ancho de banda, velocidad y eficiencia, (Yassine, Shirehjini y Shirmohammadi, 2016). En estas nuevas circunstancias la gran infraestructura de internet6 (redes, cables y servidores, sumado al software, algoritmos e inteligencia artificial), son la base para producir bienes y servicios digitales que parecen revolucionar el planeta.

Se ha “llegado a comparar la revolución de la información [bienes digitales] con la revolución industrial. De la misma manera que la revolución industrial transformó la forma en que se producían, se distribuían y se consumían los bienes [bienes físicos], la revolución de la información está transformando la manera en que se produce, se distribuye y se consume la información [bienes digitales].” (Varian, 2010).

“Los proveedores de contenidos no pueden operar sin los proveedores de infraestructura y viceversa”, se trata “tanto de la información como de la tecnología asociada a ella”, siendo la tecnología “la infraestructura que hace posible almacenar, buscar, extraer, copiar, filtrar, manipular, ver, transmitir y recibir” bienes digitales (Shapiro y Varian, 2000). Este nuevo paradigma “exige dos factores de producción clave: infraestructura de comunicaciones y procesamiento de la información”, (Castells, 2002), estos dos factores componen la infraestructura (hardware y software), por el cual se procesan, transmiten y almacenan los bienes digitales.

3.1 Bienes de Capital en el Siglo XXI: Hardware y Software

Los componentes de esta infraestructura se pueden resumir básicamente en componentes virtuales y físicos: software y hardware [1]. Ambos componentes son bienes de capital, ambos son destinados a incrementar la eficiencia de las unidades productivas y no atienden directamente las necesidades humanas. Son elementos materiales resultado de procesos productivos previos desarrollados por otras unidades de producción (en el caso del software pueden ser desarrollos internos), pero no pierden sus características originales por el hecho de ser empleados en los procesos productivos, o sea que su “pérdida de potencialidad productiva”, se produce en forma gradual como consecuencia de su uso por las acciones del proceso productivo.

Ambos son de libre adquisición, aunque pueden condicionarse entre ellos, determinado software puede necesitar determinado hardware compatible y viceversa. En el momento de empleo nos encontramos que son indivisibles, corresponde a aquellos en que no coincide la “unidad elemental” con su “unidad de empleo”. Hardware y software se adquieren como unidades; el hardware es adquirido y dispuesto por “unidad” y empleado en términos de “horas equipo” para su uso o de “cantidad de bites por segundo” para la transmisión de datos; a su vez el software (en las versiones que no son libres) también es adquirido por unidad (ya sea en formato de licencia o adquiriendo un proyecto a medida) y su unidad de empleo puede ser como ejemplo “horas de uso” o “cantidad de transacciones”. En ambos casos otras unidades productivas pueden no adquirirlos y contratar derecho de uso como servicios intermedios. En cuanto a la transferibilidad son trasferibles en el tiempo en sus unidades de disponibilidad, pero no siempre en cuanto a su unidad de empleo y son habitualmente transferibles en el espacio.

En cuanto al hardware o componentes de infraestructura físicos, no existe duda alguna sobre su carácter de bien de consumo diferido. Ahora el caso del software, a pesar de que cumple con las características de los bienes de capital puede generar dudas. Según Baetjer (1998) “no hay categoría de bien de capital en nuestro mundo que sea más importante. Cada vez más, el software está ayudando con la producción de todo” y agrega que “lo que es cierto para el software es cierto para los bienes de capital en general” y lo que es cierto para los bienes de capital en general lo es para el software. Una clasificación planteada por OCDE (2013) agrupa en tres tipos los bienes de capital del conocimiento siendo una de ellas la información computarizada (software, redes informáticas y bases de datos).

“Los bienes de capital son conocimiento, conocimiento en el peculiar estado de estar incorporado de tal forma que está listo para usar en la producción. El aspecto del conocimiento de los bienes de capital es el aspecto fundamental. Cualquier aspecto físico es incidental”, (Lewin y Baetjer, 2015). En este caso, la particularidad es que el software es a la vez un bien de información o bien binario, por lo que cumple con otras características de esos bienes.

3.2 El costo desde el enfoque técnico del hardware y el software

“Se dice que los bits son totalmente diferentes de los átomos. Pueden reproducirse sin coste alguno y distribuirse por todo el mundo a la velocidad de la luz y nunca se deterioran. Los bienes materiales, hechos de átomos, carecen de estas propiedades: son caros de producir y de transportar y se deterioran inevitablemente”, (Varian, 2010). Esto nos lleva a cuestionarnos cuáles son las energías del software y del hardware destruidas en la producción, que tiene respuestas diferentes según se trate de uno u otro.

El hardware como objeto físico tiene un deterioro simplemente por el transcurso del tiempo, como cualquier elemento físico (desde un procesador que es de uno pocos años hasta la fibra óptica que puede alcanzar los cien años), y por su uso (un procesador con mucho uso seguramente dure menos tiempo que otro con menos intensidad en el uso). Esta pérdida de potencialidad productiva debe evaluarse y estimarse en cada caso particular.

El software por su parte también tiene una pérdida de potencialidad por el paso del tiempo, por más que no se apliquen las leyes del mundo físico excepto una: la segunda ley de la termodinámica. “La entropía de un sistema [software] se incrementa con el tiempo, salvo que se desarrollen trabajos específicos orientados a reducirla” según Belady y Lehman (1976)[2]. Otro tema importante a la hora de analizar la perdida de potencialidad productiva de un software es la obsolescencia que se puede producir por múltiples factores, e incluso puede ser programada de antemano por el desarrollador. La obsolescencia programada ha sido estudiada desde fines del siglo pasado (Choi, 1994), y continúa siendo un tema de estudio completamente vigente desde la economía y desde la responsabilidad social empresarial (Yang, 2016; Stevenson y Gehl, 2018; Aguirre y Eduardo, 2019).

Como se analizó anteriormente, la pérdida de potencialidad productiva puede concebirse no sólo en términos de cantidades físicas de factor que se emplean en un proceso productivo sino también en términos del valor económico que se sacrifica; siendo Hardware y software bienes superiores. En el caso del hardware es fácil reconocerlo: ni cables, ni procesadores, ni antenas pueden satisfacer las necesidades humanas directamente. En el caso del software como bien con capacidades en el procesamiento de información, es un bien de orden superior y por lo tanto no satisfacen directamente las necesidades humanas.

3.3 El costo desde el enfoque económico del hardware y el software

El hardware es un bien económico y el software es un bien artificialmente escaso[3] , de esta forma podemos aplicar las teorías de valores marginales, que no serían aplicables en caso de no existir posibilidad de exclusión. Tomando lo expresado por Menger el hardware y el software son visiblemente de orden superior, complementarios porque ambos son insustituibles. O sea, que para llegar al valor de ambos factores se debe partir de los bienes de primer orden hasta llegar a estos bienes de capital complementarios (software y hardware).

Wieser (citado por Cartier, 2012), afirma que: “la proposición de que los factores de la producción de bienes obtienen su valor del valor de sus depreciaciones, es suficiente sólo para la valoración de los co- factores productivos que operan en su conjunto, no para su valoración individual.” En este caso como ambos bienes son complementarios la norma a establecer sería que parte le corresponde a cada uno, pero ambos son indispensables para obtener bienes de primer orden.

Los bienes o servicios de primer orden que satisfacen necesidades primarias cumplen con la regla sobre los bienes de información de que el valor procede de la información que contiene y el valor para un consumidor puede depender de la cantidad de usuarios o consumidores que lo están utilizando, o sea que debemos analizar el valor subjetivo de un bien primario y a partir de ese valor poder imputar el valor en estos bienes complementarios distribuyendo el valor.

3.4 Actores productivos en el siglo XXI: Ecosistema de Plataformas

Lo que Srnicek (2018) llama ecosistema de plataformas no son más que infraestructuras digitales, este ecosistema en su base física es posible gracias a los operadores de red y los socios del ecosistema que los abastecen y trabajan con ellos, los proveedores de red o de servicios de internet (ISP, por las siglas en inglés de Internet Service Provider) ya que despliegan la infraestructura física necesaria.

Las dos grandes semillas del cambio fueron productos que los propios operadores generaron: el teléfono móvil y el servicio de acceso a internet. La telefonía móvil se inició a en los 80 con la tecnología 1G. En los 90 surgió el 2G, el foco seguiría orientado a los servicios de voz. La única excepción fueron los mensajes de texto corto (sms) que supuso un éxito tan intenso como imprevisto. Durante toda la década del 90 las empresas de telecomunicaciones (tecos) siguen con su modelo de negocios de cobrar a los consumidores por el tráfico de voz o datos, ya sea en dispositivos móviles o fijos. A su vez hubo intentos de “redes cerradas” (como el i-mode en Japón) que intentaron crear el concepto de “jardín cerrado”, intentando crear una red de valor nueva que controlaran antes que sumarse a una red existente que no controlaran”. La promesa de los operadores era pasar a un negocio data céntrico y la amenaza era la irrelevancia en la que podían caer si se convertían en meros vendedores de banda ancha, dejando a los demás los negocios de mayor valor añadido: la prestación de servicios y la oferta de contenidos.

Con el nuevo milenio llegó el 3G[4] . Los servicios asociados con la tercera generación proporcionan la posibilidad de transferir voz y datos no-voz (como la descarga de programas, intercambio de correos electrónicos, y mensajería instantánea). Al final de la primera década se lanza el 4G, lo que permitió un aumento exponencial en el consumo de videos (Méndez y Ortega-Mohedano, 2017).

Sintetizando, las empresas de telecomunicaciones fueron desde el inicio quienes invirtieron en crear un ambiente de infraestructura tanto para el desarrollo de internet, como para las redes de dispositivos móviles. Por tener el contacto directo con sus clientes los transformaba en la mejor opción para ser la plataforma de facturación mediante la inclusión en el recibo mensual de compras de contenidos y aplicaciones. “Sin embargo la eclosión de plataformas con tiendas de aplicaciones como la App Store de Apple, o el Google Play Store, ha minimizado esta ventaja estratégica” (Castellet y Feijó, 2013), a esto hay que sumar los medios de pago electrónico que se han desarrollado en los últimos años. Y como señalan los mismos actores se cumplió la amenaza de que “se convirtieran en meros vendedores de banda ancha, dejando a los demás actores de la función el verdadero negocio de valor añadido: la prestación de servicios y la oferta de contenidos”, convirtiéndose en lo que se conoce como un mero tubo tonto o mudo, o dumb pipe como lo denomina Thierer (2006).

Por encima de estos operadores de red o telcos, se encuentran otros actores. Podemos describir el ecosistema como un modelo de capas (Dixon et al, 2006). La mayoría de estos modelos de "capas de red" dividen el mundo de Internet en al menos cuatro capas distintas: 1) Capa de contenido, 2) Capa de aplicaciones, 3) Capa lógica o de código, y 4) Capa de infraestructura o física. Los operadores de red y proveedores de internet componen la cuarta capa, la de infraestructura física, y las diferentes plataformas conforman las otras capas.

El ecosistema se compone entonces por 1) los Networks providers (NP), los clásicos operadores de red, proveedores de infraestructura, básicamente las Telcos y mayoristas de internet globales, 2) los Over the Top single purpose providers (OTT SPP) como Netflix o Spotify y, 3) los Over the Top ecosystem providers (OTT EP) que además se transforman en proveedores de infraestructura, como Apple, Amazon y Facebook, en la clasificación de Krüssel y Göbel (2019). En el análisis encabezado por Van Dijck (2018) divide las plataformas en dos tipos: 1) las plataformas de infraestructura[5] , que son el corazón del ecosistema, y 2) las plataformas de sector, que son las plataformas de cada tipo de actividad y que abarcan casi toda la sociedad, salud, noticias, transporte, educación. Las primeras coincidirían con los OOT EP de la clasificación anterior y se usarán indistintamente ambos términos[6] .

A partir de esta descripción del sector, se desarrollará un análisis mesoeconómico del mismo. El término “mesoeconómico” es utilizado para aludir a grupos de actores económicos, identificados, en general, con la denominación de “agregados económicos medios” (AEM), y a modo de ejemplo se utilizan habitualmente: los sectores económicos, las cadenas productivas y los clústeres. Dentro de los temas que se pueden analizar desde este nivel de agregados económicos medios, Cartier (2007) distingue varios: La viabilidad de cada segmento de un eslabón o de una cadena en su conjunto; el diagnóstico precoz de conflictos entre los actores de una cadena productiva; la simulación de escenarios futuros; el análisis de sensibilidad ante cambios proyectados de las variables económicas y de contexto; las mediciones de los impactos de cambios habidos en las condiciones del contexto; la definición de políticas regulatorias que afectan al sector y agregaría la distribución o imputación de valor generado en el AEM

Los proveedores de infraestructura: podemos encontrar varios tipos de bienes de capital, como los mayoristas internacionales (dueños de los cables submarinos); las telefónicas nacionales (cableados y antenas nacionales) que pueden ser mayoristas o minoristas. Por ejemplo, la telefónica estatal uruguaya ANTEL funciona en todos los niveles. Uno de los bienes de capital más importantes es la red global de los cables submarinos de fibra óptica que atraviesan los mares y permiten que los bytes trasladen la información de un lugar a otro del planeta. El 98% del tráfico internacional de Internet circula a través de cables submarinos de fibra óptica (Starosielski, 2015). El proceso productivo de este tipo de empresas el de montar y mantener una infraestructura capaz de arrendar para que sea usada para transmitir información. Es importante aclarar, que “el transporte (de información) no se demanda como actividad final, sino como medio para satisfacer otra necesidad.” (de Rus, Campos y Nombela, 2003). Usan sus bienes de capital para permitir que circulen bits y se cobra por ese uso, pero no tiene ningún tipo de control sobre la mercadería que se transmite.

Las plataformas de infraestructura o OOT EP: El proceso productivo de las grandes plataformas de infraestructura es el de montar y mantener infraestructura propia como cables submarinos (Google y Facebook) los principales centros de almacenamiento (Amazon, Google y Microsoft) y plataformas de software (servidores, plataformas para ser utilizadas por OTT SP) que utilizan esos bienes de capital tangibles e intangibles como medio para satisfacer necesidades que adquieren otras empresas.

Las plataformas OTT SP o sectoriales: Estos actores utilizan algunos bienes de capital tangibles (hardware) e intangibles (software: algoritmos, interfases, etc.), pero también contenido digital (estos bienes digitales son parte del proceso productivo, como son las obras de arte en un museo (Asuaga, 2006) o las películas en un cine (Brites, 2019)[7] . Además de su capacidad de recolectar (meta)datos, el poder computacional de las plataformas de medios sociales reside en su capacidad de incluir algoritmos para el procesamiento de datos. Un algoritmo, en ciencias informáticas, es una lista finita de instrucciones definidas para calcular una función, una directiva paso a paso que permite un procesamiento o razonamiento automático que ordena a la máquina producir cierto output a partir de determinado input”, Van Dijck (2019).

Si se toma la totalidad del ecosistema como una unidad productiva, y vemos como se pierde potencialidad en los bienes de capital desde el enfoque técnico, son aplicables todos los conceptos analizados al examinar el componente físico del hardware y software.

Para el caso del costo desde el enfoque económico en el ecosistema de plataformas, es necesario antes de ingresar al tema exponer el concepto de neutralidad de la red. El BEREC (Organismo de Reguladores Europeos de Comunicaciones Electrónicas) ofrece una definición: “todo el tráfico que circula por una red es tratado de forma igual, independientemente del contenido, la aplicación, el servicio, el dispositivo o la dirección del que lo envía o recibe” El parlamento europeo tiene regulada la neutralidad de red y muchos otros países tienen leyes al respecto, y en otros es un tema que está en plena discusión. De todas maneras, a fuerza de derecho o de hecho, la neutralidad de red es algo instaurado en gran parte del mundo y es uno de los principales problemas en el relacionamiento entre los operadores de red y las OOT. Por este concepto a los operadores de red no se les permite cobrar por los servicios a las empresas OTT (porque generarían una violación al principio que no se puede favorecer a un actor por sobre otro), ni a los usuarios discriminado el contenido al que desean acceder o el momento (según la cantidad de tráfico).

Por esto a pesar de que las empresas que distribuyen contenido de video por streaming utilizan la mayor parte del tráfico de internet, no deben pagar nada por utilizar esa infraestructura. Las empresas proveedoras de las redes locales solo pueden cobrar a los usuarios por tener acceso a la red y en algunos casos por el tráfico consumido sin discriminar sobre el valor agregado que tenga el bien consumido. Los OOT son los que producen valor porque producen bienes primarios, utilizan sus bienes de capital (software) y se montan sobre las rutas de información (hardware de los operadores de red) para distribuir sus productos y servicios digitales. Ahí comienza la discusión por la distribución de lo producido de ese valor del bien de primer orden que se debe trasladar a los factores. Se puede simplificar que en estos momentos los OTT se apropian de todo el valor creado. La transferencia de datos existe y tiene un valor por lo que podría ser retribuido por los generadores de contenido. La relación entre los diferentes actores del sector es compleja, las plataformas de infraestructura son las mejores posicionadas porque están integradas verticalmente en toda la cadena, por eso tomaremos para el análisis por un lado los proveedores de red y las plataformas OTT SP, ya que las plataformas de infraestructura dificultan el análisis por ser un híbrido de ambas.

Si el punto de vista es el de un consumidor de bienes digitales, el costo marginal desde el enfoque técnico de una reproducción adicional de un video no es cero, o el de consumir un archivo de información (más allá de la discusión si ese bien de información o digital es el que está satisfaciendo la necesidad humana o no), sino el costo de trasmitir en paquetes de información bajo forma de luz u ondas electromagnéticas a través de una infraestructura privada de los operadores de red y del software la plataforma. Tampoco es cero el costo marginal a la hora de que sumar un nuevo usuario a una plataforma ya que también se generan paquetes de información que deben ser trasladados y procesados en las infraestructuras de servidores ubicados en la nube. Tan es así que la transmisión de datos puede colapsar o enlentecer la infraestructura de internet (los bienes de capital), algo similar al colapso de una plataforma.

Esa congestión de la red según Mc Dysan (2000), se puede dar por varias razones, entre los cuales cabe destacar: la capacidad del enlace de transmisión; la tasa de retransmisión de los paquetes por parte del encaminador; la disponibilidad de recursos especializados; la tasa de procesamiento, y la capacidad de la memoria intermedia. “Algunos autores han denominado a este tipo de efectos, que surgen como consecuencia del empleo de recursos compartidos, externalidades de congestión. De hecho, distintos investigadores han estudiado la necesidad de introducir una adecuada política de precios por el uso de las redes de comunicación para evitar precisamente dichos problemas”. (López Sánchez, Arroyo Barrigüete, 2006). Cabe mencionar que existe cierto consenso sobre algunos de los aspectos relacionados con la gestión del tráfico en Internet. Este tema se encuentra en plena discusión, y muchas voces se escuchan en defensa de la necesidad de permitir cierta gestión de tráfico en la red dentro de límites razonables. La pregunta es cuáles deben ser esos límites y quién debe realizarlo.

En 2020, a causa de la pandemia mundial de COVID-19, se temió una congestión de red a gran escala. En Europa el Comisario de Mercado Interior de la Comunidad Económica Europa, Thierry Breton solicitó a las plataformas de streaming que ofrecieran una calidad de transmisión más baja a la habitual y que cooperan con los operadores de telecomunicaciones. Tras una llamada telefónica con el director ejecutivo de Netflix, Reed Hastings, el comisario Breton sostuvo: “Europa y el mundo entero se enfrentan a una situación sin precedentes. Los gobiernos han tomado medidas para reducir las interacciones sociales para contener la propagación de Covid-19 y para fomentar el trabajo remoto y la educación en línea. Plataformas de streaming, operadores de telecomunicaciones y usuarios, todos tenemos la responsabilidad conjunta de tomar medidas para garantizar el buen funcionamiento de Internet durante la batalla contra la propagación del virus”[8] .

Netflix es una empresa dedicada a la distribución de contenidos audiovisuales con un servicio de video on demand, videos que están almacenados y disponibles para que cada usuario pueda visualizarlo a demanda a través de tecnología streaming en su dispositivo. Es una plataforma OTT porque opera sobre la infraestructura de acceso a internet existente. El proveedor de acceso a internet sólo es proveedor de la infraestructura, monetizando el tráfico a través del cobro a los usuarios de su red, pero de como funcione esa red depende también la calidad del servicio que se entrega. Netflix no existe en forma aislada, sino como elemento de un ecosistema donde mantiene relaciones de competencia, de dependencia y/o de colaboración con otros actores de la industria, principalmente los proveedores de infraestructura de internet, de hecho, ha tenido diversos problemas con operadores de red por la gran cantidad de tráfico que demanda[9] .

4. Reflexiones finales

La digitalización y la convergencia han propiciado una nueva economía basada en grandes infraestructuras de hardware y software, que son, desde el punto de vista económico, bienes de capital. Dichos bienes se vuelcan al proceso productivo, de forma de posibilitar la creación de servicios y bienes compuestos exclusivamente de bits.

La conceptualización de los nuevos procesos productivos, los factores implicados en la producción y los objetivos obtenidos son posibles de ser analizados no sólo desde el punto de vista técnico sino también económico. Desde este último, se puede concluir que los agregados económicos medios (AEM) generan valor entregando a los usuarios finales una serie de bienes y servicios que les generan utilidad, y ese valor se traslada a los factores utilizados, simplificando software y hardware que se corresponderían con las plataformas Over-the-Top (OTT) y los proveedores de red.

La discusión sobre si el valor está sólo generado por las OTT, quién debería apropiarse de él, o si dicho valor debe distribuirse con los proveedores de infraestructura, es una cuestión que se encuentra en pleno desarrollo. La Teoría General del Costo no debe quedar fuera de esta discusión, ya que desde su marco teórico es posible efectuar un abordaje que aporte a la misma, y, sobre todo, al entendimiento conceptual de esta nueva realidad económica.

5. Referencias


Notas al pie

  1. En este trabajo se utiliza hardware en un sentido amplio, como todo soporte físico de infraestructura, y software como toda infraestructura virtual, aun cuando se pueda utilizar una clasificación de infraestructura más detallada, que incluya instalaciones y redes sin ser taxativa; como la siguiente según el glosario de la Information Technology Infrastructure Library: “Todo el hardware, software, redes, instalaciones, etc, que se requieren para desarrollar, probar, entregar, monitorear, controlar o dar soporte a los servicios de TI. El termino La infraestructura de TI incluye toda la tecnología de la información, pero no las personas asociadas, procesos y documentación”, (https://itil.it.utah.edu).
  2. Usando de base el trabajo de Belady y Lehman (1985) se puede decir que la entropía nos dice que con el tiempo el software pierde su estructura, se hace más complejo, menos mantenible. Normalmente se dice que un software que se usa será modificado, y que, salvo tratamiento específico, cada vez que se modifica se hace más complejo. También se asocia la entropía del software con la falta de mantenimiento a la hora de resolver pequeños problemas, los cuales, poco a poco, van incrementando y quedan fuera de control. Para resumir, podríamos clasificar todos estos problemas en dos tipos de degradación: La degradación inactiva que básicamente significa dejar morir el software sin ningún tipo de mantenimiento evolutivo, por lo que en algún momento dejará de ser útil al no haber actualizaciones. Y la degradación activa cuando un software que es continuamente modificado para satisfacer nuevos requerimientos se volverá cada vez más complejo y que incluso puede perder el objetivo principal para el que fue desarrollado.
  3. Existen posiciones doctrinarias que no concuerdan con transformar al software en un bien artificialmente escaso, como Richard Stallman, fundador del movimiento del software libre, del sistema operativo GNU y de la Free Software que define al software libre de la siguiente manera: “El software libre significa que los usuarios tienen la libertad de ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software. El programa que no es libre controla a los usuarios y el desarrollador controla el programa; esto convierte al programa en un instrumento de poder injusto. Un programa es software libre si los usuarios del programa tienen las cuatro libertades esenciales: • La libertad de ejecutar el programa como desee, para cualquier propósito (libertad 0). • La libertad de estudiar cómo funciona el programa y modificarlo para que haga su cálculo como desee (libertad 1). El acceso al código fuente es una condición previa para ello. • La libertad de redistribuir copias para que pueda ayudar a su vecino (libertad 2). • La libertad de distribuir copias de sus versiones modificadas a otros (libertad 3). Al hacer esto, puede darle a toda la comunidad la oportunidad de beneficiarse de sus cambios. El acceso al código fuente es una condición previa para ello.”
  4. En 2002 por primera vez, la cantidad de teléfonos celulares supera a la cantidad de teléfonos fijos a nivel mundial. En este año, 19 de cada 100 habitantes tienen un teléfono móvil, mientras que 18 de cada 100 habitantes en el planeta tienen un teléfono fijo. La telefonía móvil continúa experimentando un fuerte crecimiento, mientras que la telefonía fija se presenta un leve pero continuado descenso. En 2007, la mitad de la población mundial tiene un teléfono celular.
  5. Alphabet-Google, Facebook, Apple, Amazon y Microsoft son las grandes plataformas en el mundo occidental que la autora cita como plataformas de infraestructura. A modo de ejemplo Alphabet-Google posee un buscador (Google search), un navegador (Chrome), un sistema operativo mobile (Android), una app store (Google Play), servicios de pago (Google Wallet), una plataforma de publicidad (Ad sense), una plataforma de video (Youtube), un sistema de información geoespacial (Google maps y Google Earth), un sistema de almacenamiento en la nube (Goolgle cloud) que tiene una gran inversión en hardware, además de hacer dispositivos físicos (el Chromebook, el Chromecast) y ser el mayor proveedor mundial de cables submarinos, con 14 grandes cables y más de 112.000 kilómetros.
  6. Otra de las clasificaciones de plataformas más usadas es la de Srnicek (2018) que divide las plataformas en cinco tipos: 1) las plataformas publicitarias (como Google o Facebook), que extraen información de los usuarios, llevan a cabo un trabajo de análisis y luego usan los productos de ese proceso para vender espacio publicitario; 2) las plataformas de la nube (como Amazon Web Services o Salesforce), que son propietarias del hardware y del software de negocios que dependen de lo digital y que los rentan de acuerdo con necesidades; 3) las plataformas industriales (como geo Siemens), que producen el hardware y el software que se necesita para transformar la manufactura tradicional en procesos conectados por Internet; 4) tipo es el de las plataformas de productos (como Netflix o Spotify), que generan ganancias mediante el uso de otras plataformas para transformar un bien tradicional en un servicio y cobrar por ellos un alquiler o una tasa de suscripción; y 5) las plataformas austeras (como Uber o Airbnb), que intentan reducir a un mínimo los activos de los que son propietarias y obtener ganancias mediante la mayor reducción de costos posible. Estas divisiones analíticas pueden, y por lo general lo hacen, convivir dentro de una misma empresa.
  7. Los bienes de información que son utilizados como parte del proceso de producción y su calificación o no dentro de los bienes de capital no forman parte de este trabajo por razones de extensión, así como el uso de los datos que serían temas suficientes para un trabajo independiente. “Todas las plataformas además cuentan con la utilización de otro tipo de bienes que son los datos y metadatos que logran recolectar en cada interacción”, expresa Van Dijck (2019) y deja el tema abierto a discusión.
  8. A su vez se autorizó a los operadores a aplicar medidas excepcionales de gestión del tráfico, entre otras cosas, para evitar la congestión inminente de la red y mitigar los efectos de la congestión excepcional o temporal de la red, siempre a condición de que las categorías equivalentes de tráfico reciban el mismo trato. • Los operadores deben evaluar objetivamente que los niveles de tráfico son muy altos en comparación con un período de referencia similar y que, en ausencia de las medidas previstas, los usuarios se verían afectados negativamente por la congestión. • Debe entenderse que una congestión excepcional se refiere a situaciones que, incluso cuando se aplican los más altos estándares de diligencia profesional en la gestión de redes, dan como resultado situaciones impredecibles e inevitables de congestión en redes móviles o fijas (por ejemplo, posiblemente causadas por múltiples fallas técnicas, cambios inesperados en el enrutamiento del tráfico que no está bajo el control del operador, o grandes aumentos en el tráfico de la red relacionados con la crisis pandémica actual u otras situaciones de emergencia fuera del control de proveedores de servicios de acceso a Internet). BEREC (2020)
  9. Muy notoria fue la disputa con Comcast, uno de los proveedores de red más grande de Estados Unidos, acusado de degradar el tráfico de Netflix, durante los meses de diciembre de 2013 a enero de 2014, justo durante el tiempo en que ambos sostenían negociaciones para que Netflix pagara una cuota adicional a Comcast por llegar a los usuarios finales con mayor calidad. Al final, Netflix llegó a un acuerdo por el que pagaría por cada bit entregado al usuario final en la red pública de Comcast, (Wang y Ma, 2020). Netflix fue presionado a ceder parte de su valor generado de manera impropia o está bien que le deba pagar por el uso de los bienes de capital de Comcast, un factor clave en la producción del valor para el cliente final y por lo tanto es una justa imputación de valor a ese factor