Convertir la novedad en valor

Francisco González Bree

Convertir la Novedad en Valor es un blog de Francisco González Bree sobre la Creatividad, la Tecnología y la Innovación. El autor analiza el impacto actual de la innovación en el rendimiento de las empresas y los estándares de vida de las personas y observa las necesidades del mercado y las tecnologías en un futuro no muy lejano.

Luis Ferrándiz

Francisco González Bree es Doctor en Business Administration y trabaja en la actualidad como director académico del Master in Business Innovation (MBI) de Deusto Business School. Colaboró como Director de Marketing en Anboto nombrada mejor start up del mundo en 2010 y en Sher.pa. Ha trabajado más de 15 años en puestos directivos en multinacionales y más de 6 años ayudando como tutor y mentor a decenas de empresas de todos los tamaños y sectores con sus planes y modelos de negocio.

abril 2017

lun. mar. mié. jue. vie. sáb. dom.
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30

Suscríbete a RSS

¿Qué es RSS? Es una tecnología que envía automáticamente los titulares de un medio a un programa lector o agregador. Para utilizar las fuentes RSS existen múltiples opciones. La más común consiste en instalar un programa llamado 'agregador' o lector de noticias.

Listado de blogs

« julio 2016 | Inicio | septiembre 2016 »

Iron Man Plaza de ColónEstas últimas semanas hemos podido leer varias noticias sobre el auge del sector de Big Data. Las últimas estimaciones de los expertos apuntan que este sector tecnológico generará unos 900.000 empleos en los próximos seis años en todo el mundo. La consultora tecnológica Indra apuntaba este mes que las empresas que utilicen técnicas de Big Data podrán incrementar su productividad cerca del 10%. El crecimiento y el potencial de Big Data es enorme. IBM afirmaba hace cuatro años que el 90% de los datos del mundo fueron creados en los últimos dos años. Sorprendentemente, esta tendencia sigue siendo relativamente constante. La consultora IDC estima que para el año 2020 alcanzaremos los 44 zettabytes y los datos provenientes del Internet de las Cosas (IoT por sus siglas en inglés) representarán el 10% de los datos del mundo.

De hecho, cada día generamos 2,5 trillones de bytes de datos procedentes de muchas fuentes, como sensores, medios sociales, fotos, vídeos, transacciones, señales de teléfonos, etc. Junto con el sector de Big Data, la digitalización del mundo a través del Internet de las Cosas está acaparando mucha atención en los últimos tiempos. Hace un par de años Andrew White de Gartner argumentaba que el Internet de las Cosas tendrá mayor impacto que Big Data si lo comparamos en base al potencial que tienen estas tecnologías. Sin embargo, resulta difícil analizar las tecnologías disruptivas de forma independiente ya que todas ellas están de una forma u otra conectadas entre sí. La pregunta quizás no sea qué tecnología disruptiva tendrá más impacto sino cómo la aprovecho en beneficio de mi empresa. Para ello, lo primero que necesitamos es entender qué es exactamente el Big Data y qué dimensiones fundamentales integra. Big Data se puede resumir como el proceso de recolección de grandes cantidades de datos y su inmediato análisis para encontrar información oculta, patrones, correlaciones etc.

Dough Laney, vicepresidente de Gartner Research, propuso hace más de quince años que Big Data se compone de tres dimensiones clave, el volumen, la velocidad y la variedad. El volumen de los datos generados determina el valor y el potencial de los datos que se examinan. La velocidad de generación y procesamiento de datos para satisfacer las demandas y desafíos. La variedad de los datos que hoy en día pueden llegar en todo tipo de formatos. Sin embargo, en los últimos años los expertos han incluido cuatro dimensiones adicionales. La veracidad, es decir la calidad y el grado de fiabilidad de la información recibida. La viabilidad o la capacidad que tienen las empresas en generar un uso eficaz de los datos. La visualización o la forma en que los datos son presentados para encontrar patrones o claves que merezcan la pena. Finalmente, el valor de los datos que se transforman en información y posteriormente en un conocimiento que nos permita tomar decisiones empresariales.

En mi opinión, son varias las funciones empresariales directamente relacionadas con el análisis de datos, tal como el área estratégica, informática, producción, RRHH, innovación o marketing por mencionar algunas de ellas. Sin embargo, estás dos últimas, innovación y marketing, son las funciones que pueden apoyar decididamente el progreso del uso de datos en beneficio de la empresa. Por una parte, la vigilancia tecnológica que corresponde al área de innovación se ocupa del proceso organizado, selectivo y permanente de captar información del exterior y de la propia organización sobre ciencia y tecnología, seleccionarla, analizarla, difundirla y comunicarla, para convertirla en conocimiento a fin de tomar decisiones con menor riesgo y poder anticiparse a los cambios. En segundo lugar, la inteligencia de marketing (MI, por sus siglas en inglés) es la información cotidiana relevante para los mercados de una empresa, reunida y analizada específicamente con el propósito de tomar decisiones precisas y fiables para determinar las oportunidades de negocio en base a clientes y usuarios. No es de extrañar que cada vez se demanden más expertos en Big data, no solo para los departamentos de tecnología e informática sino para otras funciones de negocio. Según Harvard Business Review, la profesión de experto en Big Data será una de las profesiones más atractivas y remuneradas del siglo XXI.

19 agosto, 2016 | 13:57

PacoBree Collage SingularityRecientemente podíamos leer un artículo de Greg Satell para Forbes proponiendo que la singularidad tecnológica está cerca. Básicamente la singularidad tecnológica es el momento hipotético en el que el desarrollo exponencial de la tecnología desencadenará un crecimiento fuera de control que resultará en un momento de máxima incertidumbre para la civilización humana. El famoso matemático británico Alan Turing, considerado uno de los padres de la ciencia de la computación, ya realizó una predicción en el año 1951 augurando que en algún momento cabía esperar que las máquinas tomasen el control. En los últimos 60 años distintos expertos matemáticos y científicos como John von Neumann y Stanislaw Ulam se han interesado por la singularidad tecnológica. También el autor de ciencia ficción Vernor Vinge publicó un artículo muy referenciado sobre la singularidad tecnológica titulado “The Coming Technological Singularity: How to Survive in the Post-Human Era”. Vernor abordaba temas como la inteligencia superhumana, redes computacionales, interfaces cerebro-máquina y ciencia biológica haciéndonos reflexionar sobre las limitaciones del conocimiento humano y el desarrollo autónomo de la inteligencia artificial.

En los últimos 10 años una persona que ha profundizado en la singularidad tecnológica es el polímata Raymond Kurzweil que es inventor, músico, escritor, empresario  y científico especializado en inteligencia artificial. Desde hace 4 años es también director de ingeniería de Google. Su obra se caracteriza por haber realizado predicciones sobre el futuro de la humanidad en los libros “La era de las máquinas inteligentes, 1990” y “La era de las máquinas espirituales, 1999”. En este segundo libro Kurzweil propuso la "ley de rendimientos acelerados" en relación a los incrementos en las tasas de progresos tecnológicos y sus impactos. Su último libro “La singularidad está cerca, 2006” es el que conecta directamente con el título del artículo de Greg Satell mencionado al inicio en el que el autor justifica tres razones que nos acercan a la singularidad tecnológica. 

La primera clave está relacionada con la deceleración de la ley de Moore. Gordon E. Moore, cofundador de Intel y autor de la ley de Moore, propuso en 1965 que el número de transistores integrados por unidad de superficie se duplicaba cada año. En 1975 modificó su ley para cada 2 años y en 2007 decidió poner fecha de caducidad a su ley determinando que dejaría de cumplirse entre los años 2017 y 2022. La consecuencia más importante de la ley de Moore es que al mismo tiempo que aumentan las prestaciones de los ordenadores bajan sus precios para los consumidores. En un interesante artículo de Aaron Frank para Wired se explica que la ralentización de la ley de Moore en el fondo ayudará al desarrollo de la inteligencia artificial. Aaron explicá que la ITRS (International Technology Roadmap for Semiconductors) que cuenta con empresas como Intel y Samsung estima que para el año 2021 la ley de Moore ya no será efectiva. Esto provocará un salto cualitativo en el desarrollo tecnológico, desde máquinas de inteligencia artificial a máquinas de inteligencia natural con sistemas auto-evolutivos inspirados en modelos biológicos. Por ello Kurzweil propone una métrica diferente que mida el rendimiento tecnológico en base al número de cálculos por cada 1000 dólares americanos. También sugiere el avance hacia la computación cuántica que hará posibles nuevos algoritmos y el desarrollo de chips neuromórficos que tomarán el cerebro como modelo.

La segunda clave es que los robots ya están haciendo el trabajo de humanos. El primer robot industrial se introdujo en la línea  de montaje de GM en el año 1962. Barclays instaló el primer cajero automático en el año 1967. Desde entonces la automatización no ha parado. El libro de Andrew McAfee y Erik Brynjolfsson generaba hace un par de años un importante debate sobre el impacto que tendrá la tecnología en el empleo. El libro, titulado The Second Machine Age: Work, Progress and Prosperity in a Time of Brilliant Technologies, aborda un tema que sigue creciendo en interés. En un estudio de la Universidad de Oxford del año 2013 se propone que la mitad de los trabajos en Estados Unidos serán automatizados durante las dos próximas décadas. Sin embargo, tal cómo explica Mynul Khan en un interesante artículo la llegada de los robots creará muchos empleos nuevos para los humanos. Por otra parte, los robots no tienen todavía la capacidad de realizar tareas complejas como la negociación o la persuasión y no son tan eficientes en la generación de nuevas ideas. Esto significa que los trabajos que requieran creatividad, inteligencia emocional y habilidades sociales no podrán ser automatizados en el corto plazo.

La tercera clave es que en la actualidad estamos editando genes. En un interesante artículo de Albert Cortina y Miquel-Àngel Serra de principios de este año para el País se explican los retos que traerán el desarrollo de la inteligencia artificial y la convergencia de las tecnologías NBIC (Nanotecnología, Biotecnología, Tecnologías de la Información y de la Comunicación y Neuro-Cognitivas). Los autores abordan algunos de los retos filosóficos, morales e incluso espirituales de la ideología transhumanista. El futurista Kurzweil predice que la singularidad llevará a una fusión entre tecnología e inteligencia humana. Durante el proceso se propone el “mejoramiento humano” según el cual las personas adoptarían mejoras artificiales (genéticas, orgánicas y tecnológicas) avanzando hacia una superinteligencia a la que los humanos estarían conectados.

Esta semana  podíamos leer un artículo de Jessica Conditt para engadget en el que se explica que algunos expertos como Kurzweil prevén alcanzar la singularidad en algún punto entre el 2030 y el 2045. Sin embargo algunas predicciones de otros investigadores que analizan el tema son menos optimistas. Según un estudio con expertos en inteligencia artificial en 2013 se estima que hay un 50% de probabilidad de alcanzar una máquina inteligente de alto nivel para el año 2040 y una máquina superinteligente para el 2070. El filósofo Sueco Nick Bostrom, director del Future of Humanity Institute de la Universidad de Oxford y cofundador del Institute of Ethics and Emerging Technologies, argumentaba hace un año sopesando los beneficios y los riesgos que en cualquier caso sería una tragedia detener el desarrollo de la inteligencia artificial. Coincido con la idea de Nick pero es fundamental intentar entender los impactos positivos y negativos que tendrán estos avances para intentar alcanzar en todo momento un mundo mejor, tema sobre el que reflexionaremos en la tercera parte de estos artículos.

Imagen de Paula Satrustegui

Paula Satrustegui profundizará en las novedades fiscales y relativas a la seguridad social, que afectan a la planificación de las finanzas personales de los profesionales.

Imagen de Belén Alarcón

Belén Alarcón trasladará su experiencia de asesoramiento patrimonial y planificación financiera a través de las preguntas más relevantes que debe plantearse una persona a lo largo de su vida.

Imagen de Enrique Borrajeros

Enrique Borrajeros escribirá sobre temas relativos a la relación entidad – asesor, finanzas conductuales y tendencias y novedades en el asesoramiento financiero nacional e internacional.

Imagen de Francisco Márquez de Prado

Francisco Márquez de Prado, analizará activos y productos financieros, con sus ventajas e inconvenientes, para cada tipo de inversor.

Imagen de Íñigo Petit

Íñigo Petit tratará temas relacionados con la evolución de la industria de fondos de inversión y planes de pensiones y aspectos relacionados con la educación financiera

© Prisa Digital S.L.- Gran Vía, 32 - Edificio Prisa - Madrid [España]