Convertir la novedad en valor

Francisco González Bree

Convertir la Novedad en Valor es un blog de Francisco González Bree sobre la Creatividad, la Tecnología y la Innovación. El autor analiza el impacto actual de la innovación en el rendimiento de las empresas y los estándares de vida de las personas y observa las necesidades del mercado y las tecnologías en un futuro no muy lejano.

Luis Ferrándiz

Francisco González Bree es Doctor en Business Administration y trabaja en la actualidad como director académico del Master in Business Innovation (MBI) de Deusto Business School. Colaboró como Director de Marketing en Anboto nombrada mejor start up del mundo en 2010 y en Sher.pa. Ha trabajado más de 15 años en puestos directivos en multinacionales y más de 6 años ayudando como tutor y mentor a decenas de empresas de todos los tamaños y sectores con sus planes y modelos de negocio.

abril 2017

lun. mar. mié. jue. vie. sáb. dom.
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30

Suscríbete a RSS

¿Qué es RSS? Es una tecnología que envía automáticamente los titulares de un medio a un programa lector o agregador. Para utilizar las fuentes RSS existen múltiples opciones. La más común consiste en instalar un programa llamado 'agregador' o lector de noticias.

Listado de blogs

« julio 2015 | Inicio | septiembre 2015 »

Iron Man Plaza de ColónEstas últimas semanas hemos podido leer varias noticias sobre el auge del sector de Big Data. Las últimas estimaciones de los expertos apuntan que este sector tecnológico generará unos 900.000 empleos en los próximos seis años en todo el mundo. La consultora tecnológica Indra apuntaba este mes que las empresas que utilicen técnicas de Big Data podrán incrementar su productividad cerca del 10%. El crecimiento y el potencial de Big Data es enorme. IBM afirmaba hace cuatro años que el 90% de los datos del mundo fueron creados en los últimos dos años. Sorprendentemente, esta tendencia sigue siendo relativamente constante. La consultora IDC estima que para el año 2020 alcanzaremos los 44 zettabytes y los datos provenientes del Internet de las Cosas (IoT por sus siglas en inglés) representarán el 10% de los datos del mundo.

De hecho, cada día generamos 2,5 trillones de bytes de datos procedentes de muchas fuentes, como sensores, medios sociales, fotos, vídeos, transacciones, señales de teléfonos, etc. Junto con el sector de Big Data, la digitalización del mundo a través del Internet de las Cosas está acaparando mucha atención en los últimos tiempos. Hace un par de años Andrew White de Gartner argumentaba que el Internet de las Cosas tendrá mayor impacto que Big Data si lo comparamos en base al potencial que tienen estas tecnologías. Sin embargo, resulta difícil analizar las tecnologías disruptivas de forma independiente ya que todas ellas están de una forma u otra conectadas entre sí. La pregunta quizás no sea qué tecnología disruptiva tendrá más impacto sino cómo la aprovecho en beneficio de mi empresa. Para ello, lo primero que necesitamos es entender qué es exactamente el Big Data y qué dimensiones fundamentales integra. Big Data se puede resumir como el proceso de recolección de grandes cantidades de datos y su inmediato análisis para encontrar información oculta, patrones, correlaciones etc.

Dough Laney, vicepresidente de Gartner Research, propuso hace más de quince años que Big Data se compone de tres dimensiones clave, el volumen, la velocidad y la variedad. El volumen de los datos generados determina el valor y el potencial de los datos que se examinan. La velocidad de generación y procesamiento de datos para satisfacer las demandas y desafíos. La variedad de los datos que hoy en día pueden llegar en todo tipo de formatos. Sin embargo, en los últimos años los expertos han incluido cuatro dimensiones adicionales. La veracidad, es decir la calidad y el grado de fiabilidad de la información recibida. La viabilidad o la capacidad que tienen las empresas en generar un uso eficaz de los datos. La visualización o la forma en que los datos son presentados para encontrar patrones o claves que merezcan la pena. Finalmente, el valor de los datos que se transforman en información y posteriormente en un conocimiento que nos permita tomar decisiones empresariales.

En mi opinión, son varias las funciones empresariales directamente relacionadas con el análisis de datos, tal como el área estratégica, informática, producción, RRHH, innovación o marketing por mencionar algunas de ellas. Sin embargo, estás dos últimas, innovación y marketing, son las funciones que pueden apoyar decididamente el progreso del uso de datos en beneficio de la empresa. Por una parte, la vigilancia tecnológica que corresponde al área de innovación se ocupa del proceso organizado, selectivo y permanente de captar información del exterior y de la propia organización sobre ciencia y tecnología, seleccionarla, analizarla, difundirla y comunicarla, para convertirla en conocimiento a fin de tomar decisiones con menor riesgo y poder anticiparse a los cambios. En segundo lugar, la inteligencia de marketing (MI, por sus siglas en inglés) es la información cotidiana relevante para los mercados de una empresa, reunida y analizada específicamente con el propósito de tomar decisiones precisas y fiables para determinar las oportunidades de negocio en base a clientes y usuarios. No es de extrañar que cada vez se demanden más expertos en Big data, no solo para los departamentos de tecnología e informática sino para otras funciones de negocio. Según Harvard Business Review, la profesión de experto en Big Data será una de las profesiones más atractivas y remuneradas del siglo XXI.

29 agosto, 2015 | 12:03

Digital Collage Star Wars Casas Colgadas Cuenca LGordon E. Moore cofundador de Intel y autor de la ley de Moore propuso en 1965 que el número de transistores integrados por unidad de superficie se duplicaba cada año. Posteriormente en 1975 modificó su ley empírica para cada 2 años y en 2007 decidió poner fecha de caducidad a su ley determinando que dejaría de cumplirse entre los años 2017 y 2022. La consecuencia más importante de la ley de Moore es que al mismo tiempo que aumentan las prestaciones de los ordenadores bajan sus precios para los consumidores.

En un interesante artículo de Irving Wladawsky-Berger para WSJ inspirado en una conversación de John Markoff para Edge con el título “The Next Wave” se explica que la ley de Moore ha funcionado durante 5 décadas pero parece que durante los 2 últimos años se está ralentizando. Si esto fuera cierto muchas de las previsiones tecnológicas (incluida la llegada de las máquinas inteligentes) no se cumplirían tal y como las habían planteado los expertos en los últimos años.

Uno de los libros que plantea la inminente llegada de las máquinas inteligentes es el libro de Ray Kurzweil del año 2005 “The singularity is Near: When Humans Transcend Biology”. El experto futurista, director de Google e impulsor de la Universidad de la Singularidad en Silicon Valley pronosticó que los avances exponenciales en la tecnología supondrían alcanzar la singularidad en el año 2045 fecha en la que la inteligencia de las máquinas sería mucho más potente que toda la inteligencia humana combinada. Esta idea es ampliamente compartida y como ejemplo es interesante leer un estudio realizado a expertos en Inteligencia Artificial en 2013 en el cual se estimaba un 50% de probabilidad de alcanzar una máquina inteligente de alto nivel para el año 2040 y una máquina superinteligente para el 2070. 

Sin embargo no todos piensan igual, el experto John Markoff considera que en el año 2045 las cosas no serán tan diferentes a lo que tenemos hoy en día y esto es debido a la desaceleración de la ley de Moore y los avances irregulares en el desarrollo de la Inteligencia Artificial. Los grandes avances alcanzados en algunas áreas de la Inteligencia Artificial, (reconocimiento de objetos, entendimiento del lenguaje humano) se empañan con la falta de avances en el desarrollo de una parte importante que es la cognición de las máquinas inteligentes. En otro artículo muy recomendable sobre el impacto que tendrán las máquinas inteligentes, Melody Guan explica que existe diversidad de opiniones sobre la evolución de la Inteligencia Artificial. El profesor de MIT David Autor considera que a corto y medio plazo las consecuencias de la robótica están sobreestimadas ya que los robots están muy limitados en términos de flexibilidad, adaptabilidad, autonomía y la habilidad de tomar decisiones independientes.

Explorando el tema desde otro punto de vista John Markoff explica que en el mundo digital sí se está experimentando un desarrollo exponencial. Esto es debido a la adopción masiva de Internet y la consecuencia es que la innovación está migrando a la creación de todo tipo de formas digitales, algoritmos y diseños cognitivos que dan algo de inteligencia a estas formas artificiales de vida. En otro artículo de Dominic Basulto para el Washington Post se propone que las tecnologías estarán embebidas en las personas como parte de la transformación de los humanos en sistemas operativos extendidos. Por su parte Ken Goldberg profesor de la Universidad de California en Berkeley propone la “multiplicidad” según la cual los humanos y las máquinas trabajarán en equipos integrados cada uno complementando las habilidades del otro.

En resumen parece que tenemos dos visiones sobre el avance de la Inteligencia Artificial. Por una parte los que piensan que las máquinas inteligentes y la singularidad tecnológica ocurrirán en unos 30 años. Por otra parte los que consideran que esto no ocurrirá hasta dentro de 50 años. Al mismo tiempo existe una alarma lógica sobre el desarrollo de robots asesinos con la carta abierta presentada por científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología contra el desarrollo de armas de Inteligencia Artificial. Con relación a todo esto el filósofo Sueco Nick Bostrom director del Future of Humanity Institute de la Universidad de Oxford y cofundador del Institute of Ethics and Emerging Technologies argumentaba en mayo de este año que sopesando los beneficios y los riesgos sería una tragedia detener el desarrollo de la Inteligencia Artificial. En mi opinión el mensaje de Nick Bostrom tiene sentido pero es fundamental desarrollar robots responsables en vez de robots asesinos.

23 agosto, 2015 | 12:20

Digital Collage The Sentinel of Toledo LEl escritor británico Arthur C. Clarke autor de “2001: Una odisea del espacio” y “El centinela” propuso en 1962 y 1973 tres leyes relacionadas con el avance científico. La más conocida es la tercera “toda tecnología lo suficientemente avanzada es indistinguible de la magia”. También Isaac Asimov inspirado en conversaciones con John W. Campbell propuso en 1942 las tres leyes de la robótica sobre la protección y obediencia a humanos y su autoprotección.

En 2011 el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) de Gran Bretaña propusieron cinco principios éticos y siete mensajes para diseñadores, constructores y usuarios de robots en el mundo real. En estos días de alarma por el posible desarrollo de robots asesinos merece la pena recordar estas recomendaciones propuestas hace cinco años: 

  1. Los robots no deben ser diseñados para matar o dañar a los humanos
  2. Los seres humanos, no los robots, son los agentes responsables
  3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad
  4. Los robots no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia y siempre debe ser posible distinguir a un robot de un ser humano
  5. Debe ser posible averiguar quién es el responsable legal de un robot

Los mensajes son claros y hablan de ética, protección, seguridad y se anima a la investigación del robot responsable. Pero la pregunta que surge es si los robots están tan avanzados, ¿es todavía posible distinguir a un robot de un ser humano?. Para responder a esta cuestión se ha recurrido tradicionalmente al llamado test de Turing en referencia al famoso matemático británico Alan Turing considerado uno de los padres de la ciencia de la computación y que auguró en 1951 que en algún momento cabía esperar que las máquinas tomasen el control. En un interesante artículo de Philip Ball para la BBC se explica el propósito y la situación actual en relación a la famosa prueba. El test de Turing prueba la habilidad de una máquina para mostrar un comportamiento inteligente similar o indistinguible del de un humano. Claramente este test está relacionado con el cuarto principio ético de la EPSRC y AHRC.

La prueba original propone que si una máquina con inteligencia artificial puede hacer creer a los humanos que es también un humano entonces habrá pasado la prueba. Quizás la lógica de la prueba debería explorar dos vertientes, el nivel de inteligencia de la máquina y su nivel de apariencia humana. Con relación al primer asunto hace un año se anunciaba en una nota de prensa que Eugene Goostman (un chatbot robot programado para conversar de forma online) desarrollado en Rusia había logrado convencer al 33% de jueces de que era “genuinamente humano” según la Universidad de Reading que organizó la prueba. El anuncio de la superación del test generó muchas críticas y comentarios como la necesidad de actualizar el test de Turing con una prueba visual que pudiera medir el nivel de apariencia humana del robot.

Este segundo punto parece importante ya que artistas e investigadores como Mari Velonaki y David Silvera-Tawil están investigando en el Creative Robotics Lab de UNSW las reacciones de las personas al interactuar con robots de apariencia humana como con el robot hiperrealista “Geminoid F” creado hace varios años por Hiroshi Ishiguro. Parece que durante los primeros 3 ó 4 días resultaba estremecedor para el investigador sentir que alguien (el robot) estaba sentado en la habitación observándole. El profesor Hiroshi es el director del proyecto “Symbiotic Human-Robot Interaction Project” y está trabajando con otros robots hiperrealistas más modernos como “Erica”. Dentro de estas investigaciones es importante tener en cuenta el efecto “valle inquietante” que es un término acuñado por el profesor Masahiro Mori cuya hipótesis afirma que cuando las réplicas antropomórficas hiperrealistas de robots físicos o digitales se acercan en exceso a la apariencia y comportamiento de un ser humano real, pueden provocar una respuesta de rechazo entre los observadores humanos.

En otros casos y con robots no hiperrealistas se están consiguiendo muy buenos resultados para su uso en tareas sociales como el acompañamiento a personas mayores, terapias con niños autistas o el diagnóstico del Parkinson o el Alzheimer. Suena a ciencia ficción pero es el punto en el que nos encontramos en la actualidad por ello es fundamental no solo seguir las recomendaciones de los expertos con relación a los principios éticos de la robótica sino investigar los efectos que tendrán estos robots en las personas y en la sociedad.  

10 agosto, 2015 | 18:45

Digital Collage R2D2 and Pricess Leia at Plaza Callao LSi en el año 2014 el libro de Andrew McAfee y Erik Brynjolfsson “The Second Machine Age: Work, Progress and Prosperity in a Time of Brilliant Technologies” había generado un intenso debate sobre el impacto que tendrán las máquinas inteligentes en el empleo, en 2015 esta preocupación ha dado un salto cualitativo.

Estas últimas semanas podíamos leer varias noticias alertando sobre el peligro de una posible carrera armamentística por desarrollar máquinas inteligentes capaces de asesinar. Este temor ha llegado hasta el punto de que más de 16000 científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología han firmado una carta abierta presentada durante la Conferencia Internacional Conjunta de Inteligencia Artificial en Buenos Aires contra el desarrollo de armas de Inteligencia Artificial. Entre los firmantes se encuentran personas muy conocidas en el mundo de la tecnología como Steve Wozniak cofundador de Apple, Demis Hassabis CEO de Google DeepMind, Yann LeCun de Facebook y Yoshua Bengio entre otros. Incluso Elon Musk (físico y emprendedor sudafricano que ha cofundado Paypal, SpaceX y Tesla Motors) y Stephen Hawking (el conocido científico británico) que también han firmado la carta nos previenen de que la Inteligencia Artificial puede ser nuestra mayor amenaza pudiendo llegar a terminar con la especie humana si no la manejamos con precaución.

¿Pero qué dice exactamente la carta presentada el 28 de julio de 2015? Con el título de “Armas autónomas: Una carta abierta de investigadores de Inteligencia artificial y robótica”, la carta explica que las armas autónomas capaces de seleccionar y atacar objetivos sin intervención humana serán factibles dentro de pocos años. Estas armas que se han descrito como la tercera revolución en la guerra no incluye los misiles o aviones a control remoto en los que los seres humanos realizan las decisiones de orientación.

La cuestión clave es si lo que se busca con el desarrollo de armas de Inteligencia Artificial es evitar guerras o iniciarlas. Si alguna potencia militar desarrolla armas de este tipo podemos decir que es inevitable una carrera armamentística y estas armas autónomas se convertirán en los Kalashnikovs del mañana. Y lo más preocupante es que a diferencia de las armas nucleares que son costosas y difíciles de desarrollar por la escasez de materias primas, en el caso de las armas autónomas estarán omnipresentes y serán baratas por lo que todas las potencias las podrán fabricar en serie. Estas armas que seguro aparecerán en el mercado negro y en manos de terroristas serán ideales para tareas como asesinatos, desestabilizado países y matando de forma selectiva a grupos étnicos. Por ello los firmantes de la carta consideran que una carrera de armas de Inteligencia Artificial no será beneficiosa para la humanidad. De la misma manera que la mayoría de químicos y biólogos han apoyado los acuerdos internacionales que han prohibido con éxito las armas químicas y biológicas, los firmantes de la carta buscan lo mismo, es decir promover la utilización de la Inteligencia Artificial en beneficio de la humanidad y no como el pistoletazo de salida para iniciar una carrera armamentística que no sabemos dónde nos puede llevar. La pregunta que surge a continuación es saber cuánto tiempo falta para alcanzar la Inteligencia Artificial.

Imagen de Paula Satrustegui

Paula Satrustegui profundizará en las novedades fiscales y relativas a la seguridad social, que afectan a la planificación de las finanzas personales de los profesionales.

Imagen de Belén Alarcón

Belén Alarcón trasladará su experiencia de asesoramiento patrimonial y planificación financiera a través de las preguntas más relevantes que debe plantearse una persona a lo largo de su vida.

Imagen de Enrique Borrajeros

Enrique Borrajeros escribirá sobre temas relativos a la relación entidad – asesor, finanzas conductuales y tendencias y novedades en el asesoramiento financiero nacional e internacional.

Imagen de Francisco Márquez de Prado

Francisco Márquez de Prado, analizará activos y productos financieros, con sus ventajas e inconvenientes, para cada tipo de inversor.

Imagen de Íñigo Petit

Íñigo Petit tratará temas relacionados con la evolución de la industria de fondos de inversión y planes de pensiones y aspectos relacionados con la educación financiera

© Prisa Digital S.L.- Gran Vía, 32 - Edificio Prisa - Madrid [España]