Convertir la novedad en valor

Francisco González Bree

Convertir la Novedad en Valor es un blog de Francisco González Bree sobre la Creatividad, la Tecnología y la Innovación. El autor analiza el impacto actual de la innovación en el rendimiento de las empresas y los estándares de vida de las personas y observa las necesidades del mercado y las tecnologías en un futuro no muy lejano.

Luis Ferrándiz

Francisco González Bree es Doctor en Business Administration y trabaja en la actualidad como director académico del Master in Business Innovation (MBI) de Deusto Business School. Colaboró como Director de Marketing en Anboto nombrada mejor start up del mundo en 2010 y en Sher.pa. Ha trabajado más de 15 años en puestos directivos en multinacionales y más de 6 años ayudando como tutor y mentor a decenas de empresas de todos los tamaños y sectores con sus planes y modelos de negocio.

noviembre 2017

lun. mar. mié. jue. vie. sáb. dom.
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30      

Suscríbete a RSS

¿Qué es RSS? Es una tecnología que envía automáticamente los titulares de un medio a un programa lector o agregador. Para utilizar las fuentes RSS existen múltiples opciones. La más común consiste en instalar un programa llamado 'agregador' o lector de noticias.

Listado de blogs

« julio 2015 | Inicio | septiembre 2015 »

SustainabilityEsta semana podíamos leer un interesante artículo de David Semerad para Forbes sobre la sostenibilidad y el rendimiento empresarial. Según un estudio de Unilever citado en dicho artículo, los usuarios valoran cada vez más las marcas de empresas que nutren la innovación y la sostenibilidad. El estudio encontró que el 20% de los encuestados elegirían activamente marcas que comunicaran de forma clara en su marketing su apuesta por la sostenibilidad. David explica que, en general, los consumidores prefieren cada vez más negocios y productos sostenibles. Sin embargo, son muchas las empresas que todavía no se han tomado en serio el tema de la sostenibilidad.

En un interesante artículo para Harvard Business Review, el experto John Elkington propone ciertos desafíos y aproximaciones que los líderes emplean para abordar el tema de la sostenibilidad. Según Elkington, el cortoplacismo y la obsesión por la obtención de retornos financieros al capital invertido suponen un problema para la resolución de los desafíos sistémicos a los que nos enfrentaremos a nivel ambiental en los próximos años. Hemos visto imágenes del aire contaminado que se respira en muchas ciudades del mundo. En un artículo de Michael Reilly para MIT Technology Review, el autor explica que en la actualidad no es China sino la India quien tiene los peores niveles de contaminación en el aire del mundo. La imparable industrialización junto con la falta de regulación hará que este problema empeore en el futuro. 

En otro artículo de Fiona Harvey para The Guardian, la autora explica que para la vida marina las perspectivas también son preocupantes. La amenaza de los océanos no son sólo los torrentes de plástico que pueden sofocar y matar de hambre a los peces o las diversas formas de contaminación humana que están creando zonas muertas. Existen otras amenazas como la acidificación de los océanos que está progresando rápidamente en todo el mundo. Nuevos estudios han encontrado que la combinación de estas y otras amenazas pueden resultar mortales para la vida marina. El embajador de la ONU para los océanos, Peter Thomson, argumenta que todo el mundo habla del cambio climático pero es necesario hablar más del cambio del océano, los efectos de la acidificación, el calentamiento, la contaminación plástica y las zonas muertas marinas.

John Elkington explica que los líderes empresariales utilizan seis modelos mentales que pueden ayudar a construir negocios más sostenibles y intentar resolver estos desafíos. El primer modelo mental es el marco de recursos. Este modelo se centra en la reducción de desperdicios y la innovación tecnológica. Por ejemplo, 3M adoptó en los años 90 conceptos como la eco-eficiencia. Con estos conceptos se buscaba generar ingresos y ahorrar costes mediante una mejor gestión en el uso de materiales, energía y desperdicios. El desafío de este modelo es que se tiende a pensar que la tecnología solucionaría todos nuestros problemas pero con los crecimientos exponenciales actuales los problemas sistémicos no se acaban de resolver.

El segundo modelo mental es el marco del tiempo. El tiempo es fundamental para todos los marcos de sostenibilidad y el capitalismo sufre de miopía con los temas de largo plazo. Este problema fue identificado por el CEO de Unilever Paul Polman quien les dijo a los potenciales inversores cortoplacistas que no invirtieran en la empresa. Desde 1950 los desafíos medioambientales se han disparado. Algunos científicos y pensadores consideran que, en la actualidad, estamos en el Antropoceno caracterizado por el impacto global que las actividades humanas han tenido y tienen en los ecosistemas terrestres. El ganador del premio Nobel de química Paul Crutzen utilizó este término en el año 2000 en referencia a la influencia que, en su opinión, está teniendo el comportamiento humano sobre la Tierra en los últimos tiempos.

El tercer modelo mental es el marco de valor que conecta con la idea de la triple cuenta de resultados. Este concepto fue acuñado a mediados de los años 80 por distintos autores como Freer Spreckley alcanzando gran notoriedad con la publicación en 1998 del libro de John Elkington “Cannibals With Forks: The Triple Bottom Line of 21st Century Business”. La triple cuenta de resultados es un marco contable que fomenta los negocios sostenibles en base a tres dimensiones fundamentales: económica, social y ambiental. La adopción de la triple cuenta de resultados aporta beneficios importantes para la empresa ya que facilita el acceso a nuevos mercados potenciales, aumenta la motivación de los empleados, fomenta la innovación, mejora la reputación y fideliza a los clientes. Las empresas en este marco han creado instrumentos como el SROI (retorno social de la inversión) o el E P&L (environmental profit and loss account).

El cuarto modelo mental es el marco de diseño donde se intenta romper con la lógica dominante del consumidor basada en extraer, fabricar y tirar. Este grupo incluye personas como los arquitectos geodésicos Buckminster Fuller, Stewart Brand y los pensadores Bill McDonough y Michael Braungart creadores de conceptos como la “economía circular” y “de la cuna a la cuna”. El quinto marco mental es el marco de la abundancia con pensadores como Ray Kurzweil y Peter Diamandis que argumentan que hemos entrado en un periodo caracterizado por la generación de soluciones rupturistas a desafíos a un nivel exponencial. Pioneros de este marco incluyen organizaciones como XPRIZE Foundation y Singularity University. Este marco conecta directamente con las mega tendencias tecnológicas y la ley de convergencia acelerada que comenté en un artículo previo para este blog. Finalmente, tenemos el modelo mental del marco moral. Es fundamental aplicar en el mundo empresarial los conceptos de justicia distributiva, derechos humanos, valores y principios éticos. Los principios humanistas de este último modelo son fundamentales si realmente aspiramos a crear un mundo mejor. 

29 agosto, 2015 | 12:03

Digital Collage Star Wars Casas Colgadas Cuenca LGordon E. Moore cofundador de Intel y autor de la ley de Moore propuso en 1965 que el número de transistores integrados por unidad de superficie se duplicaba cada año. Posteriormente en 1975 modificó su ley empírica para cada 2 años y en 2007 decidió poner fecha de caducidad a su ley determinando que dejaría de cumplirse entre los años 2017 y 2022. La consecuencia más importante de la ley de Moore es que al mismo tiempo que aumentan las prestaciones de los ordenadores bajan sus precios para los consumidores.

En un interesante artículo de Irving Wladawsky-Berger para WSJ inspirado en una conversación de John Markoff para Edge con el título “The Next Wave” se explica que la ley de Moore ha funcionado durante 5 décadas pero parece que durante los 2 últimos años se está ralentizando. Si esto fuera cierto muchas de las previsiones tecnológicas (incluida la llegada de las máquinas inteligentes) no se cumplirían tal y como las habían planteado los expertos en los últimos años.

Uno de los libros que plantea la inminente llegada de las máquinas inteligentes es el libro de Ray Kurzweil del año 2005 “The singularity is Near: When Humans Transcend Biology”. El experto futurista, director de Google e impulsor de la Universidad de la Singularidad en Silicon Valley pronosticó que los avances exponenciales en la tecnología supondrían alcanzar la singularidad en el año 2045 fecha en la que la inteligencia de las máquinas sería mucho más potente que toda la inteligencia humana combinada. Esta idea es ampliamente compartida y como ejemplo es interesante leer un estudio realizado a expertos en Inteligencia Artificial en 2013 en el cual se estimaba un 50% de probabilidad de alcanzar una máquina inteligente de alto nivel para el año 2040 y una máquina superinteligente para el 2070. 

Sin embargo no todos piensan igual, el experto John Markoff considera que en el año 2045 las cosas no serán tan diferentes a lo que tenemos hoy en día y esto es debido a la desaceleración de la ley de Moore y los avances irregulares en el desarrollo de la Inteligencia Artificial. Los grandes avances alcanzados en algunas áreas de la Inteligencia Artificial, (reconocimiento de objetos, entendimiento del lenguaje humano) se empañan con la falta de avances en el desarrollo de una parte importante que es la cognición de las máquinas inteligentes. En otro artículo muy recomendable sobre el impacto que tendrán las máquinas inteligentes, Melody Guan explica que existe diversidad de opiniones sobre la evolución de la Inteligencia Artificial. El profesor de MIT David Autor considera que a corto y medio plazo las consecuencias de la robótica están sobreestimadas ya que los robots están muy limitados en términos de flexibilidad, adaptabilidad, autonomía y la habilidad de tomar decisiones independientes.

Explorando el tema desde otro punto de vista John Markoff explica que en el mundo digital sí se está experimentando un desarrollo exponencial. Esto es debido a la adopción masiva de Internet y la consecuencia es que la innovación está migrando a la creación de todo tipo de formas digitales, algoritmos y diseños cognitivos que dan algo de inteligencia a estas formas artificiales de vida. En otro artículo de Dominic Basulto para el Washington Post se propone que las tecnologías estarán embebidas en las personas como parte de la transformación de los humanos en sistemas operativos extendidos. Por su parte Ken Goldberg profesor de la Universidad de California en Berkeley propone la “multiplicidad” según la cual los humanos y las máquinas trabajarán en equipos integrados cada uno complementando las habilidades del otro.

En resumen parece que tenemos dos visiones sobre el avance de la Inteligencia Artificial. Por una parte los que piensan que las máquinas inteligentes y la singularidad tecnológica ocurrirán en unos 30 años. Por otra parte los que consideran que esto no ocurrirá hasta dentro de 50 años. Al mismo tiempo existe una alarma lógica sobre el desarrollo de robots asesinos con la carta abierta presentada por científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología contra el desarrollo de armas de Inteligencia Artificial. Con relación a todo esto el filósofo Sueco Nick Bostrom director del Future of Humanity Institute de la Universidad de Oxford y cofundador del Institute of Ethics and Emerging Technologies argumentaba en mayo de este año que sopesando los beneficios y los riesgos sería una tragedia detener el desarrollo de la Inteligencia Artificial. En mi opinión el mensaje de Nick Bostrom tiene sentido pero es fundamental desarrollar robots responsables en vez de robots asesinos.

23 agosto, 2015 | 12:20

Digital Collage The Sentinel of Toledo LEl escritor británico Arthur C. Clarke autor de “2001: Una odisea del espacio” y “El centinela” propuso en 1962 y 1973 tres leyes relacionadas con el avance científico. La más conocida es la tercera “toda tecnología lo suficientemente avanzada es indistinguible de la magia”. También Isaac Asimov inspirado en conversaciones con John W. Campbell propuso en 1942 las tres leyes de la robótica sobre la protección y obediencia a humanos y su autoprotección.

En 2011 el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) de Gran Bretaña propusieron cinco principios éticos y siete mensajes para diseñadores, constructores y usuarios de robots en el mundo real. En estos días de alarma por el posible desarrollo de robots asesinos merece la pena recordar estas recomendaciones propuestas hace cinco años: 

  1. Los robots no deben ser diseñados para matar o dañar a los humanos
  2. Los seres humanos, no los robots, son los agentes responsables
  3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad
  4. Los robots no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia y siempre debe ser posible distinguir a un robot de un ser humano
  5. Debe ser posible averiguar quién es el responsable legal de un robot

Los mensajes son claros y hablan de ética, protección, seguridad y se anima a la investigación del robot responsable. Pero la pregunta que surge es si los robots están tan avanzados, ¿es todavía posible distinguir a un robot de un ser humano?. Para responder a esta cuestión se ha recurrido tradicionalmente al llamado test de Turing en referencia al famoso matemático británico Alan Turing considerado uno de los padres de la ciencia de la computación y que auguró en 1951 que en algún momento cabía esperar que las máquinas tomasen el control. En un interesante artículo de Philip Ball para la BBC se explica el propósito y la situación actual en relación a la famosa prueba. El test de Turing prueba la habilidad de una máquina para mostrar un comportamiento inteligente similar o indistinguible del de un humano. Claramente este test está relacionado con el cuarto principio ético de la EPSRC y AHRC.

La prueba original propone que si una máquina con inteligencia artificial puede hacer creer a los humanos que es también un humano entonces habrá pasado la prueba. Quizás la lógica de la prueba debería explorar dos vertientes, el nivel de inteligencia de la máquina y su nivel de apariencia humana. Con relación al primer asunto hace un año se anunciaba en una nota de prensa que Eugene Goostman (un chatbot robot programado para conversar de forma online) desarrollado en Rusia había logrado convencer al 33% de jueces de que era “genuinamente humano” según la Universidad de Reading que organizó la prueba. El anuncio de la superación del test generó muchas críticas y comentarios como la necesidad de actualizar el test de Turing con una prueba visual que pudiera medir el nivel de apariencia humana del robot.

Este segundo punto parece importante ya que artistas e investigadores como Mari Velonaki y David Silvera-Tawil están investigando en el Creative Robotics Lab de UNSW las reacciones de las personas al interactuar con robots de apariencia humana como con el robot hiperrealista “Geminoid F” creado hace varios años por Hiroshi Ishiguro. Parece que durante los primeros 3 ó 4 días resultaba estremecedor para el investigador sentir que alguien (el robot) estaba sentado en la habitación observándole. El profesor Hiroshi es el director del proyecto “Symbiotic Human-Robot Interaction Project” y está trabajando con otros robots hiperrealistas más modernos como “Erica”. Dentro de estas investigaciones es importante tener en cuenta el efecto “valle inquietante” que es un término acuñado por el profesor Masahiro Mori cuya hipótesis afirma que cuando las réplicas antropomórficas hiperrealistas de robots físicos o digitales se acercan en exceso a la apariencia y comportamiento de un ser humano real, pueden provocar una respuesta de rechazo entre los observadores humanos.

En otros casos y con robots no hiperrealistas se están consiguiendo muy buenos resultados para su uso en tareas sociales como el acompañamiento a personas mayores, terapias con niños autistas o el diagnóstico del Parkinson o el Alzheimer. Suena a ciencia ficción pero es el punto en el que nos encontramos en la actualidad por ello es fundamental no solo seguir las recomendaciones de los expertos con relación a los principios éticos de la robótica sino investigar los efectos que tendrán estos robots en las personas y en la sociedad.  

10 agosto, 2015 | 18:45

Digital Collage R2D2 and Pricess Leia at Plaza Callao LSi en el año 2014 el libro de Andrew McAfee y Erik Brynjolfsson “The Second Machine Age: Work, Progress and Prosperity in a Time of Brilliant Technologies” había generado un intenso debate sobre el impacto que tendrán las máquinas inteligentes en el empleo, en 2015 esta preocupación ha dado un salto cualitativo.

Estas últimas semanas podíamos leer varias noticias alertando sobre el peligro de una posible carrera armamentística por desarrollar máquinas inteligentes capaces de asesinar. Este temor ha llegado hasta el punto de que más de 16000 científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología han firmado una carta abierta presentada durante la Conferencia Internacional Conjunta de Inteligencia Artificial en Buenos Aires contra el desarrollo de armas de Inteligencia Artificial. Entre los firmantes se encuentran personas muy conocidas en el mundo de la tecnología como Steve Wozniak cofundador de Apple, Demis Hassabis CEO de Google DeepMind, Yann LeCun de Facebook y Yoshua Bengio entre otros. Incluso Elon Musk (físico y emprendedor sudafricano que ha cofundado Paypal, SpaceX y Tesla Motors) y Stephen Hawking (el conocido científico británico) que también han firmado la carta nos previenen de que la Inteligencia Artificial puede ser nuestra mayor amenaza pudiendo llegar a terminar con la especie humana si no la manejamos con precaución.

¿Pero qué dice exactamente la carta presentada el 28 de julio de 2015? Con el título de “Armas autónomas: Una carta abierta de investigadores de Inteligencia artificial y robótica”, la carta explica que las armas autónomas capaces de seleccionar y atacar objetivos sin intervención humana serán factibles dentro de pocos años. Estas armas que se han descrito como la tercera revolución en la guerra no incluye los misiles o aviones a control remoto en los que los seres humanos realizan las decisiones de orientación.

La cuestión clave es si lo que se busca con el desarrollo de armas de Inteligencia Artificial es evitar guerras o iniciarlas. Si alguna potencia militar desarrolla armas de este tipo podemos decir que es inevitable una carrera armamentística y estas armas autónomas se convertirán en los Kalashnikovs del mañana. Y lo más preocupante es que a diferencia de las armas nucleares que son costosas y difíciles de desarrollar por la escasez de materias primas, en el caso de las armas autónomas estarán omnipresentes y serán baratas por lo que todas las potencias las podrán fabricar en serie. Estas armas que seguro aparecerán en el mercado negro y en manos de terroristas serán ideales para tareas como asesinatos, desestabilizado países y matando de forma selectiva a grupos étnicos. Por ello los firmantes de la carta consideran que una carrera de armas de Inteligencia Artificial no será beneficiosa para la humanidad. De la misma manera que la mayoría de químicos y biólogos han apoyado los acuerdos internacionales que han prohibido con éxito las armas químicas y biológicas, los firmantes de la carta buscan lo mismo, es decir promover la utilización de la Inteligencia Artificial en beneficio de la humanidad y no como el pistoletazo de salida para iniciar una carrera armamentística que no sabemos dónde nos puede llevar. La pregunta que surge a continuación es saber cuánto tiempo falta para alcanzar la Inteligencia Artificial.

Imagen de Paula Satrustegui

Paula Satrustegui profundizará en las novedades fiscales y relativas a la seguridad social, que afectan a la planificación de las finanzas personales de los profesionales.

Imagen de Belén Alarcón

Belén Alarcón trasladará su experiencia de asesoramiento patrimonial y planificación financiera a través de las preguntas más relevantes que debe plantearse una persona a lo largo de su vida.

Imagen de Enrique Borrajeros

Enrique Borrajeros escribirá sobre temas relativos a la relación entidad – asesor, finanzas conductuales y tendencias y novedades en el asesoramiento financiero nacional e internacional.

Imagen de Francisco Márquez de Prado

Francisco Márquez de Prado, analizará activos y productos financieros, con sus ventajas e inconvenientes, para cada tipo de inversor.

Imagen de Íñigo Petit

Íñigo Petit tratará temas relacionados con la evolución de la industria de fondos de inversión y planes de pensiones y aspectos relacionados con la educación financiera

© Prisa Digital S.L.- Gran Vía, 32 - Edificio Prisa - Madrid [España]