Convertir la novedad en valor

Francisco González Bree

Convertir la Novedad en Valor es un blog de Francisco González Bree sobre la Creatividad, la Tecnología y la Innovación. El autor analiza el impacto actual de la innovación en el rendimiento de las empresas y los estándares de vida de las personas y observa las necesidades del mercado y las tecnologías en un futuro no muy lejano.

Luis Ferrándiz

Francisco González Bree es Doctor en Business Administration y trabaja en la actualidad como director académico del Master in Business Innovation (MBI) de Deusto Business School. Colaboró como Director de Marketing en Anboto nombrada mejor start up del mundo en 2010 y en Sher.pa. Ha trabajado más de 15 años en puestos directivos en multinacionales y más de 6 años ayudando como tutor y mentor a decenas de empresas de todos los tamaños y sectores con sus planes y modelos de negocio.

febrero 2017

lun. mar. mié. jue. vie. sáb. dom.
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28          

Suscríbete a RSS

¿Qué es RSS? Es una tecnología que envía automáticamente los titulares de un medio a un programa lector o agregador. Para utilizar las fuentes RSS existen múltiples opciones. La más común consiste en instalar un programa llamado 'agregador' o lector de noticias.

Listado de blogs

« julio 2015 | Inicio | septiembre 2015 »

Drive Away TalentLa semana pasada podíamos leer un interesante artículo del Dr. Robert C. Wolcott para Harvard Business Review sobre cómo liderar a personas demasiado inteligentes como para ser lideradas. Al hablar de inteligencia es importante aclarar que algunos autores, como el psicólogo estadounidense Howard Gardner, proponen que la vida humana requiere varios tipos de inteligencias. Su teoría de las inteligencias múltiples propone 8 tipos diferentes: Inteligencia lingüística, lógico-matemática, espacial o visual, musical, corporal-cinestésica, intrapersonal, interpersonal, naturalista. Incluso se habla de una novena posible, la inteligencia denominada existencial. Otro aspecto a considerar es la polimatía que supone dominar varias disciplinas, generalmente de las artes y las ciencias. Un estudio del año 2008 del "Journal of Psychology of Science and Technology" sugería que, en comparación con otros científicos, los Premios Nobel están mucho más involucrados en proyectos artísticos paralelos y en otras aficiones. Es decir, los Premios Nobel se acercan en mayor medida al perfil del polímata que otros científicos. Otra investigación, elaborada por quince investigadores de la Michigan State University, llega a una conclusión similar relacionando los hobbies artísticos con la probabilidad de ganar un Premio Nobel.

Independientemente del tipo de inteligencia al que se refiera Robert C. Wolcott, este profesor de innovación y emprendimiento de la Kellog School of Management nos propone 6 ideas para liderar el talento: La primera idea es que uno se debe ver como un coronel entre un regimiento de generales. Es decir, la humildad es una condición esencial para un líder que está en medio de un torbellino de talento. El líder debe inspirar al talento de tal manera que quiera ser parte de la organización. La segunda idea es no valorizar tanto el fracaso. Los procesos de innovación actuales y los movimientos tipo Lean Startup buscan fallar rápido y barato para aprender y mejorar la solución. Sin embargo, Wolcott prefiere replantear el reto antes de celebrar el fracaso. La tercera idea es fomentar la imprudencia inteligente. Cada uno de nosotros tiene una idea loca de vez en cuando. Probablemente deberíamos compartirlas con más frecuencia. A pesar de que la gente a veces se prepara en exceso para evitar la vergüenza y que la mayoría de las instituciones están diseñadas para evitar estos conceptos, los líderes deben crear oportunidades para que se compartan estas ideas "imprudentes". La cuarta idea es fomentar un debate riguroso y constructivo para navegar los retos de alta incertidumbre, desde extender los límites del conocimiento hasta escalar un negocio. Muchas empresas, sin embargo, desarrollan barreras culturales y de procedimiento al debate productivo, valorando la armonía organizacional por encima de la crítica constructiva. El desafío es fomentar un ambiente en el que la gente se sienta cómoda compartiendo y argumentando perspectivas diferentes. La quinta idea es investigar tanto las mejores prácticas como las cosas que han ido mal. Superar la estupidez colectiva es un rol básico de los líderes de la organización. La sexta idea es persistir, cuando todo parece que va mal e incluso la gestión falla, el autor nos recomienda persistir.

Hace poco más de un año Jack Zenger y Joseph Folkman abordaban el tema del liderazgo de la innovación con un enfoque diferente. En un interesante artículo para HBR los autores explicaban que habían realizado un estudio con 33 líderes innovadores de una empresa de telecomunicaciones. El objetivo del estudio era identificar los 10 comportamientos distintivos o especiales que estos líderes de la innovación podrían tener. Según su grado de importancia, los comportamientos que los líderes de la innovación poseen son: 1) capacidad para describir el futuro, 2) gran orientación al cliente, 3) capacidad para crear un clima de confianza recíproca, 4) lealtad sin temor para hacer lo que es mejor para la organización y el cliente, 5) fomentar una cultura capaz de liberar el potencial de los empleados desde abajo hacia arriba, 6) capacidad de persuasión,  7) superar las expectativas alcanzando objetivos retadores, 8) fomentar la agilidad con experimentos y prototipos rápidos, 9) honestidad, sinceridad e incluso contundencia en su comunicación, 10) capaces de inspirar y motivar a través de la acción.

Con relación a este tema la Dra. Bettina von Stamm nos propone que el líder debe nutrir e incentivar la innovación y crear un sentido de urgencia y compromiso continuo. Este estilo acepta el fracaso y lidera con el ejemplo. Bettina considera que también es importante que los procesos organizativos estén alineados para dar soporte al liderazgo, son guías y no reglas fijas inamovibles teniendo en cuenta todo el portfolio de la empresa. La cultura de empresa es también otro factor a tener en cuenta ya que se debe crear en la organización una atmosfera de confianza y respeto mutuo. Esta cultura debe nutrir la diversidad y favorecer la  colaboración y experimentación orientada al cliente y usuario final. Finalmente, el entorno del trabajo debe facilitar la colaboración y el intercambio, con variedad de espacios, nutriendo ciertos comportamientos deseados y diseñado para atraer y retener personas.

29 agosto, 2015 | 12:03

Digital Collage Star Wars Casas Colgadas Cuenca LGordon E. Moore cofundador de Intel y autor de la ley de Moore propuso en 1965 que el número de transistores integrados por unidad de superficie se duplicaba cada año. Posteriormente en 1975 modificó su ley empírica para cada 2 años y en 2007 decidió poner fecha de caducidad a su ley determinando que dejaría de cumplirse entre los años 2017 y 2022. La consecuencia más importante de la ley de Moore es que al mismo tiempo que aumentan las prestaciones de los ordenadores bajan sus precios para los consumidores.

En un interesante artículo de Irving Wladawsky-Berger para WSJ inspirado en una conversación de John Markoff para Edge con el título “The Next Wave” se explica que la ley de Moore ha funcionado durante 5 décadas pero parece que durante los 2 últimos años se está ralentizando. Si esto fuera cierto muchas de las previsiones tecnológicas (incluida la llegada de las máquinas inteligentes) no se cumplirían tal y como las habían planteado los expertos en los últimos años.

Uno de los libros que plantea la inminente llegada de las máquinas inteligentes es el libro de Ray Kurzweil del año 2005 “The singularity is Near: When Humans Transcend Biology”. El experto futurista, director de Google e impulsor de la Universidad de la Singularidad en Silicon Valley pronosticó que los avances exponenciales en la tecnología supondrían alcanzar la singularidad en el año 2045 fecha en la que la inteligencia de las máquinas sería mucho más potente que toda la inteligencia humana combinada. Esta idea es ampliamente compartida y como ejemplo es interesante leer un estudio realizado a expertos en Inteligencia Artificial en 2013 en el cual se estimaba un 50% de probabilidad de alcanzar una máquina inteligente de alto nivel para el año 2040 y una máquina superinteligente para el 2070. 

Sin embargo no todos piensan igual, el experto John Markoff considera que en el año 2045 las cosas no serán tan diferentes a lo que tenemos hoy en día y esto es debido a la desaceleración de la ley de Moore y los avances irregulares en el desarrollo de la Inteligencia Artificial. Los grandes avances alcanzados en algunas áreas de la Inteligencia Artificial, (reconocimiento de objetos, entendimiento del lenguaje humano) se empañan con la falta de avances en el desarrollo de una parte importante que es la cognición de las máquinas inteligentes. En otro artículo muy recomendable sobre el impacto que tendrán las máquinas inteligentes, Melody Guan explica que existe diversidad de opiniones sobre la evolución de la Inteligencia Artificial. El profesor de MIT David Autor considera que a corto y medio plazo las consecuencias de la robótica están sobreestimadas ya que los robots están muy limitados en términos de flexibilidad, adaptabilidad, autonomía y la habilidad de tomar decisiones independientes.

Explorando el tema desde otro punto de vista John Markoff explica que en el mundo digital sí se está experimentando un desarrollo exponencial. Esto es debido a la adopción masiva de Internet y la consecuencia es que la innovación está migrando a la creación de todo tipo de formas digitales, algoritmos y diseños cognitivos que dan algo de inteligencia a estas formas artificiales de vida. En otro artículo de Dominic Basulto para el Washington Post se propone que las tecnologías estarán embebidas en las personas como parte de la transformación de los humanos en sistemas operativos extendidos. Por su parte Ken Goldberg profesor de la Universidad de California en Berkeley propone la “multiplicidad” según la cual los humanos y las máquinas trabajarán en equipos integrados cada uno complementando las habilidades del otro.

En resumen parece que tenemos dos visiones sobre el avance de la Inteligencia Artificial. Por una parte los que piensan que las máquinas inteligentes y la singularidad tecnológica ocurrirán en unos 30 años. Por otra parte los que consideran que esto no ocurrirá hasta dentro de 50 años. Al mismo tiempo existe una alarma lógica sobre el desarrollo de robots asesinos con la carta abierta presentada por científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología contra el desarrollo de armas de Inteligencia Artificial. Con relación a todo esto el filósofo Sueco Nick Bostrom director del Future of Humanity Institute de la Universidad de Oxford y cofundador del Institute of Ethics and Emerging Technologies argumentaba en mayo de este año que sopesando los beneficios y los riesgos sería una tragedia detener el desarrollo de la Inteligencia Artificial. En mi opinión el mensaje de Nick Bostrom tiene sentido pero es fundamental desarrollar robots responsables en vez de robots asesinos.

23 agosto, 2015 | 12:20

Digital Collage The Sentinel of Toledo LEl escritor británico Arthur C. Clarke autor de “2001: Una odisea del espacio” y “El centinela” propuso en 1962 y 1973 tres leyes relacionadas con el avance científico. La más conocida es la tercera “toda tecnología lo suficientemente avanzada es indistinguible de la magia”. También Isaac Asimov inspirado en conversaciones con John W. Campbell propuso en 1942 las tres leyes de la robótica sobre la protección y obediencia a humanos y su autoprotección.

En 2011 el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) de Gran Bretaña propusieron cinco principios éticos y siete mensajes para diseñadores, constructores y usuarios de robots en el mundo real. En estos días de alarma por el posible desarrollo de robots asesinos merece la pena recordar estas recomendaciones propuestas hace cinco años: 

  1. Los robots no deben ser diseñados para matar o dañar a los humanos
  2. Los seres humanos, no los robots, son los agentes responsables
  3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad
  4. Los robots no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia y siempre debe ser posible distinguir a un robot de un ser humano
  5. Debe ser posible averiguar quién es el responsable legal de un robot

Los mensajes son claros y hablan de ética, protección, seguridad y se anima a la investigación del robot responsable. Pero la pregunta que surge es si los robots están tan avanzados, ¿es todavía posible distinguir a un robot de un ser humano?. Para responder a esta cuestión se ha recurrido tradicionalmente al llamado test de Turing en referencia al famoso matemático británico Alan Turing considerado uno de los padres de la ciencia de la computación y que auguró en 1951 que en algún momento cabía esperar que las máquinas tomasen el control. En un interesante artículo de Philip Ball para la BBC se explica el propósito y la situación actual en relación a la famosa prueba. El test de Turing prueba la habilidad de una máquina para mostrar un comportamiento inteligente similar o indistinguible del de un humano. Claramente este test está relacionado con el cuarto principio ético de la EPSRC y AHRC.

La prueba original propone que si una máquina con inteligencia artificial puede hacer creer a los humanos que es también un humano entonces habrá pasado la prueba. Quizás la lógica de la prueba debería explorar dos vertientes, el nivel de inteligencia de la máquina y su nivel de apariencia humana. Con relación al primer asunto hace un año se anunciaba en una nota de prensa que Eugene Goostman (un chatbot robot programado para conversar de forma online) desarrollado en Rusia había logrado convencer al 33% de jueces de que era “genuinamente humano” según la Universidad de Reading que organizó la prueba. El anuncio de la superación del test generó muchas críticas y comentarios como la necesidad de actualizar el test de Turing con una prueba visual que pudiera medir el nivel de apariencia humana del robot.

Este segundo punto parece importante ya que artistas e investigadores como Mari Velonaki y David Silvera-Tawil están investigando en el Creative Robotics Lab de UNSW las reacciones de las personas al interactuar con robots de apariencia humana como con el robot hiperrealista “Geminoid F” creado hace varios años por Hiroshi Ishiguro. Parece que durante los primeros 3 ó 4 días resultaba estremecedor para el investigador sentir que alguien (el robot) estaba sentado en la habitación observándole. El profesor Hiroshi es el director del proyecto “Symbiotic Human-Robot Interaction Project” y está trabajando con otros robots hiperrealistas más modernos como “Erica”. Dentro de estas investigaciones es importante tener en cuenta el efecto “valle inquietante” que es un término acuñado por el profesor Masahiro Mori cuya hipótesis afirma que cuando las réplicas antropomórficas hiperrealistas de robots físicos o digitales se acercan en exceso a la apariencia y comportamiento de un ser humano real, pueden provocar una respuesta de rechazo entre los observadores humanos.

En otros casos y con robots no hiperrealistas se están consiguiendo muy buenos resultados para su uso en tareas sociales como el acompañamiento a personas mayores, terapias con niños autistas o el diagnóstico del Parkinson o el Alzheimer. Suena a ciencia ficción pero es el punto en el que nos encontramos en la actualidad por ello es fundamental no solo seguir las recomendaciones de los expertos con relación a los principios éticos de la robótica sino investigar los efectos que tendrán estos robots en las personas y en la sociedad.  

10 agosto, 2015 | 18:45

Digital Collage R2D2 and Pricess Leia at Plaza Callao LSi en el año 2014 el libro de Andrew McAfee y Erik Brynjolfsson “The Second Machine Age: Work, Progress and Prosperity in a Time of Brilliant Technologies” había generado un intenso debate sobre el impacto que tendrán las máquinas inteligentes en el empleo, en 2015 esta preocupación ha dado un salto cualitativo.

Estas últimas semanas podíamos leer varias noticias alertando sobre el peligro de una posible carrera armamentística por desarrollar máquinas inteligentes capaces de asesinar. Este temor ha llegado hasta el punto de que más de 16000 científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología han firmado una carta abierta presentada durante la Conferencia Internacional Conjunta de Inteligencia Artificial en Buenos Aires contra el desarrollo de armas de Inteligencia Artificial. Entre los firmantes se encuentran personas muy conocidas en el mundo de la tecnología como Steve Wozniak cofundador de Apple, Demis Hassabis CEO de Google DeepMind, Yann LeCun de Facebook y Yoshua Bengio entre otros. Incluso Elon Musk (físico y emprendedor sudafricano que ha cofundado Paypal, SpaceX y Tesla Motors) y Stephen Hawking (el conocido científico británico) que también han firmado la carta nos previenen de que la Inteligencia Artificial puede ser nuestra mayor amenaza pudiendo llegar a terminar con la especie humana si no la manejamos con precaución.

¿Pero qué dice exactamente la carta presentada el 28 de julio de 2015? Con el título de “Armas autónomas: Una carta abierta de investigadores de Inteligencia artificial y robótica”, la carta explica que las armas autónomas capaces de seleccionar y atacar objetivos sin intervención humana serán factibles dentro de pocos años. Estas armas que se han descrito como la tercera revolución en la guerra no incluye los misiles o aviones a control remoto en los que los seres humanos realizan las decisiones de orientación.

La cuestión clave es si lo que se busca con el desarrollo de armas de Inteligencia Artificial es evitar guerras o iniciarlas. Si alguna potencia militar desarrolla armas de este tipo podemos decir que es inevitable una carrera armamentística y estas armas autónomas se convertirán en los Kalashnikovs del mañana. Y lo más preocupante es que a diferencia de las armas nucleares que son costosas y difíciles de desarrollar por la escasez de materias primas, en el caso de las armas autónomas estarán omnipresentes y serán baratas por lo que todas las potencias las podrán fabricar en serie. Estas armas que seguro aparecerán en el mercado negro y en manos de terroristas serán ideales para tareas como asesinatos, desestabilizado países y matando de forma selectiva a grupos étnicos. Por ello los firmantes de la carta consideran que una carrera de armas de Inteligencia Artificial no será beneficiosa para la humanidad. De la misma manera que la mayoría de químicos y biólogos han apoyado los acuerdos internacionales que han prohibido con éxito las armas químicas y biológicas, los firmantes de la carta buscan lo mismo, es decir promover la utilización de la Inteligencia Artificial en beneficio de la humanidad y no como el pistoletazo de salida para iniciar una carrera armamentística que no sabemos dónde nos puede llevar. La pregunta que surge a continuación es saber cuánto tiempo falta para alcanzar la Inteligencia Artificial.

Imagen de Paula Satrustegui

Paula Satrustegui profundizará en las novedades fiscales y relativas a la seguridad social, que afectan a la planificación de las finanzas personales de los profesionales.

Imagen de Belén Alarcón

Belén Alarcón trasladará su experiencia de asesoramiento patrimonial y planificación financiera a través de las preguntas más relevantes que debe plantearse una persona a lo largo de su vida.

Imagen de Enrique Borrajeros

Enrique Borrajeros escribirá sobre temas relativos a la relación entidad – asesor, finanzas conductuales y tendencias y novedades en el asesoramiento financiero nacional e internacional.

Imagen de Francisco Márquez de Prado

Francisco Márquez de Prado, analizará activos y productos financieros, con sus ventajas e inconvenientes, para cada tipo de inversor.

Imagen de Íñigo Petit

Íñigo Petit tratará temas relacionados con la evolución de la industria de fondos de inversión y planes de pensiones y aspectos relacionados con la educación financiera

© Prisa Digital S.L.- Gran Vía, 32 - Edificio Prisa - Madrid [España]