Convertir la novedad en valor

Francisco González Bree

Convertir la Novedad en Valor es un blog de Francisco González Bree sobre la Creatividad, la Tecnología y la Innovación. El autor analiza el impacto actual de la innovación en el rendimiento de las empresas y los estándares de vida de las personas y observa las necesidades del mercado y las tecnologías en un futuro no muy lejano.

Luis Ferrándiz

Francisco González Bree es Doctor en Business Administration y trabaja en la actualidad como director académico del Master in Business Innovation (MBI) de Deusto Business School. Colaboró como Director de Marketing en Anboto nombrada mejor start up del mundo en 2010 y en Sher.pa. Ha trabajado más de 15 años en puestos directivos en multinacionales y más de 6 años ayudando como tutor y mentor a decenas de empresas de todos los tamaños y sectores con sus planes y modelos de negocio.

marzo 2017

lun. mar. mié. jue. vie. sáb. dom.
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31    

Suscríbete a RSS

¿Qué es RSS? Es una tecnología que envía automáticamente los titulares de un medio a un programa lector o agregador. Para utilizar las fuentes RSS existen múltiples opciones. La más común consiste en instalar un programa llamado 'agregador' o lector de noticias.

Listado de blogs

« julio 2015 | Inicio | septiembre 2015 »

WhiteLineEsta semana podíamos leer un artículo muy interesante sobre cómo la mayoría de las personas se pueden sentir amenazadas por la creatividad. La doctora Jennifer Mueller ha investigado los sesgos contra la creatividad y  resume en un artículo para Quartz algunas de las conclusiones de su último libro Creative Change: Why We Resist It … How We Can Embrace It. Para Jennifer, el problema comienza con la educación ya que muchos profesores, a pesar de considerar que la creatividad es importante, la asocian con las artes. De esta manera minimizan el papel que podría tener la creatividad en otras disciplinas como las matemáticas, la ciencia o los deportes. Asimismo, es frecuente que a los estudiantes más creativos se les etiqueten como perturbadores considerando el pensamiento “fuera de la caja” como un problema más que como una virtud.

El mundo de la ciencia y la investigación también sufre este problema. A pesar de que el propósito de una revista científica es publicar nuevas ideas, un reciente estudio  realizado en el sector de la medicina encontró que 12 de los 14 artículos disruptivos más citados fueron originalmente rechazados de forma fulminante en las fases iniciales. En otro estudio se encontró que las personas encargadas de evaluar las propuestas de subvenciones científicas siempre otorgaban una clasificación más baja a las propuestas altamente novedosas. Un problema que han identificado los expertos que explicaría estos comportamientos está relacionado con la necesidad que tenemos los humanos de buscar respuestas correctas. Ante la creciente avalancha de información y estímulos de todo tipo  intentamos hacer frente a la complejidad por medio de la búsqueda de la simplicidad. Buscamos respuestas correctas a los problemas a los que nos enfrentamos, pero la paradoja es que una respuesta correcta no suele ser creativa. Es decir, que una elección será correcta si coincide con un paradigma de pensamiento y las ideas creativas necesariamente buscan romper los paradigmas. Un interesante hallazgo de Jennifer y sus colaboradores es que las personas que están motivadas para elegir una solución correcta demuestran tener un sesgo negativo claro (pero no reconocido) contra la creatividad. Esto sucede incluso cuando intentan aparentar lo contrario afirmando que aprecian la creatividad. 

Sucede que en el mundo empresarial pasa algo parecido ya que varios estudios han encontrado que los ejecutivos se sienten poco preparados para reconocer y aceptar soluciones creativas. Estos resultados muestran que las nuevas ideas son rechazadas de forma sistemática en la mayoría de las empresas, incluso aquellas que dicen que quieren más innovación. Hace unos meses Jennifer Deal, en otro interesante artículo publicado en el Wall Street Journal, indicaba que el problema no está en que las empresas tengan un déficit de ideas creativas, el gran problema es que los directivos no saben identificar cuáles son las ideas creativas sobre las que se debería actuar. Distintos investigadores como Justin Berg, Jenifer Deal, Jennifer Mueller o Jeff Lowenstein ofrecen puntos de vista similares en relación a este tema. Han descubierto que los directivos en posición de tomar decisiones tienden a evaluar las ideas en base a la viabilidad y encaje con lo que la organización está haciendo en la actualidad. Asimismo, prefieren ideas menos creativas que las que eligen sus clientes que tienden a ser más creativas. Esto sucede con más intensidad en las organizaciones que tienen culturas muy fuertes y estáticas. Los resultados de estas investigaciones son claros, no importa lo mucho que los líderes expresen su deseo de mayor creatividad, a la hora de la verdad cuando se tiene que gastar dinero para que una idea tenga éxito, el cálculo suele ser que una disrupción es impredecible y la imprevisibilidad se tiende a ver como un riesgo o una amenaza que hay que eliminar.

En conclusión, tan importante es fomentar que los empleados sean más creativos como que los líderes con poder de toma de decisiones sean capaces de seleccionar las mejores ideas creativas. Para ello, la mejor opción es dominar la disciplina de la innovación que es la que se ocupa precisamente de llevar con éxito las mejores ideas creativas a los distintos mercados.

29 agosto, 2015 | 12:03

Digital Collage Star Wars Casas Colgadas Cuenca LGordon E. Moore cofundador de Intel y autor de la ley de Moore propuso en 1965 que el número de transistores integrados por unidad de superficie se duplicaba cada año. Posteriormente en 1975 modificó su ley empírica para cada 2 años y en 2007 decidió poner fecha de caducidad a su ley determinando que dejaría de cumplirse entre los años 2017 y 2022. La consecuencia más importante de la ley de Moore es que al mismo tiempo que aumentan las prestaciones de los ordenadores bajan sus precios para los consumidores.

En un interesante artículo de Irving Wladawsky-Berger para WSJ inspirado en una conversación de John Markoff para Edge con el título “The Next Wave” se explica que la ley de Moore ha funcionado durante 5 décadas pero parece que durante los 2 últimos años se está ralentizando. Si esto fuera cierto muchas de las previsiones tecnológicas (incluida la llegada de las máquinas inteligentes) no se cumplirían tal y como las habían planteado los expertos en los últimos años.

Uno de los libros que plantea la inminente llegada de las máquinas inteligentes es el libro de Ray Kurzweil del año 2005 “The singularity is Near: When Humans Transcend Biology”. El experto futurista, director de Google e impulsor de la Universidad de la Singularidad en Silicon Valley pronosticó que los avances exponenciales en la tecnología supondrían alcanzar la singularidad en el año 2045 fecha en la que la inteligencia de las máquinas sería mucho más potente que toda la inteligencia humana combinada. Esta idea es ampliamente compartida y como ejemplo es interesante leer un estudio realizado a expertos en Inteligencia Artificial en 2013 en el cual se estimaba un 50% de probabilidad de alcanzar una máquina inteligente de alto nivel para el año 2040 y una máquina superinteligente para el 2070. 

Sin embargo no todos piensan igual, el experto John Markoff considera que en el año 2045 las cosas no serán tan diferentes a lo que tenemos hoy en día y esto es debido a la desaceleración de la ley de Moore y los avances irregulares en el desarrollo de la Inteligencia Artificial. Los grandes avances alcanzados en algunas áreas de la Inteligencia Artificial, (reconocimiento de objetos, entendimiento del lenguaje humano) se empañan con la falta de avances en el desarrollo de una parte importante que es la cognición de las máquinas inteligentes. En otro artículo muy recomendable sobre el impacto que tendrán las máquinas inteligentes, Melody Guan explica que existe diversidad de opiniones sobre la evolución de la Inteligencia Artificial. El profesor de MIT David Autor considera que a corto y medio plazo las consecuencias de la robótica están sobreestimadas ya que los robots están muy limitados en términos de flexibilidad, adaptabilidad, autonomía y la habilidad de tomar decisiones independientes.

Explorando el tema desde otro punto de vista John Markoff explica que en el mundo digital sí se está experimentando un desarrollo exponencial. Esto es debido a la adopción masiva de Internet y la consecuencia es que la innovación está migrando a la creación de todo tipo de formas digitales, algoritmos y diseños cognitivos que dan algo de inteligencia a estas formas artificiales de vida. En otro artículo de Dominic Basulto para el Washington Post se propone que las tecnologías estarán embebidas en las personas como parte de la transformación de los humanos en sistemas operativos extendidos. Por su parte Ken Goldberg profesor de la Universidad de California en Berkeley propone la “multiplicidad” según la cual los humanos y las máquinas trabajarán en equipos integrados cada uno complementando las habilidades del otro.

En resumen parece que tenemos dos visiones sobre el avance de la Inteligencia Artificial. Por una parte los que piensan que las máquinas inteligentes y la singularidad tecnológica ocurrirán en unos 30 años. Por otra parte los que consideran que esto no ocurrirá hasta dentro de 50 años. Al mismo tiempo existe una alarma lógica sobre el desarrollo de robots asesinos con la carta abierta presentada por científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología contra el desarrollo de armas de Inteligencia Artificial. Con relación a todo esto el filósofo Sueco Nick Bostrom director del Future of Humanity Institute de la Universidad de Oxford y cofundador del Institute of Ethics and Emerging Technologies argumentaba en mayo de este año que sopesando los beneficios y los riesgos sería una tragedia detener el desarrollo de la Inteligencia Artificial. En mi opinión el mensaje de Nick Bostrom tiene sentido pero es fundamental desarrollar robots responsables en vez de robots asesinos.

23 agosto, 2015 | 12:20

Digital Collage The Sentinel of Toledo LEl escritor británico Arthur C. Clarke autor de “2001: Una odisea del espacio” y “El centinela” propuso en 1962 y 1973 tres leyes relacionadas con el avance científico. La más conocida es la tercera “toda tecnología lo suficientemente avanzada es indistinguible de la magia”. También Isaac Asimov inspirado en conversaciones con John W. Campbell propuso en 1942 las tres leyes de la robótica sobre la protección y obediencia a humanos y su autoprotección.

En 2011 el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) de Gran Bretaña propusieron cinco principios éticos y siete mensajes para diseñadores, constructores y usuarios de robots en el mundo real. En estos días de alarma por el posible desarrollo de robots asesinos merece la pena recordar estas recomendaciones propuestas hace cinco años: 

  1. Los robots no deben ser diseñados para matar o dañar a los humanos
  2. Los seres humanos, no los robots, son los agentes responsables
  3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad
  4. Los robots no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia y siempre debe ser posible distinguir a un robot de un ser humano
  5. Debe ser posible averiguar quién es el responsable legal de un robot

Los mensajes son claros y hablan de ética, protección, seguridad y se anima a la investigación del robot responsable. Pero la pregunta que surge es si los robots están tan avanzados, ¿es todavía posible distinguir a un robot de un ser humano?. Para responder a esta cuestión se ha recurrido tradicionalmente al llamado test de Turing en referencia al famoso matemático británico Alan Turing considerado uno de los padres de la ciencia de la computación y que auguró en 1951 que en algún momento cabía esperar que las máquinas tomasen el control. En un interesante artículo de Philip Ball para la BBC se explica el propósito y la situación actual en relación a la famosa prueba. El test de Turing prueba la habilidad de una máquina para mostrar un comportamiento inteligente similar o indistinguible del de un humano. Claramente este test está relacionado con el cuarto principio ético de la EPSRC y AHRC.

La prueba original propone que si una máquina con inteligencia artificial puede hacer creer a los humanos que es también un humano entonces habrá pasado la prueba. Quizás la lógica de la prueba debería explorar dos vertientes, el nivel de inteligencia de la máquina y su nivel de apariencia humana. Con relación al primer asunto hace un año se anunciaba en una nota de prensa que Eugene Goostman (un chatbot robot programado para conversar de forma online) desarrollado en Rusia había logrado convencer al 33% de jueces de que era “genuinamente humano” según la Universidad de Reading que organizó la prueba. El anuncio de la superación del test generó muchas críticas y comentarios como la necesidad de actualizar el test de Turing con una prueba visual que pudiera medir el nivel de apariencia humana del robot.

Este segundo punto parece importante ya que artistas e investigadores como Mari Velonaki y David Silvera-Tawil están investigando en el Creative Robotics Lab de UNSW las reacciones de las personas al interactuar con robots de apariencia humana como con el robot hiperrealista “Geminoid F” creado hace varios años por Hiroshi Ishiguro. Parece que durante los primeros 3 ó 4 días resultaba estremecedor para el investigador sentir que alguien (el robot) estaba sentado en la habitación observándole. El profesor Hiroshi es el director del proyecto “Symbiotic Human-Robot Interaction Project” y está trabajando con otros robots hiperrealistas más modernos como “Erica”. Dentro de estas investigaciones es importante tener en cuenta el efecto “valle inquietante” que es un término acuñado por el profesor Masahiro Mori cuya hipótesis afirma que cuando las réplicas antropomórficas hiperrealistas de robots físicos o digitales se acercan en exceso a la apariencia y comportamiento de un ser humano real, pueden provocar una respuesta de rechazo entre los observadores humanos.

En otros casos y con robots no hiperrealistas se están consiguiendo muy buenos resultados para su uso en tareas sociales como el acompañamiento a personas mayores, terapias con niños autistas o el diagnóstico del Parkinson o el Alzheimer. Suena a ciencia ficción pero es el punto en el que nos encontramos en la actualidad por ello es fundamental no solo seguir las recomendaciones de los expertos con relación a los principios éticos de la robótica sino investigar los efectos que tendrán estos robots en las personas y en la sociedad.  

10 agosto, 2015 | 18:45

Digital Collage R2D2 and Pricess Leia at Plaza Callao LSi en el año 2014 el libro de Andrew McAfee y Erik Brynjolfsson “The Second Machine Age: Work, Progress and Prosperity in a Time of Brilliant Technologies” había generado un intenso debate sobre el impacto que tendrán las máquinas inteligentes en el empleo, en 2015 esta preocupación ha dado un salto cualitativo.

Estas últimas semanas podíamos leer varias noticias alertando sobre el peligro de una posible carrera armamentística por desarrollar máquinas inteligentes capaces de asesinar. Este temor ha llegado hasta el punto de que más de 16000 científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología han firmado una carta abierta presentada durante la Conferencia Internacional Conjunta de Inteligencia Artificial en Buenos Aires contra el desarrollo de armas de Inteligencia Artificial. Entre los firmantes se encuentran personas muy conocidas en el mundo de la tecnología como Steve Wozniak cofundador de Apple, Demis Hassabis CEO de Google DeepMind, Yann LeCun de Facebook y Yoshua Bengio entre otros. Incluso Elon Musk (físico y emprendedor sudafricano que ha cofundado Paypal, SpaceX y Tesla Motors) y Stephen Hawking (el conocido científico británico) que también han firmado la carta nos previenen de que la Inteligencia Artificial puede ser nuestra mayor amenaza pudiendo llegar a terminar con la especie humana si no la manejamos con precaución.

¿Pero qué dice exactamente la carta presentada el 28 de julio de 2015? Con el título de “Armas autónomas: Una carta abierta de investigadores de Inteligencia artificial y robótica”, la carta explica que las armas autónomas capaces de seleccionar y atacar objetivos sin intervención humana serán factibles dentro de pocos años. Estas armas que se han descrito como la tercera revolución en la guerra no incluye los misiles o aviones a control remoto en los que los seres humanos realizan las decisiones de orientación.

La cuestión clave es si lo que se busca con el desarrollo de armas de Inteligencia Artificial es evitar guerras o iniciarlas. Si alguna potencia militar desarrolla armas de este tipo podemos decir que es inevitable una carrera armamentística y estas armas autónomas se convertirán en los Kalashnikovs del mañana. Y lo más preocupante es que a diferencia de las armas nucleares que son costosas y difíciles de desarrollar por la escasez de materias primas, en el caso de las armas autónomas estarán omnipresentes y serán baratas por lo que todas las potencias las podrán fabricar en serie. Estas armas que seguro aparecerán en el mercado negro y en manos de terroristas serán ideales para tareas como asesinatos, desestabilizado países y matando de forma selectiva a grupos étnicos. Por ello los firmantes de la carta consideran que una carrera de armas de Inteligencia Artificial no será beneficiosa para la humanidad. De la misma manera que la mayoría de químicos y biólogos han apoyado los acuerdos internacionales que han prohibido con éxito las armas químicas y biológicas, los firmantes de la carta buscan lo mismo, es decir promover la utilización de la Inteligencia Artificial en beneficio de la humanidad y no como el pistoletazo de salida para iniciar una carrera armamentística que no sabemos dónde nos puede llevar. La pregunta que surge a continuación es saber cuánto tiempo falta para alcanzar la Inteligencia Artificial.

Imagen de Paula Satrustegui

Paula Satrustegui profundizará en las novedades fiscales y relativas a la seguridad social, que afectan a la planificación de las finanzas personales de los profesionales.

Imagen de Belén Alarcón

Belén Alarcón trasladará su experiencia de asesoramiento patrimonial y planificación financiera a través de las preguntas más relevantes que debe plantearse una persona a lo largo de su vida.

Imagen de Enrique Borrajeros

Enrique Borrajeros escribirá sobre temas relativos a la relación entidad – asesor, finanzas conductuales y tendencias y novedades en el asesoramiento financiero nacional e internacional.

Imagen de Francisco Márquez de Prado

Francisco Márquez de Prado, analizará activos y productos financieros, con sus ventajas e inconvenientes, para cada tipo de inversor.

Imagen de Íñigo Petit

Íñigo Petit tratará temas relacionados con la evolución de la industria de fondos de inversión y planes de pensiones y aspectos relacionados con la educación financiera

© Prisa Digital S.L.- Gran Vía, 32 - Edificio Prisa - Madrid [España]