VRS2S Realidade Virtual e Tradução Fala por Fala para Colaboração Global, uma discussão a partir de uma perspectiva de Gestão da Inovação

 

Fundação Getúlio Vargas

MBA em Gestão Estratégico de Inovação

 

 

George Sebastian Howell

 

 

 

 

 

 

 

 

 

 

VRS2S Realidade Virtual e Tradução Fala por Fala para Colaboração Global, uma discussão a partir de uma perspectiva de Gestão da Inovação

 

 

 

 

 

 

 

RIO DE JANEIRO

Trabalho de Conclusão de Curso (TCC) apresentado ao Curso

MBA em Gestão Estratégico de Inovação

Pós-Graduação lato sensu, Nível de Especialização

Programa FGV Management

Rio de Janeiro

Abril/2017

VRS2S Realidade Virtual e Tradução Fala por Fala para Colaboração Global, uma discussão a partir de uma perspectiva de Gestão da Inovação

Trabalho de Conclusão de Curso  apresentado  ao Curso

MBA em Gestão Estratégico de Inovação

Pós-Graduação lato sensu, Nível de Especialização

Programa FGV Management

 

 

Abril/2017


 

FUNDAÇÃO GETULIO VARGAS

PROGRAMA FGV MANAGEMENT

CURSO GESTAO ESTRATEGICO DE INOVACAO

 

 

 

O Trabalho de Conclusão de Curso
VRS2S Realidade Virtual e Tradução Fala por Fala para Colaboração Global, uma discussão a partir de uma perspectiva de Gestão da Inovação

 

 

 

elaborado por  George Sebastian Howell

 

 

 

e aprovado pela Coordenação Acadêmica do curso GESTAO ESTRATEGICO DE INOVACAO, foi aceito como requisito parcial para a obtenção do certificado do curso de pós-graduação, nível de especialização, do Programa FGV Management

 

 

Data: 29.05.2017

 

___________________________________

Ingrid Paola Stoekicht, D.Sc Coordenadora Acadêmica

 

 

___________________________________

Maria Candida Torres M.Sc – Orientadora

 

TERMO DE COMPROMISSO O aluno George Sebastian Howell, abaixo-assinado, do Curso MBA em Gestão Estratégico de Inovação, Pós-Graduação lato sensu, Nível de Especialização do Programa FGV Management, realizado nas dependências da instituição conveniada FGV Botafogo no período de setembro  de 2015  a maio  de 2017 declara que o conteúdo de seu Trabalho de Conclusão de Curso intitulado: VRS2S Realidade Virtual e Tradução Fala por Fala para Colaboração Global, uma discussão a partir de uma perspectiva de Gestão da Inovação é autêntico e original. 02 de junho de 2017.

 

 

 

 

 

George Sebastian Howell

Rio de Janeiro, 2 de junho 2017

 

 

Resumo
Este artigo discute a viabilidade de um elaboração de um MVP (Minimum Viable Product) para o desenvolvimento de uma ferramenta de colaboração virtual em Realidade Virtual (VR), com rastreamento facial e rastreamento de movimento, bem como capacidades de tradução ao vivo, fala por fala, para encorajar a colaboração global. O artigo aborda essa idéia com uma justificativa de um desenvolvimento mais profunda de negócio, e discussão subsequente sobre os aspectos técnicos necessários para realmente fazer o produto desejado, dentro dos limites da tecnologia.

Abstract

This paper discusses the feasibility for the elaboration of an MVP (Minimum Viable Product) towards the development of a Virtual Reality (VR) virtual collaboration tool, with facial tracking and motion tracking, as well as speech to speech translation capabilities, towards encouraging global collaboration. The paper discusses this idea with a business justification for interest in the project, and a subsequent discussion of the technicalities of actually making the desired product, within the limits of VR technology.

 

 

 

Conteudo

Glossário de termos técnicos. 7

Objetivo. 8

Inspiração. 9

Rumo à integração mundial 9

World Syntegration 2.0. 9

Estratégia. 10

Estratégia de Financiamento. 10

Estratégia de Recursos Públicos. 11

Estratégia para atrair capital de risco [Venture Capital] 12

Empreendedorismo e Ideação desvinculados do lugar 13

Benefícios tecnológicos de realidade virtual (VR) imersiva. 14

Uma inovação disruptiva. 14

VRS2S Moonshot Idea. 17

Justificação: Tamanho do mercado e potencial crescimento de VR; tendências. 18

Limitações da linguagem.. 19

Análise da Dinâmica de Mercado da VR.. 19

VR HMD Comparação de dispositivos. 21

Considerações sobre tecnologia de captura de movimento. 23

Rumo a um MVP.. 23

Trabalhos a serem [‘Jobs to be done’] feitos para o MVP: 24

  1. Crie um “ambiente de colaboração virtual compartilhado” 24
  2. Representação de avatar virtual 24
  3. Traduzir simultaneamente mais de um idioma ao mesmo tempo. 26

Pesquisa de inteligência de negócios. 26

Estudo de viabilidade da realidade virtual para reuniões colaborativas. 27

Projeto IKinema da empresa Orion. 29

Expressão Facial 30

Mindmaze. 31

Benchmarking de Realidade Virtual e tecnologia de reunião colaborativa. 33

3DiO.. 33

Rummii do Doghead Simulations. 34

Pluto VR.. 34

Avaliação dos produtos oferecendo reuniões em VR.. 35

Rumii do Doghead: 35

Bigscreen VR: 36

Pluto VR: 36

Benchmarking da Tecnologia de Tradução de Discurso a Voz (S2S) 37

Skype Translator 38

Waverly Labs’ Pilot 38

Mymanu Clik. 38

Análise de tecnologias fala para fala [Speech to Speech] disponíveis. 39

Expressão facial e rastreamento de posição corporal 39

MVP e Inovação Aberta. 40

Referências. 42

Websites e artigos no internet 43

 

 

 

Glossário de termos técnicos

 

HMD Head Mounted Display– Significa tela montada na cabeça, HMD e nome genérico utilizada para dispositivos de Realidade Virtual

FAPERJ – Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro

FINEP – Financiadora de Estudos e Projetos

MIT – Massachussets Institute of Technology

Moonshot – Significa atirar na lua, refere aos projetos cujos ambições são audaciosos,

MVP  Minimum Viable Product –  Significa Produto Minimo Viavel

S2S Speech to Speech –  Literalmente ‘fala para fala’ significa o ato de traduzir palavra falado em um linguagem, para áudio de um outro linguagem

VR Virtual Reality (VR) – Significa Realidade Virtual

VRS2S – Significa Virtual Reality plus Speech to Speech, traduzido significa Realidade Virtual e tradução fala para fala

Lista de Imagens e tabelas

 

Figura 1: Gráfico mostrando estratégia de inovação disruptiva Pagina 16
Figura 2: Google X está na interseção de Problemas Grandes, Soluções Radicais e Tecnologias Inovadoras Pagina 17
Figura 3: Tendências de mercado para VR em 2020 pode chegar ate $ bilhões de dólares Pagina 18
Figura 4: Porcentagens de pessoas conectados a internet por região do planeta Pagina 19
Figura 5: Comparação de HMDs Pagina 20
Figura 6: Como Ikinema captura movimento postural, e transfere para um ambiente VR Pagina 21
Figura 7: A transferência de expressão facial da realidade para um avatar em VR usando sensores do Mindmaze dentro do dispositivo. Pagina 29
Figura 8: Sensores Mindmaze no dispositivo HMD e captura de expressão Pagina 31
Figura 9: Detalhe dos sensores Mindmaze no dispositivo HMD Pagina 32
Figura 10 Uma reunião em sala VR oferecido pelo desenvolvedor Doghead Pagina 34
Figura 11: Captura da tela do aplicativo BigScreen VR Pagina 35
Figura 12:  Reunião em VR no ambiente do Pluto VR Pagina 35
Figura 13: funcionamento do Waverly Pagina 37

 

 

 

Objetivo

 

O objetivo é gerenciar a criação de um novo produto que utiliza avanços tecnológicos para oferecer uma nova forma de interação social no nível mundial. Especificamente, o plano é oferecer uma plataforma que promova a interação social global, transcendendo as barreiras de localização e linguagem. A barreira de localização pode ser transcendida pela tecnologia de Realidade Virtual [Virtual Reality] (VR), para que as pessoas possam se encontrar em uma sala de reuniões virtual, usando headsets VR (Head Mounted Displays HMDs) e tecnologia de apoio para tornar a reunião o mais real possível. A linguagem pode ser transcendida ao alavancar a tecnologia de tradução automática para o fone de ouvido do usuário enquanto estiver no ambiente de reunião VR.

Esta tecnologia tem o objetivo principal de se tornar uma plataforma para o empreendedorismo global. Permitirá que os projetos sejam realizados por pequenas equipes globais, que juntem os seus talentos e recursos coletivos, mas que atualmente não conseguem se reunir devido às fronteiras da linguagem e do espaço. Permite o trabalho de projetos e processos de ideação. Por esta razão, esta é uma forma de inovação inerentemente disruptiva, atualmente apenas uma elite de pequenas empresas tem recursos suficientes para bancar reuniões físicas em lugares distantes, com tradução simultânea. Para este fim, este projeto visa libertar o potencial latente do mundo para o empreendedorismo, permitindo a formação de grupos cujas forças e capacidades se complementam, mas que não tem como encontrar ou compreender o outro.

O objetivo secundário do projeto é ser uma ferramenta para a colaboração política internacional. O que eu tenho em mente é a disrupção das Nações Unidas, cujas reuniões são ineficazes e logisticamente caras. Os grupos de trabalho das Nações Unidas são atualmente constituídas por representantes dos diferentes países, que devem ter encontros físicos caros para trabalhar em conjunto. O mecanismo que estou propondo permitiria que os grupos de trabalho internacionais se reunissem virtualmente e trabalhassem em um projeto mútuo, sem os custos de logística inerentemente caros. Além disso, sendo radicalmente mais barata que uma reunião internacional com serviços de tradução simultânea, esta plataforma tecnológica poderia democratizar a discussão da política global para um grupo mais amplo de participantes.

Na verdade, a tecnologia deve ser o mais aberta possível, na medida em que as pessoas possam usar a mesma para o que acharem  útil ou importante. Existem claros benefícios para empresários, por exemplo, no entanto a ideia é que a plataforma facilita conexões globais para qualquer interessado em fazê-los.

 

Inspiração

 

A inspiração para este projeto são as ideias da Stafford Beer detalhado no seu livro “Team Syntegrity” (Beer 1994) e “World Syntegration“, que se refere a grupos de cidadãos de todo o mundo que discutem soluções para problemas comuns.

 

Rumo à integração mundial

 

O que é relevante para essa proposta é a visão de Stafford Beer sobre um processo de um síntese de ideias no nível mundial [Global Syntegration]. Esta foi a visão de Beer para a utilização mundial dos processos de Team Syntegrity como um forma inovadora de Governança Mundial para o bem da humanidade:

Há pessoas em todo o mundo, indivíduos soberanos, que têm ideias e propósitos que desejam compartilhar com os outros.  Essas pessoas são o material de infosets: infosets de trinta amigos locais, infosets globais de trinta cidadãos do mundo.

 

Esta integração mundial não existe, é claro. É uma visão.   O objetivo é ambicioso: iniciar um processo que invoque a redundância do comando potencial como a metodologia para um novo sistema de governança mundial.

 

Um grupo de trinta amigos afins, compartilhando um propósito, mas vivendo bem separados, pode compartilhar suas intenções e formular suas ações por meios eletrônicos através da tecnosfera. Eu chamo trinta desses amigos um infoset global. (Beer 1992: 16)

 

 

World Syntegration 2.0

 

Beer projetou a visão para o Syntegration mundial em 1992. Agora, em 2017, quinze anos depois, a tecnologia pode ser usada para permitir um processo de integração verdadeiramente global. Eu acredito que é possível com a Realidade Virtual (VR) e tecnologias de tradução para permitir que 30 pessoas, falando uma miríade de línguas pode se reunir virtualmente, a fim de desenvolver soluções para problemas comuns.

Incluo essa justificativa para explicar por que este projeto atual ressoa com meus valores, explicando minha motivação pessoal, que e de importância fundamental em projetos empreenderias. No entanto, também serve para delinear os “trabalhos a serem feitos” [Jobs to be done] que a tecnologia neste projeto precisa oferecer:

  • Um plenário virtual para 30 pessoas
  • Mesas redondas virtuais para 5 pessoas, que falam em 5 idiomas diferentes.

 

Estratégia

 

Eu tenho minhas razões pessoais para o interesse na tecnologia, que eu expliquei acima, entretanto a definição exata de como a tecnologia vai funcionar definitivamente é deixada intencionalmente vaga, porque esta deve ser desenvolvida junto com colaboradores enquanto o projeto se desenvolve. Na verdade, isso faz parte da beleza da proposta, que há muitas maneiras pelas quais a tecnologia a ser desenvolvida poderia ser usada.

Tomei a decisão de me concentrar em investigar e testar a viabilidade de criar um produto que seja essencialmente um aplicativo ‘Head’ montado na cabeça da Realidade Virtual (doravante HMD), que utiliza o software de tradução Speech 2 Speech (doravante S2S) para Permitir que as pessoas conversem remotamente cara a cara [Face to Face].

 

Estratégia de Financiamento

 

A estratégia que estou tomando para concretizar a criação de um Produto Mínimo Viável [MVP], um conceito desenvolvido por Eric Reis no seu livro ‘The Lean Start Up‘ (Reis 2011). Significa desenvolver o conceito central de uma ideia e protótipar logo para poder fazer um processo de iteração até chegar num produto final. O MVP também serve para demonstrar prova de conceito, no caso desse projeto minha estratégia e primeiramente verificar com esse estudo se vale a pena investir recursos para fazer um MVP do VRS2S. Minha ideia para poder atrair colaboradores e demonstrar prova do conceito, e com essa prova atrair financiamento. Potencias fontes de financiamento estabelecidas como a FAPERJ e FINEP no Brasil, fontes externas como Universidades dos Estados Unidos, como o MIT ou Stanford, para desenvolver um MVP. Uma vez que um MVP foi desenvolvido, eu procuro atrair o financiamento de capital de risco, a fim de escalar o produto para uso global.

 

Estratégia de Recursos Públicos

 

A estratégia de financiamento consiste em primeiramente juntar uma equipe de especialistas, incluindo um programador, um especialista em VR e gerente de inovação, e em equipe redigir uma proposta de financiamento de recursos públicos como a FINEP e a FAPERJ no Brasil, além de buscar fontes de financiamento internacionais, Como o Fundo Global de Inovação do MIT.

Atualmente, existe um acordo de parceria com o colega do MBA em Gestão de Inovação e membro do corpo docente da FGV, Albino Ribeiro Neto, que publicou em revistas científicas sobre o VR para buscar recursos para desenvolver um “Produto Mínimo Viável”.

Os primeiros passos para poder apresentar propostas são o trabalho de delinear quais os aspectos fundamentais do MVP que precisamos demonstrar. O financiamento inicial seria buscado para comprar equipamentos relevantes, que incluem:

  • Dispositivo de Exibição Montada na Cabeça Virtual Reality (Head Mounted Display; HMD) + Kit de Desenvolvedor
  • Tecnologia Sensor de Captura de Movimento
  • PC Computer + placa gráfica poderosa

Além disso, recursos são necessários para pagar e treinar programadores de computação brasileiros para desenvolver o código para desenvolver o Aplicativo. No estágio atual, estamos enfrentando a questão de identificar exatamente quantos programadores precisamos. Dado o escopo ambicioso deste projeto, poderíamos requerer uma grande equipe de programadores, para desenvolver os seguintes recursos:

  • Captura de expressão facial e a posterior transferência para um Avatar VR
  • Captura de movimento postural e posterior transferência para um Avatar VR
  • Criação de um “Espaço Virtual Colaborativo”
  • Capacidade de tradução simultânea ao vivo (live Speech to Speech translation)

É estrategicamente importante desenvolver as áreas de foco de um MVP para poder fazer uma proposta coerente, delineada pelo que é realmente possível considerando os limitações de tecnologia atual. No final desta fase inicial, procuramos ter estabelecido uma empresa Start Up pronta para o potencial apoio do Venture Capital.

 

Estratégia para atrair capital de risco [Venture Capital]

 

Uma vez que um MVP tenha sido desenvolvido, uma apresentação do protótipo será feita aos ‘Venture Capitalists’ envolvidos especificamente no apoio de Start Ups durante suas fases inicias. Seria interessante buscar incubação em um ambiente orientado para programação de computadores a fim de ter acesso aos programadores. ‘Venture Capital’ referi aos investidores que busca investir em empresas de tecnologia nas suas fases primarias, para poder aprimorar e depois vender-los.

Patrocinadores potenciais foram identificados no José Arnaldo Deutscher, da FGV, que manifestou interesse no empreendimento, se formos capazes de construir um protótipo.

Potenciais investidores de capital de risco que investem em Realidade Virtual foram identificados, como a “Virtual Reality Virtual Capital Alliance”, que tem US $ 17 bilhões de fundos disponíveis. Além disso, eu identifiquei uma lista compilada por Robert Scoble de 197 investidores que procuram investir em Virtual Reality Start Ups.  Além disso, existem sites que oferecem listas de potenciais VR Venture Capitalists em anexo, que também pode ser utilizados.

A fim de atrair Capital de Risco, é importante que o produto ofereça inovações inéditas.

 

Justificação para o desenvolvimento do projeto

Esse projeto está fundamentada em teorias de gestão de inovação que aprendi no curso Gestão Estratégico de Inovação do FGV. Especificamente o curso me fez refletir na importância de observar tendências tecnológicas, ver como eles soluciona problemas, e ver como melhor aproveita-los. Abordamos também a questão de inovações tecnológicas que tem o efeito de disrupção do status quo de um determinado mercado, seguindo as teoria de Clayton Christensen (Christensen 2016 por exemplo). Por isso abaixo eu descreve as tendências de crescimento da tecnologia VR, e explica porque a aplicação desse tecnologia ao questão de reuniões de negócio pode ser considerado disruptiva. Para justificar esse projeto, também seria importante engajar com a tecnologia de VR e seus limitações para oferecer algo semelhante a uma reunião presencial. Por isso conversamos embaixo sobre como replicar a Figura de uma pessoa, suas expressões e posturas, dentro de um ambiente de VR. Esses detalhes são importantes, porque uma análise de mercado mostra que essas tecnologias não são utilizadas suficientemente pelos potencias competidores.

 

Empreendedorismo e Ideação desvinculados do lugar

 

Do ponto de vista empresarial, o projeto oferece uma mudança de paradigma, na medida em que permitirá a formação de grupos independentes de empreendedores, sem barreiras de linguagem ou de lugar. Se considerarmos todos os diferentes talentos e habilidades da humanidade como um todo, no agregado, poderíamos formar equipes muito mais sinergéticas do que é atualmente possível, onde as pessoas precisam falar a mesma língua ou compartilhar fisicamente o mesmo espaço. Isto é especialmente verdadeiro para os processos criativos, onde as equipes precisam conduzir processos de ideação juntos. Com este produto, as experiências de VR verdadeiramente imersivas permitiriam que as equipes conduzissem processos de ideação em conjunto, sem compartilhar o mesmo lugar ou a mesma linguagem.

Os benefícios de tal tecnologia podem ser vistos a partir de uma perspectiva de redução de custos, como talento global poderia ser acessado, um engenheiro chinês que fala Inglês tem um preço, o mesmo engenheiro que não fala inglês pode ser menos oneroso. O mesmo é verdadeiro para o recurso humano global como um todo. Com essa tecnologia o programador de computador mais rentável poderia ser contratado, bem como o designer mais rentável, para um custo relativamente baixa.

Este modelo de emprego enquadra-se nas tendências atuais da globalização e do emprego. As formas tradicionais de emprego do século XX foram corroídas pela terceirização e automação. Reconheceu-se que o trabalhador do século 21 precisa ser empreendedor, trabalha em rede, e ter diversas fontes de renda, a fim de simplesmente sobreviver no clima atual. Um mecanismo para permitir que grupos de pessoas colaborassem e se encontrassem virtualmente permitiriam um aumento exponencial nas possibilidades de sinergias entre grupos e indivíduos.

 

Benefícios tecnológicos de realidade virtual (VR) imersiva                                                                              

 

O benefício de usar a realidade virtual para reuniões é que ela é imersiva e dá aos usuários a oportunidade de ver a linguagem corporal e as expressões faciais dos outros participantes. Seus benefícios foram capturados na seguinte frase:

VR é uma experiência imersiva, multissensorial, criando a ilusão de participar de um ambiente sintético ao invés de ser um observador externo de tal ambiente. (Gigante 1993)

Atualmente, a tecnologia de videoconferência, como Skype ou CISCO Videoconferências, é usada para reuniões de grupos de várias localizações, no entanto, essas mídias usam tecnologia de vídeo de tela plana. A principal diferença é o nível de imersão que a realidade virtual oferece sobre sistemas videoconferência atual.

Videoconferência tradicional e sistemas de eLearning como Skype e Vidyo falta naturalidade e não são muito imersiva. Eles exigem que os usuários adotem mecanismos não naturais através de teclado e mouse, resultando em interrupções no fluxo de comunicação e no processo de pensamento. (Guntha 2016)

 

Uma inovação disruptiva

 

A proposta que esboço é potencialmente significativo “game-changing“, é essencialmente uma inovação disruptiva, rompendo [disprupting] a necessidade de reuniões pessoais, cara a cara a ser realizado no mesmo lugar. Se essa tecnologia desenvolve, iria causar uma interrupção para toda a indústria de viagens de negócios. Eu estou chamando-o disruptiva, seguindo a discussão de Christensen da inovação disruptiva (Christensen 2015). Se pensarmos na indústria de viagens de negócios, ser capaz de ter uma reunião “quase tão boa” sem viajar para qualquer lugar é potencialmente disruptiva. Também é perturbador no sentido de que esta tecnologia não é dirigida a viajantes de negócios atuais, mas sim a potenciais empreendedores globais, que gostariam de ter reuniões internacionais para estabelecer redes de negócios pessoais baseadas em confiança e empreendimentos comerciais, mas não têm recursos para pagar custos de viagem de negócios, ou ter os pré-requisitos de linguagem para se comunicar com pessoas que não compartilham o mesmo idioma. Reconhece-se que uma reunião de realidade virtual com tradução simultânea será inferior às reuniões presencias, será inferior, no entanto isso permite apelar para um diferente tipo de cliente, o cliente excluído do atual classe de consumidores de viagens de negócios. Desta forma, representa uma entrada na parte do mercado que rende menos ‘Low-end Foothold‘. Christensen explica que os incumbentes deixam a porta aberta aos disruptores com produtos “suficientemente bons” para os “clientes de baixo custo” excluídos da mira dos incumbentes. Neste projeto, os custos são mínimos em comparação com viagens aéreas, de hospedagem e logística.

Outro fator é a velocidade com que a tecnologia VR e S2S está se desenvolvendo, para Christensen isso é um fator positivo: “Nós percebemos que a inclinação de qualquer trajetória disruptiva é uma função de quão rapidamente a tecnologia facilitadora melhora“. (2015). Figura 1 embaixo mostra como entrantes de mercado utilizando a estratégia de ‘Low-end Foothold’ pode ultrapassar competidores estabelecidas.

dis model

Figura 1: Gráfico mostrando estratégia de inovação disruptiva[1]

Este projeto enquadra-se também na “Estratégia Azul do Oceano” de Mauborgne (2014), na medida em que procura estabelecer um mercado de clientes completamente novo; Ele permitirá que um grande número de pessoas tenha encontros entre si, seja por motivos empresariais, de lazer ou políticos.  Isso também é algo que Christensen faz referência, que uma disrupção é algo que os clientes não são necessariamente conscientes de que eles precisam.

 

VRS2S Moonshot Idea

 

O Google X define-se como:

“Uma fábrica de moonshots [moonshot significa atirar na lua, uma coisa quase impossível de acertar, mas com muitos benefícios se obtém sucesso]. Nossa missão é inventar e lançar tecnologias “moonshot” que esperamos poder tornar o mundo um lugar radicalmente melhor “.[2] (Google 2017)

google x

Figura 2: Google X está na interseção de Problemas Grandes, Soluções Radicais e Tecnologias Inovadoras[3]

 

O projeto VRS2S tem como objetivo seguir a lógica do Google X, Figura 2 acima explica que o foco do Google X e está na intersecção entre Huge Problems (Problemas Enormes), Radical Solutions (soluções radicais), e Breakthrough Technology, utilizando tecnologia da ponta para criar coisas úteis para a humanidade. Nosso ambição com o Projeto VRS2S e muda radicalmente o problema – que o mundo é dividido em povos que falam línguas diferentes, impedidos de se encontrarem por causa de limitações de distância, usando avanços tecnologias de tradução VR e S2S para alcançá-lo.

 

Justificação: Tamanho do mercado e potencial crescimento de VR; tendências

 

Os analistas da indústria de VR Digi-Capital previam que o mercado de VR poderia atingir US $ 150 bilhões em 2020, US $ 120 bilhões para realidade aumentada e ainda US $ 30 bilhões para VR. (Digi-Capital 2015). Deste $ 30 bilhões, cerca de 20% devo ir para nichos de mercado VR. Em 2016, a receita de VR foi de US $ 1,8 bilhão, com um total de 6,3 milhões de dispositivos embarcados. Figura 3 embaixo ilustra graficamente esses números.

digi capital

Figura 3: mostra que o mercado para VR em 2020 pode chegar até $ bilhões de dólares [4]

Até 2030, Ray Kurzweil prevê que a tecnologia de comunicação será tão avançada que “duas pessoas poderiam estar a centenas de quilômetros de distância, mas sentem que estão na mesma sala e até mesmo ser capazes de tocar um ao outro”. (State of the Future 2017)[5]

A partir desta breve discussão, podemos ver que a tecnologia VR funciona dentro de um mercado com indicadores de crescimento muito saudável.

 

Limitações da linguagem

 

Figura 4 embaixo mostra o número de pessoas conectadas a internet, nos lembrando do fato do quanto estamos conectados a milhões de pessoas pela mesma. A internet em si ainda é bastante segmentada por divisões de idiomas. Pessoas de diferentes regiões não interagem tanto quanto poderiam, por causa da falta de uma linguagem compartilhada. A tabela, usando dados dos dados de ‘Internet Live Stats 2013’ mostra que quase metade dos usuários da Internet estão na Ásia, mais do que na Europa e as Américas juntos. Uma tecnologia que visa fazer formas de conectar esses bilhões de pessoas atualmente desconectadas está visando um mercado grande.

digi capital2

Figura 4 mostra as porcentagens de pessoas conectados à internet por região do planeta [6]

 

Análise da Dinâmica de Mercado da VR

 

Uma análise do mercado de VR mostra algumas complicações que eu me deparei na pesquisa para este projeto, que devemos estar cientes. Atualmente VR via HMD é um mercado competitivo em termos de tecnologia. Os líderes de mercado são a Plataforma Vive da HTC, o Facebook apoiado pela Oculus Rift, a plataforma VR da Playstation, bem como a plataforma para Smartphones da Samsung, a Samsung Gear.

No entanto, os HMDs ainda estão em estágios iniciais e ainda são relativamente caros, há também poucas aplicações e jogos de qualidade por causa da relação custo / benefício de desenvolvimento para cada plataforma. Existe uma situação de “Catch 22” no mercado de VR, que é a parcela de mercado para cada dispositivo ainda  muito baixo para atrair desenvolvedores, já que poucas unidades estão nas mãos dos consumidores. Essa tecnologia ainda está em fase de “adoção precoce”. Eric Romo, CEOP da Altspace VR explica que:

…… atuais dispositivos são muito bons, mas “todos eles têm falhas trágicas …. Desktop VR é complicado demais, e o console VR monopoliza sua sala de estar, enquanto VR móvel não é suficientemente “full-featured“”(Robertson 2017) [7]

No entanto, a venda de VR HMDs deverá crescer rapidamente nos próximos anos de acordo com Business Insider (ver Figura 5 abaixo). O AMD VR Advisory Council também espera que o mercado de hardware cresça para um mercado de hardware de US $ 2,8 bilhões até 2020.[8]

 

Figura 5: Previsão de número de HMDs em mãos de consumidores até 2020[9]

 

VR HMD Comparação de dispositivos

 

Na Figura 6 abaixo, podemos ver caraterísticas de alguns dispositivos HMD disponível no mercado, para que o leitor pode entender do que estamos tratando.

tabela

Figura 6: Comparação de HMDs.[10]

Um desafio para os HMD atuais é que eles atualmente precisam de uma conexão de fio para um PC para poder processar a quantidade de dados necessários, a transmissão WIFI não consegue transferir dados suficientes:

O problema reside na enorme quantidade de dados que é necessário para conduzir a exibição VR. E como o conteúdo de VR se torna cada vez mais de alta definição, o problema só piora. Para conseguir uma ação suave com baixa latência, qualquer sistema sem fio para realidade virtual deve ter velocidades de transferência superiores a 4 Gbps e preferencialmente superiores a 5,2 Gbps.Com o atual 802.11ac wifi padrão capaz de um máximo de 1,3 Gbps, você pode ver o problema. (Levski 2017)

 

No entanto, os desenvolvedores de hardware estão trabalhando para desenvolver dispositivos ‘VR’ autônomos e encontrar soluções para esses requisitos de poder de processamento. Por outro lado, em abril de 2017 ocorreu a primeira “chamada telefônica de holograma”, facilitada por uma rede 5G, permitindo velocidades de conexão até 100 vezes mais rápidas do que as redes existentes. Espera-se que essas redes 5G sejam implementadas até 2020. (Trusted Reviews: 2017)[14]

Considerações sobre tecnologia de captura de movimento

 

O Oculus Rift oferece tecnologia para captura de movimento através de uma sistema Microsoft Kinect, enquanto o HTC Vive inclui tecnologia de captura de movimento como parte de seu pacote. Em termos do escopo do projeto atual, o HTC Vive tem a melhor tecnologia de captura de movimento equipada. A plataforma Samsung Gear é a mais atraente em termos de mercado potencial, porque a plataforma é mais acessível, pois é um acessório barato para uma plataforma smartfone bem estabelecida. No entanto, o poder de processamento da opção de smartfone exclui-lo da nossa análise.

Em termos de MVP, a proposição de valor mais básica deve ser demonstrada como um protótipo. Seguindo a prova de conceito, novas opções de hardware podem ser escolhidas como elas aparecem no mercado. HMDs ainda estão mudando muito rapidamente, e a tendência é que suas capacidades computacionais vão aumentar, e os seus preços a cair.

 

Rumo a um MVP

 

O título de trabalho para este projeto é VR + S2S (Virtual Reality plus Speech2speech). Procuramos construir um aplicativo para um dispositivo HMD. O produto é essencialmente um “ambiente virtual de colaboração”, idealmente para até cinco pessoas em cinco locais diferentes, falando cinco línguas diferentes, e cada um representado por um avatar que reproduz seus movimentos e expressões.

O objetivo geral da visão deste projeto é criar uma plataforma para a colaboração, onde os problemas de lugar e língua falada para reuniões humanas são reduzidos usando as tecnologias de tradução VR e S2S.

Existem todos os tipos de questões que surgem a respeito de um projeto tão ambicioso. Algumas perguntas são essenciais, que vou listar brevemente aqui, mas que estão além do escopo do MVP. Por exemplo, reconhece-se que este projeto exige a criação de um diretório de usuários, de alguma forma no molde de uma plataforma de “LinkedIn” ou de mídia social, que traduz automaticamente todos os termos de pesquisa e todos os resultados de uma máquina de busca. Esta parte precisa ser desenvolvida para abordar a questão de como os usuários podem se encontrar com pessoas relevantes.

A estratégia que eu escolhi é focar na ideia central essencial do projeto, seguindo a visão de Eric Ries ‘The Lean Start Up’ (2011) e para trabalhar o mais rápido possível para testar a viabilidade do pressuposto central: É possível criar um espaço de colaboração VR, com capacidades S2S. Responder a perguntas relacionadas à viabilidade me levou a pesquisar o estado da arte em plataformas para reuniões colaborativas remotos e qual é a possibilidade de desenvolver um VR S2S ‘Minimum Viable Product‘. Esta pesquisa tem sido essencial para ser capaz de avaliar que tipo de produto pode realmente ser oferecido para o mercado.

 

Trabalhos a serem [‘Jobs to be done’] feitos para o MVP:

 

1. Crie um “ambiente de colaboração virtual compartilhado”

 

Um ambiente virtual compartilhado no qual as 5 pessoas podem se interagir. Inicialmente isso deve ser feito de forma tão simples quanto possível, uma sala simples com uma mesa e assentos. Este passo requer a construção de um ambiente virtual simples, que é acessível através de uma conexão de Internet. Para que os participantes possam entrar neste espaço virtual, eles podem utilizar um dispositivo HMD, como um Oculus Rift ou HTC Vive.

Essencialmente, esta é uma simples tarefa de programação de realidade virtual.

 

2. Representação de avatar virtual

 

O objetivo é ter uma reunião virtual cara a cara, e isso exige que a aparência dos usuários, a posição do corpo e a expressão facial sejam mapeados em tempo real para o avatar do usuário na sala de reuniões.

Há essencialmente dois trabalhos a serem feitos nesta seção, em primeiro lugar para exibir com precisão a expressão facial e, exibir com precisão informações posturais do mundo real para o ambiente virtual.

Os limites atuais de tecnologia limitam a realização desta etapa do projeto, por causa das implicações de renderização gráfica. Atualmente não é viável para a tecnologia de reconhecimento facial fornecer uma representação realista do rosto de um indivíduo e movimento em um cenário de realidade virtual 3D, através de conexão à Internet, especialmente para cinco pessoas.

O reconhecimento postural pode ser conseguido usando um dispositivo Microsoft Kinect, ou o dispositivo Xtion Pro Live da ASUS, ou os Controladores de Movimento da HTC Vive.

Outra pergunta surge aqui é: como executar um algoritmo de mapeamento facial se o usuário está vestindo um HMD? Esta pergunta foi respondida por uma equipe de pesquisadores em torno da Universidade do Sul da Califórnia, liderada por Hao Li, que desenvolveu um algoritmo de reconhecimento facial para determinar a expressão facial debaixo de um dispositivo HMD.  Nesta experiência, um HMD modificado, com uma câmera anexada a ele olhando para o rosto do usuário é usado para capturar a expressão do usuário.

Uma pergunta que eu procuro responder é qual é o nível de realismo necessário para um encontro virtual? Eu sinto que uma renderização de linguagem corporal básica, posição de cabeça, bem como expressão facial são aspectos importantes. No entanto, o realismo dos avatares dos usuários não necessariamente precisa ser cinematográfica. Em primeiro lugar, a tecnologia VR não é capaz de capturar e transformar imagens do rosto e da postura em tempo real para em um ambiente 3-D, porém um avatar simplificado a expressão básica e a postura pode ser suficiente, especialmente para um MVP. Um fator aqui é algo chamado “o efeito do vale uncanny“, isso se refere à observação de que as pessoas se sentem mais desconfortáveis em ambientes VR muito realistas, com avatares realistas, do que com avatares que são intencionalmente menos real. Esta hipótese sugere que se a nossa tecnologia não pode oferecer renderização muito realista, isso não é necessariamente de suma importância.

 

3. Traduzir simultaneamente mais de um idioma ao mesmo tempo

 

Enquanto existe produtos que oferece reuniões em realidade virtual, nenhum dos quais eu observei ofereceu a capacidade de tradução simultânea. O MVP precisa oferecer um serviço de tradução, que funciona o mais rápido possível.

 

Pesquisa de inteligência de negócios

 

Tenho realizado uma extensa pesquisa sobre o estado da arte da tecnologia de realidade virtual e tecnologia de tradução automática, a fim de determinar as possibilidades tecnológicas para a realização deste projeto.

O argumento de negócios para o investimento em uma tecnologia de reunião virtual cara a cara, com tradução simultânea é o seguinte: A solução proposta é uma necessidade por causa de tendências crescentes para terceirização e trabalhos expropriados para fora do pais de origem. Enquanto terceirização para escritórios / pessoas em outros países tornam os processos mais baratos, também faz a comunicação e a colaboração mais difícil. Há uma demanda por tecnologias que possibilitam a colaboração entre plataformas e equipes localizados em distantes lugares, e tem sido reconhecido que reuniões cara a cara são muito importantes para a coesão da equipe.

“A colaboração bem-sucedida e o desempenho da equipe depende, em certa medida, da socialização dos membros de equipes dispersas”. (OSHRI 2007: 26)

 

Há várias outras oportunidades que essa tecnologia poderia oferecer: é adequado para reuniões internacionais de conselhos administrativos, grupos de trabalho de organizações internacionais e projetos colaborativos entre equipes remotos.

 

Estudo de viabilidade da realidade virtual para reuniões colaborativas

 

Essa ideia para reuniões de realidade virtual imersiva, com tradução simultânea é fascinante, no entanto, é na área de “Design de Produto”, idealmente agora eu teria uma conversa com um “engenheiro de produto” para caber o projeto dentro dos limites da tecnologia atual.

Tenho conduzido pesquisas sobre o que é possível com a realidade virtual atual, que é relevante para este projeto, e há uma série de perguntas que e preciso responder para fundamentar esse produto dentro das possiblidades de tecnologia.

Essencialmente, eu estou falando sobre um produto que utiliza um Head Mounted Display [HMD], e fones de ouvido para transmissão de som. O HMD permite ao usuário entrar e experimentar a realidade virtual, ver outras pessoas lá, e ser capaz de interagir com eles.  O aspecto da tradução é relativamente simples, pois isso pode ser feito através de um fone de ouvido e microfone. O design do próprio ambiente 3-D também é relativamente simples.

O que também é essencial é uma câmera que pode capturar o] movimento e expressão facial de cada usuário. Dado os limites da tecnologia, não é possível que a câmera do meu computador capture os movimentos e expressões faciais.  Há muitos problemas relacionados a isso, como os seguintes:

Para capturar o meu posicionamento para representar com precisão o meu posicionamento corporal na VR, cinco câmeras seriam necessárias, em cinco quadrantes à minha volta, de modo que se eu estivesse sentado em uma mesa redonda virtual, os lados do meu rosto seriam exibidos com precisão, as pessoas sentado ao meu lado também exigiria uma Figura diferente daquelas sentadas em frente a mim.

 

Microsoft Kinect – Captura de Movimento [Motion Capture]

Para a postura, a questão de como captura posturas corretas dos usuários pode ser resolvido através do uso de um rastreador de movimento ‘Kinetic’ da Microsoft para uso em plataformas de jogos, embora isso dê uma captura de Figura ‘plana’, que é ok para um professor na frente da classe, mas não e adequado para uma mesa redonda.

O acompanhamento esquelético ao vivo pode ser renderizado [rendered] ao vivo em um avatar em um ambiente virtual usando sensores de Figura em profundidade, como um dispositivo Microsoft Kinect, a tecnologia Xtion Live da ASUS. O dispositivo Kinect da Microsoft é atualmente usado em videogames e tem a capacidade de rastrear movimentos esqueléticos dentro do campo de visão do Kinect.

A tecnologia Kinect tem sido usada para demonstrar que uma pessoa poderia ajudar outro através da VR em lugares distintos. Por exemplo, Tecchia (2012) realizou um experimento para demonstrar a possibilidade de colaboração em gestos de mão usando uma câmera Kinect para mapear a posição das mãos.

A tecnologia Kinect também tem sido usada por pesquisadores na Índia para projetar imagens 3D em tempo real de pessoas no mesmo espaço, no sentido de tornar o eLearning mais realista.  O dispositivo Kinect captura a Figura dos usuários e exibe-a na tela, em um espaço virtual compartilhado com outro usuário conectado do Kinect em um espaço físico separado. (Guntha 2017). No entanto, de acordo com a comunicação pessoal com o líder deste projeto Ramesh Guntha em 2017, esta tecnologia funciona melhor para ambientes de sala de aula do que reuniões de mesa redonda. A dinâmica para a captura de uma mesa redonda é muito mais complicada, é necessário um conjunto com pelo menos três câmeras, a fim de capturar os ângulos obstruídos de cada participante (Guntha 2016), porém esta configuração leva a uma experiência muito mais imersiva do que a uma câmera só. Para uma mesa redonda, poderia utilizar várias câmeras para capturar os diferentes lados do indivíduo, a fim de ter informações suficientes para fazer uma representação em realidade virtual da posição do usuário.

A “colaboração remota em tempo real” entre equipes em diferentes países também foi alcançada usando Realidade Virtual e Kinect para a indústria de manufatura. Oyekan (2017) descreve a criação de uma infra-estrutura de colaboração remota para a montagem de automóveis usando sensores de Figura em profundidade (Kinect) e um protocolo de transferência de dados síncrono. Em um experimento, uma equipe de engenheiros no Reino Unido e uma equipe na Índia foram capazes de colaborar na mesma tarefa física de fixação de uma barra de teto em cima de um carro. Nesta experiência, o dispositivo Kinect foi usado para representar a postura correta do usuário em um ambiente 3D como um avatar.

 

Projeto IKinema da empresa Orion

 

O exemplo de captura de movimento mais interessante vem da empresa especializada IKinema que desenvolveu um sistema de captura de movimento de baixo custo usando a plataforma HTC Vive. Nesta experiência, são utilizados três rastreadores de captura de movimento e três controladores padrão. Os dados dos usuários são transferidos com muita precisão para um ambiente virtual. (James 2017) Uma demonstração do projeto está disponível em um vídeo do Youtube (em anexo).  O nível de realismo fornecido pelo IKinema demonstra uma prova de conceito para captura de movimento eficiente em termos de custo. A tecnologia de rastreamento utilizada pelo

Usando um HMD VR, como o HTC Vive, controladores de movimento e apenas três novos Vive Rastreadores, Orion pode ser usado como um sistema de captura de movimento de alta qualidade, flexível e acessível. A mesma abordagem pode ser aproveitada para fornecer o rastreamento de corpo de realidade virtual, significando que um usuário de VR pode ter seus movimentos capturados e reproduzidos enquanto estão dentro de uma determinada experiência, levando a imersão para novos níveis. (Site da IKinema Orion).[15]

 

IKinema Orion é vendido como uma tecnologia licenciável (por US $ 500 por ano), assim, poderia ser facilmente incorporado neste projeto. Na Figura 7 abaixo, podemos ver como a tecnologia do Ikinema consegue mapear posturas dos usuários por dentro de um ambiente virtual.

ikenema

Figura 7: Como Ikinema captura movimento postural, e transfere para um ambiente VR.[16]

 

Expressão Facial

 

Entende-se que a expressão facial é importante para tornar a reunião o mais realista possível, no entanto, se os usuários estão vestindo HMDs volumosos, não podemos ver seus rostos, então como podemos representar com precisão a sua expressão facial?

Essa questão foi respondida por uma equipe de pesquisadores liderada por Hao Li, da Universidade de Stanford, que desenvolveu um algoritmo de aprendizado profundo [deep learning] para a expressão facial, baseada em sinais de movimentos musculares da face inferior e sua correlação com a parte do rosto obscurecida pelo HMD para calcular que expressão um indivíduo está fazendo. (Olsewksi 2016). Este projeto inovador reconhece o seguinte:

Embora a captura de movimento do corpo e as tecnologias de rastreamento permitam aos usuários navegar e interagir em um ambiente virtual, não há solução prática para a detecção precisa do desempenho facial por meio de um VR HMD, já que mais de 60% de uma face típica é ocluída pelo dispositivo. Nosso objetivo é permitir conversas face a face em um ambiente imersivo animando movimentos labiais e oculares altamente precisos para um avatar digital controlado por um usuário usando um VR HMD (Olsewski 2016: 220)

 

Enquanto esse trabalho ainda é um projeto de pesquisa, o algoritmo que eles estão usando poderia ser muito útil para permitir o reconhecimento facial para reuniões virtuais de HMD.

Os desafios de viabilidade que precisam ser pesquisados mais detalhadamente incluem os requisitos computacionais para renderização de captura de vídeo ao vivo em um avatar 3D. Se a quantidade de informações necessárias é demais para uma conexão cliente / servidor. Fukuda (2006) escreve sobre a experiência de colaboradores em um projeto arquitetônico se encontrando virtualmente e caminhando juntos pelo site do projeto arquitetônico proposto. Ele explica que isso é possível usando a tecnologia ‘Cloud VR’, embora seja necessário um computador PC com GPU de alta especificação (Graphics Processing Unit).

  1. Talvez o realismo não seja o fator mais importante e, portanto, o problema de 3 acima não é necessariamente tão significativo. A pesquisa de VR mostra que a “realidade” não é necessariamente aquele fator importante para a interação em um espaço virtual. De acordo com a teoria “Uncanny Valley“, personagens muito humanos podem evocar sentimentos de desconforto em um ambiente virtual (Stein 2017). Dadas as dificuldades de representação computacional de recriar perfeitamente a Figura do indivíduo em um ambiente 3D, é interessante que talvez não seja de suma importância que um avatar em um ambiente virtual seja muito realística. Uma linha de pesquisa seria testar a possibilidade de renderizar com precisão expressões faciais, posiçoes de cabeça e postura, bem como voz em um avatar feito mais no estilo de desenho animado do que cinematograficamente ‘real’, e ver se esta forma de comunicação seria viável para potenciais usuários.

 

Mindmaze

 

Uma empresa de neurociência e computação chamada Mindmaze desenvolveu uma máscara com sensores a serem colocados sob um HMD, que pode mapear expressões e transferi-las para um avatar VR. Este produto está em fase de desenvolvimento, e a empresa está desenvolvendo a tecnologia a ser utilizada com existentes fabricantes de HMD, como os sensores poderiam ser colocados em dispositivos existentes. Figuras 8 e 9 abaixo mostra os sensores do Mindmaze no parte interior de um dispositivo HMD, e mostra como a expressão do usuário pode ser mapeado para um avatar em realidade virtual.

mindmaze

Figura 8: A transferência de expressão facial da realidade para um avatar em VR usando sensores do Mindmaze dentro do dispositivo.[17]

mindmaze2

Figura 9: Sensores Mindmaze no dispositivo HMD[18]

 

Benchmarking de Realidade Virtual e tecnologia de reunião colaborativa

 

3DiO

 

A tecnologia parecida do VRS2S existe, um exemplo é o projeto 3Dio, desenvolvido no centro para a engenharia integrada (CIFE) no Universidade de Stanford. De acordo com um artigo da mídia[19], o CIFE de Stanford está desenvolvendo uma “solução virtual de lugar de encontro” na forma de um “ambiente virtual imersivo”, o artigo explica que o projeto, conhecido como 3DIO, está nos estágios iniciais de desenvolvimento:

 

Em um mundo onde as equipes globais são cada vez mais prevalentes, os pesquisadores da Stanford CIFE criaram uma solução virtual para reuniões, com certeza para ser um avanço na indústria AEC. 3DiO é um ambiente virtual imersivo, desenhado a partir da ideia de um Obeya, o termo japonês para uma sala grande ou sala de guerra. Imagine WebEx junto com Second Life e você tem 3DiO – uma mudança refrescante para qualquer um que se sentou em uma reunião de coordenação de BIM longa e chata. Esta tecnologia ainda está em estágios iniciais de criação, mas tudo o que vem de Stanford CIFE vale a pena manter um olho. (Techlink 2017).[20]

 

No entanto, a única informação sobre este projeto é que um discurso de 20 minutos foi apresentado em Stanford em 2015[21], mas nada mais. Isso demonstra que as instituições de vanguarda como Stanford estão dedicando recursos para esta aplicação da tecnologia VR.[22]

 

Rummii do Doghead Simulations

 

Uma tecnologia que chegou ao mercado é fornecida pela Doghead Simulations. Esta empresa oferece uma produto chamado “Rumii”, uma ferramenta para reuniões em VR para a colaboração entre os membros de uma equipe em lugares remotos, a fim de realizar Planejamento Ágil, Desenvolvimento Sprint e Gerenciamento de Projetos. O Rumii é executado em um serviço de VR de nuvem baseado em assinatura.

Além disso, a Cisco Systems é líder de mercado em videoconferência de tele presença no meio 2D.

 

Pluto VR

 

Foi anunciado que Pluto VR arrecadou US $ 13,9 milhões para construir uma plataforma de comunicação VR em abril de 2017.

Pluto VR quer ser a aplicação que usamos para falar com outras pessoas que também estão usando um aparelho de realidade virtual (HMD) ou aparelho de realidade aumentada [Augmented Reality]. A startup de Seattle com três anos está desenvolvendo algo como o Skype ou o Facebook Messenger – um aplicativo de comunicação que pode ser executado por conta própria ou junto com outras experiências – mas para a realidade virtual. (Levy 2017)

 

Espaços Sociais Virtuais

 

Existem algumas plataformas sociais que usam o meio VR, como VRChat, onde se pode criar mundos e interagir com outros usuários. VR Chat atraiu US $ 1,2 milhão em financiamento semente em 2016. Altspace VR é um espaço social projetado para reunir usuários de VR no espaço virtual. Bigscreen VR, iniciado com US $ 3 milhões de financiamento de Andreesen Horowitz oferece, entre outras coisas, a possibilidade de “colaborar em salas virtuais com seus colegas de trabalho.[23]” Além disso o Facebook, que comprou o Oculus Rift em 2014 por $2 bilhões de dólares, lançou “Facebook Spaces” na sua conferencia para desenvolvedores (F8) em abril 2017, um aplicativo social para realidade virtual (Bell 2017).

 

Avaliação dos produtos oferecendo reuniões em VR

 

Olhando os produtos que Doghead, Bigscreen, Pluto VR, ou Facebook Spaces oferecem, podemos ver que a experiência do usuário é bastante limitada como as capturas de tela de suas aplicações mostram. Figuras 10, 11 e 12 mostra que a tecnologia utilizada por essas empresas não inclui mapeamento de postura ou expressões faciais.

 

Rumii do Doghead:

doghead

Figura 10: Uma reunião em sala VR oferecido pelo desenvolvedor Doghead[24]

 

Bigscreen VR:

bigscreen

Figura 11: Captura da tela do aplicativo BigScreen VR[25]

 

Pluto VR:

 

Figura 12:  Reunião em VR no ambiente do Pluto VR[26]

É claro a partir das imagens que não há movimento de rastreamento ou representação precisa do usuário. Isto incentiva a ideia de que o projeto que procuro desenvolver é original.

 

Benchmarking da Tecnologia de Tradução de Discurso a Voz (S2S)

A tecnologia de tradução está avançando rapidamente e grandes empresas de tecnologia como o Google e a Microsoft (Skype) investiram bastante recursos no desenvolvimento desta tecnologia. O Google Tradutor e o Skype Translator são líderes no campo.

 

Skype Translator

 

O Skype Translator é um mecanismo de tradução S2S que usa Tradução Automática [Machine Translation] e Reconhecimento de Voz Automatizado. No entanto, a tecnologia ainda está sendo aperfeiçoada: “Nós temos trabalho para fazer ainda para alcançar totalmente sem emenda, tradução de voz em tempo real.” (Lewis 2015). Em abril de 2017, a Skype começou a oferecer tradução instantânea de fala japonesa.[27]

 

Waverly Labs’ Pilot

 

Waverly Labs desenvolveu um kit de fone de ouvido S2S, que funciona usando um aplicativo de telefone celular e dois fones de ouvido, ele será lançado comercialmente em setembro de 2017. O desenvolvimento deste produto demonstra uma prova de conceito para a tecnologia de tradução voz para voz [Speech to Speech].Figura 13 abaixo mostra a aparência do Pilot e como o dispositivo utiliza inteligência artificial para fazer um síntese e um reprodução de um fala para outro.

s2s

Figura 13: funcionamento do Waverly Pilot[28]

 

Mymanu Clik

 

Uma empresa britânica chamada Mymanu lançou um dispositivo que encaixe na orelha e faz tradução fala para fala, impulsionado pelo software APTX. [29]   O software das empresas pretende oferecer a tradução de 37 línguas, fala a fala, ao vivo.

Análise de tecnologias fala para fala [Speech to Speech] disponíveis.

A interface S2S não é nova na computação, e de acordo com os programadores com quem conversei, não é difícil oferecer essa capacidade em um aplicativo. Existem ferramentas de programação de código aberto disponíveis, como Uima, Galaxy e Open Agent. (Aminzadeh 2009)

Em termos de aplicações S2S comercialmente disponíveis, o Waverly Labs Pilot, Mymanu e o Skype oferecem as soluções mais avançadas.

 

Conclusão: Definição da MVP

 

Expressão facial e rastreamento de posição corporal

 

Como já sondamos os limites tecnológicos e as ofertas existentes no mercado, um MVP pode ser considerado.

O MVP utilizará a percepção de dois recursos-chave, o Projeto Orion da IKinema e a pesquisa de Olszewski (2016) / tecnologia Mindmaze para mapeamento facial. O Projeto Orion demonstrou que é possível mapear com precisão a posição do corpo na VR, e Olszweksi e projeto Mindmaze demonstrou que é possível mapear expressões faciais,

O HMD que usaremos será um Módulo HTC Vive, e exigiremos uma licença para a tecnologia de rastreamento, “Lighthouse Tracking” do HTC. O Vive precisará ser adaptado com uma câmera frontal para registrar as expressões faciais do usuário, seguindo a pesquisa de Olszewski e todos., ou buscamos cooperação com Mindmaze.

Se o MVP for capaz de demonstrar a expressão facial e o mapeamento da posição do corpo em um ambiente VR, isso já seria um passo significativo.

As próximas etapas deste projeto incluem:

  • Outros testes de viabilidade para replicar a pesquisa de Olszewski et al, ou Mindmaze e as experiências conduzidas pelo Projeto Orion da IKinema.
  • Iniciando uma relação de colaboração com a IKinema e a equipe de Olszewski ou Mindmaze, usando os princípios de Open Innovation. Dado que o software do IKinema é licenciável por US $ 500 dólares por ano, isso facilita o processo.

MVP e Inovação Aberta

 

Para o MVP, e dadas limitações tecnológicas, será suficiente ter uma representação humana do usuário, o que eu sinto que é mais importante é uma correta representação postural e expressão facial básica. Se pudermos obter acesso ao algoritmo de reconhecimento facial de Olszewski, podemos procurar algumas representações rudimentares de emoções básicas, o que ainda nos daria um produto interessante, a ser desenvolvido. Idealmente, uma relação de inovação aberta, obter licenças para usar sua tecnologia seria ideal. Em termos de gestão da inovação, faz mais sentido engajar a equipe de pesquisa de Olszewski e o Projeto Orion da IKinema, trabalhando em colaboração para desenvolver um produto comercializável. A tecnologia da Mindmaze também poderia ser usada em conjunto com o IKinema para resultados interessantes.

Em termos de uso de tecnologia, dada a rápida velocidade com que o hardware VR está se desenvolvendo, o MVP precisa demonstrar conceito, como as especificações técnicas vão mudar à medida que as coisas avançam ao longo dos próximos anos.

 

Lições aprendidas

 

As lições aprendidas deste exercício incluem: Um reconhecimento do alto nível de complexidade envolvido em um projeto de inovação tecnológica. A indústria de VR tem muitos atores, no entanto cada um está operando em uma capacidade empresarial, em um estado de fluxo sem garantias de que a tecnologia não será supercedida por outra pessoa. A rápida evolução tecnológica também significa que um projeto de inovação nesta área deve olhar para os desenvolvimentos que provavelmente serão feitos num futuro próximo e planejar adequadamente.

Outra questão de complexo é a questão da venda do produto e da comercialização. Neste artigo, analisei a viabilidade tecnológica de fazer um MVP para este projeto, porque tive a necessidade de verificar se a ideia para o projeto era tecnologicamente viável ou não. Reconhece-se que a ideia pode ser de interesse para um grande número de pessoas, no entanto, este número de pessoas precisa ser dividido pelo total de pessoas que têm acesso a um HMD, que e bem menos dado o atual preço alto dos dispositivos, o gerente de projeto precisa estar ciente que o custo dos HMD para consumidores tem que ser reduzido para que o produto seja comercializado em massa. No entanto, se o projeto é capaz de demonstrar o reconhecimento facial e acompanhamento de movimento, uma parceria poderia ser estabelecida com empresários com capacidades especificas em marketing para poder melhor comercializar o projeto. Tenho considerado a experiência do usuário da tecnologia [“User Experience] para este projeto, mas como a tecnologia é tão nova, precisamos verificar para ver se ele funciona, antes de poder testá-lo com potenciais consumidores.

Este projeto precisa de um prazo um pouco mais longo do que o futuro imediato. Um protótipo precisa ser construído, com uma equipe que tem conhecimento matemático e de linguagens de programação, uma vez que o protótipo é construído, a maneira que o projeto pode ser vendido pode ser discutido, no entanto essa discussão pode ser discutida na fase de investimento em capital de risco.

 

 

 

Referências

 

AMINZADEH, A. Ryan; SHEN, Wade. Advocate: A Distributed Architecture for Speech-to-Speech Translation. LINCOLN LABORATORY JOURNAL, v. 18, n. 1, 2009.

BEER, Stafford. World in torment: A time whose idea must come. Kybernetes, 2013.

BEER, Stafford,Beyond Dispute: The Invention of Team Syntegrity, 1994, Chichester: Wiley

CHRISTENSEN, Clayton M.; RAYNOR, Michael E.; MCDONALD, Rory. Disruptive innovation. Harvard Business Review, v. 93, n. 12, p. 44-53, 2015.

FUKUDA, Tomohiro e todos  Development of the environmental design tool “Tablet MR” on-site by mobile mixed reality technology. Proceedings of The 24th eCAADe (Education and Research in Computer Aided Architectural Design in Europe), p. 84-87, 2006.

GIGANTE M, Virtual reality: definitions, history and applications. In: Earnshaw RA, Gigante MA,

GUNTHA, Ramesh; HARIHARAN, Balaji; RANGAN, P. Venkat. CMAC: Collaborative multi agent computing for multi perspective multi screen immersive e-learning system. En: Advances in Computing, Communications and Informatics (ICACCI), 2016 International Conference on. IEEE, 2016. p. 1212-1218.

GUNTHA, Ramesh; HARIHARAN, Balaji; VENKAT RANGAN, P. WWoW: World Without Walls Immersive Mixed Reality with Virtual Co-location, Natural Interactions, and Remote Collaboration. In: Intelligent Technologies for Interactive Entertainment: 8th International Conference, INTETAIN 2016, Utrecht, The Netherlands, June 28–30, 2016, Revised Selected Papers. Springer International Publishing, 2017. p. 209-219.

KIM, W. Chan; E MAUBORGNE, Ren. Blue ocean strategy, expanded edition: How to create uncontested market space and make the competition irrelevant. Harvard business review Press, 2014.

LEWIS, William D. Skype translator: Breaking down language and hearing barriers. Translating and the Computer (TC37), 2015.

OLSZEWSKI, Kyle e todos., High-fidelity facial and speech animation for VR HMDs. ACM Transactions on Graphics (TOG), v. 35, n. 6, p. 221, 2016.

OSHRI, Ilan; KOTLARSKY, Julia; WILLCOCKS, Leslie P. Global software development: Exploring socialization and face-to-face meetings in distributed strategic projects. The Journal of Strategic Information Systems, v. 16, n. 1, p. 25-49, 2007.

OYEKAN, John e todos., Remote real-time collaboration through synchronous exchange of digitised human–workpiece interactions. Future Generation Computer Systems, v. 67, p. 83-93, 2017.

RIES, Eric, The Lean Start Up, 2011, Uk: Penguin

STEIN, Jan-Philipp; OHLER, Peter. Venturing into the uncanny valley of mind—The influence of mind attribution on the acceptance of human-like characters in a virtual reality setting. Cognition, v. 160, p. 43-50, 2017.

TECCHIA, Franco; ALEM, Leila; HUANG, Weidong. 3D helping hands: a gesture based MR system for remote collaboration. In: Proceedings of the 11th ACM SIGGRAPH International Conference on Virtual-Reality Continuum and its Applications in Industry. ACM, 2012. p. 323-328.

Websites e artigos no internet

 

50 Virtual Reality Technologies in architecture and engineering, ViaTechnik,, 2016, disponível em: https://www.viatechnik.com/resources/50-virtual-reality-technologies-in-architecture-engineering-and-construction/ acessado abril, 2017

Altvr.com, disponível em www.altvr.com acessado abril 2017

Amazon, disponível em www.amazon.com acessado abril 2017

Bell Karissa, Facebook’s first social VR app is cool — but there’s a problem, 04.18.2017, disponivel: http://mashable.com/2017/04/18/facebook-spaces-virtual-reality/#958S4iRAmSqQ, acessado maio 2017.

BigScreenVR, disponível em www.bigscreenvr.com acessado abril 2017

Doghead Simulations, disponível em http://www.dogheadsimulations.com

Digi-Capital, Augmented/Virtual Reality to hit $150 billion disrupting mobile by 2020, April 2015, disponível em http://www.digi-capital.com/news/2015/04/augmentedvirtual-reality-to-hit-150-billion-disrupting-mobile-by-2020/#.WOj_-Pnyvic acessado abril, 2017

Faperj, disponível em www.Faperj.br acessado abril, 2017

Finep, disponível em www.finep.gov.br acessado abril, 2017

Google, 2017, disponível em https://x.company/about acessado abril, 2017

HERNANDEZ, Pedro, Skype Translator Now Works With Japanese for Video and Voice Calls, eWeek, April 2017, disponível em: http://www.eweek.com/cloud/skype-translator-now-works-with-japanese-for-video-and-voice-calls acessado abril, 2017

IKinema project Orion, full body mocap from 6 HTC-Vive Trackers, Feb 20167, Youtube, disponível em: https://www.youtube.com/watch?v=Khoer5DpQkE acessado abril, 2017

Internet Live Stats, disponível em: http://www.internetlivestats.com/internet-users/ acessado  8 April 2017

JAMES, Paul, Tech Industry Heavyweights Debate the Future of VR at AMD ‘VR Advisory Council’, julio 2015, Road to VR, disponível em http://www.roadtovr.com/tech-industry-heavyweights-debate-the-future-of-vr-at-amd-vr-advisory-council/  acessado abril, 2017

JAMES, Paul, Watch: IKinema’s HTC Vive Powered Full Body Motion Capture System is Impressive, Feb 2017, Road to VR, disponível em: http://www.roadtovr.com/IKinema-project-orion-shows-impressive-motion-capture-just-6-htc-vive-trackers/ acessado abril, 2017

IKinema Orion, disponível em: https://IKinema.com/orion acessado abril 2017

LEVSKI, Yariv, Cutting the Cord: Virtual Reality Goes Wireless, App Real, 2016, disponível em: https://appreal-vr.com/blog/virtual-reality-goes-wireless/ acessado abril, 2017

LEVY, Nat, Pluto VR raises $13.9M to build out virtual reality communication platform, Geekwire, April 13th 2017, disponível em: http://www.geekwire.com/2017/pluto-vr-raises-14m-to-build-out-virtual-reality-communication-platform/ , acessado abril 2017

Mindmaze, www.mindmaze.com, acessado abril 2017

MIT Global Innovation Fund, disponível em http://www.globalinnovation.fund/ acessado abril, 2017

Mymanu Clik, www.mymanu.com, acessado abril 2017

ROBERTSON, Adi, This VR face mask can read your emotions, The Verge, April 2017, disponível em http://www.theverge.com/2017/4/13/15251616/mindmaze-mask-vr-face-expression-reading-sensors acessado abril 2017

ROBERTSON, Adi, On the Vive’s first birthday, the VR conversation is getting calmer, The Verge, April 2017, disponível em: http://www.theverge.com/2017/4/5/15191326/htc-vive-anniversary-state-of-vr acessado abril, 2017

Stanford University Techincal Advsory Committee 2015, disponível em https://cife.stanford.edu/TAC2015

The State of the Future, Dubai Future Academy, Issue 1, disponível em: http://www.stateofthefuture.ae/res/DFF-DFA-StateoftheFuture-EN.pdf acessado abril 2017

Trusted  Reviews, The world’s first 5G hologram call just happened and the future is officially here, April 2017, disponível em http://www.trustedreviews.com/news/the-world-s-first-5g-hologram-call-just-happened-and-the-future-is-officially-here  acessado abril, 2017

VR Chat, disponível em www.vrchat.net acessado abril 2017

Waverly Labs home page, disponível em: http://www.waverlylabs.com/pilot-translation-kit/ acessado abril 2017

 

 

[1] Gráfico original: CHRISTENSEN, Clayton M.; RAYNOR, Michael E.; MCDONALD, Rory. Disruptive innovation. Harvard Business Review, v. 93, n. 12, p. 44-53, 2015.

 

[2] https://x.company/about

[3] Figura disponível na pagina:  https://x.company/about

[4] Imagen de: http://www.digi-capital.com/news/2015/04/augmentedvirtual-reality-to-hit-150-billion-disrupting-mobile-by-2020/#.WOj_-Pnyvic

[5] “The state of the future”, Dubai p64 available at http://www.stateofthefuture.ae/res/DFF-DFA-StateoftheFuture-EN.pdf accessed March 2017

[6] Fonte: http://www.internetlivestats.com/internet-users/

[7] http://www.theverge.com/2017/4/5/15191326/htc-vive-anniversary-state-of-vr

[8] http://www.roadtovr.com/tech-industry-heavyweights-debate-the-future-of-vr-at-amd-vr-advisory-council/

[9] Imagen de: http://www.businessinsider.com/virtual-reality-headset-sales-explode-2015-4

[10] Todas as imagens e preços de Amazon.com acessado em 08/04/2017

[11] Dados de: http://www.theverge.com/2017/4/5/15191326/htc-vive-anniversary-state-of-vr

[12] Dados de: http://www.theverge.com/2017/4/5/15191326/htc-vive-anniversary-state-of-vr

[13] Dados de: http://www.theverge.com/2017/4/5/15191326/htc-vive-anniversary-state-of-vr

[14] http://www.trustedreviews.com/news/the-world-s-first-5g-hologram-call-just-happened-and-the-future-is-officially-here

[15] https://ikinema.com/orion

[16] Figura de https://ikinema.com/orion

[17] Figura de:  www.mindmaze.com

[18] Mindmaze sensores, fonte: www.mindmaze.com

[19] https://www.viatechnik.com/resou http://www.theverge.com/2017/4/13/15251616/mindmaze-mask-vr-face-expression-reading-sensorsrces/50-virtual-reality-technologies-in-architecture-engineering-and-construction/

[20] https://www.viatechnik.com/resources/50-virtual-reality-technologies-in-architecture-engineering-and-construction/

[21] https://cife.stanford.edu/TAC2015

[22] Esse projeto foi desenvolvido por Kincho Law e Renate Fruchter da Universidade do Stanford

[23] http://bigscreenvr.com/

[24] Figura disponível no segunte site: http://www.dogheadsimulations.com/

[25] Figura disponível no seguinte site: http://bigscreenvr.com/

[26] Figura disponível no seguinte site: http://www.geekwire.com/2017/pluto-vr-raises-14m-to-build-out-virtual-reality-communication-platform/

[27] http://www.eweek.com/cloud/skype-translator-now-works-with-japanese-for-video-and-voice-calls

[28] http://www.waverlylabs.com/pilot-translation-kit/

[29] www.mymanu.com

Advertisements
Advertisements
%d bloggers like this: