O que é e quais os impactos da Computação Quântica

A Computação Quântica, sendo desenvolvida com base nos princípios da Mecânica Quântica, tem como seu principal objetivo o desenvolvimento do computador quântico, ferramenta que será utilizada no processamento de informações computacionais muito complexas, buscas de informações em bases de dados muito grandes, auxiliar no desenvolvimento de inteligência artificial, e outros processos computacionais aplicáveis. A necessidade do desenvolvimento desta tecnologia surgiu após a identificação de um limite no aprimoramento do desempenho de dispositivos computacionais no cenário da computação atual, o que poderia no futuro restringir o desenvolvimento de novas tecnologias que dependem de um poder de processamento significativo.

Principais diferenças entre Computação Tradicional e Computação Quântica

Na computação baseada na arquitetura de Von Neumann atualmente utilizada por computadores, dispositivos móveis, servidores, e diversos outros dispositivos, a unidade de informação básica é o bit, que pode ser ‘0’ ou ‘1’ a qualquer momento, isto é relacionado aos componentes transistores de um processador que podem estar ligados (‘1’) ou desligados (‘0’) e permite a comunicação do hardware e software. Desta forma na computação tradicional existem apenas duas possibilidades para um dado e qualquer informação produzida será uma combinação destes ‘0’ ou ‘1’.

Contudo na computação quântica a unidade de informação básica é o Bit Quântico ou qubit, que além de poder assumir o estado de ‘0’ ou ‘1’, pode assumir ambos estados ao mesmo tempo graças a propriedade quântica de sobreposição, não se trabalhando mais com transistores, e sim com partículas de átomos como fótons ou elétrons. Para entendimento deste artigo podemos considerar que a propriedade de sobreposição determina que: Até que seja observada ou interagida com o mundo real, uma partícula pode assumir dois estados ao mesmo tempo, ou seja, neste caso ela poderia ser tanto ‘0’ como ‘1’. Porém para entender um pouco mais sobre este assunto busque informações sobre o paradoxo Schrödinger’s cat, também conhecido como o gato de Schrödinger.

Esta habilidade do qubit possuir três valores distintos e o fato de se trabalhar com partículas de átomos, tornam a Computação Quântica muitas vezes mais rápida que a computação tradicional para o processamento de cálculos quânticos e tarefas extremamente complexas como a realização de simulações de moléculas.

Principais impactos da aplicação da Computação Quântica

Abaixo será listado o impacto da Computação Quântica em apenas algumas áreas, porém existem diversas outras áreas que serão afetadas. Adicionalmente especialistas acreditam que com a constante evolução da Computação Quântica, o tamanho do impacto em diferentes áreas dependentes de computação deve aumentar significativamente.

Saúde e Medicina

A Computação Quântica teoricamente facilitará a analise de informações genéticas de pacientes, fornecendo maiores informações para possíveis tratamentos, sendo possivelmente aplicada juntamente com uma Inteligência Artificial para melhorar a eficácia de diagnósticos. Possuindo possível aplicação também no uso de radioterapias para calcular a dose correta de radiação a ser utilizada.

Será possível aplicar a computação quântica em maior escala para o desenvolvimento de novos medicamentos e pesquisa de novos tratamentos, pois computadores tradicionais não são capazes de efetivamente simular completamente determinadas moléculas devido a quantidade de processamento necessária, porém computadores quânticos teoricamente cumprirão esta tarefa efetivamente, auxiliando pesquisadores no entendimento de compostos essenciais a vida, e outros conceitos extremamente importantes para o desenvolvimento de medicamentos como a compreensão do enovelamento de proteínas, bem como a simulação da reação de diversas moléculas em nível atômico.

Machine Learning e Inteligência Artificial

Um dos principais requisitos para o desenvolvimento de inteligência artificial é concentrado em Machine Learning, ou “Aprendizado de Máquina”, que em sua grande parte é utilizar algoritmos em grandes conjuntos de dados para efetuar o reconhecimento de padrões. Com o aumento de poder computacional oferecido pela Computação Quântica será possível comparar conjuntos ainda maiores de dados ainda mais efetivamente, acelerando o processo de Machine Learning e o desenvolvimento de inteligência artificial.

Criptografia

Com os recentes avanços em Computação Quântica, especialistas da área de segurança já estão pesquisando e desenvolvendo novos algoritmos de criptografia chamados de “quantum-proof, quantum-safe ou quantum-resistant”, pois existe um consenso nesta área que computadores quânticos suficientemente grandes poderão quebrar qualquer algoritmo de criptografia de chave pública utilizado atualmente utilizando o algoritmo de Shor.

Porem atualmente não há a necessidade de se preocupar com seus dados, pois os computadores quânticos atualmente construídos ainda não possuem o poder de processamento necessário para efetivamente efetuar esta quebra. Adicionalmente algoritmos de criptografia de chaves simétricas e funções de hash ainda são considerados relativamente seguros contra a computação quântica.

Principais desafios da Computação Quântica

Um dos principais desafios atuais da computação quântica é a preservação da informação quântica, ou seja, garantir que o estado desta informação seja preservado e que ela não sofra alterações indesejadas, como por exemplo possuir seu valor alterado. A empresa D-Wave, fabricante de uma linha de computadores quânticos, conseguiu obter sucesso neste requisito através de um sistema de refrigeração que mantém o processador em um ambiente de -273ºC, combinando isto com múltiplas camadas de blindagem magnética. Adicionalmente existe ainda uma certa dificuldade em trabalhar com Computação Quântica devido a sua inerente complexidade, fazendo-se necessário o uso de algoritmos específicos para computação quântica, o que no presente momento em grande parte dos casos ainda não oferece vantagens significativas em relação a computação tradicional.

Outro problema que vale destaque é o preço de desenvolvimento de computadores quânticos, pois são extremamente caros em sua construção. Contudo empresas como Google já estão experimentando trabalhar com esta tecnologia, e a IBM atualmente disponibiliza um serviço experimental de Computação Quântica na nuvem contando com um processador quântico de 20 qubits.

O fim da computação tradicional?

Um dos maiores mitos existentes sobre a computação quântica é que ela irá substituir completamente a computação tradicional, porém especialistas garantem que isto não é o caso em qualquer realidade próxima. O consenso atual de pesquisadores da computação quântica é que ela será utilizada principalmente em grandes aplicações em nuvem e em laboratórios de pesquisa onde suas grandes vantagens sobre a computação tradicional podem ser efetivamente aplicadas. Para o dia-a-dia de usuários a computação tradicional ainda será superior tanto em termos de custo, quanto em desempenho.

Autor: Marcos P. Garbin

IA aplicada a conhecer o perfil do usuário

A Inteligência Artificial está relacionada à capacidade das máquinas pensarem como seres humanos, de terem o poder de aprender, raciocinar, perceber, deliberar e decidir de forma racional e inteligente. Mas como funciona a inteligência artificial e como ela pode nos ajudar a conhecer o perfil de um usuário em uma aplicação.

Ao pegarmos o smartphone já é possível ver o que a IA pode fazer pelo usuário, no entanto por trás de cada recomendação personalizada, até resultados de pesquisa relevantes, existe uma combinação de tecnologias que fazem a inteligência artificial funcionar, e que estão, por consequência fazendo com que você tenha expectativas mais altas sobre todas as máquinas inteligentes e dispositivos que usa.

As tecnologias por trás da IA

Por trás da IA existem várias tecnologias e conceitos utilizados para realizar o processamento dos dados de forma que tragam o resultado esperado conforme as entradas informadas.

  • Machine Learning: A definição de aprendizado de máquina envolve utilizar-se o mínimo de programação usando dados para aprender. Em vez de programar regras para um máquina e esperar o resultado, com machine learning, conseguimos deixar que a máquina aprenda essas regras por conta própria a partir dos dados alimentados.
  • Deep Learning: Envolve algoritmos mais complexos para imitar nas máquinas a rede neural do cérebro humano e aprender uma área do conhecimento com pouco ou nenhuma supervisão.
  • Processamento de Linguagem Natural: O processamento de linguagem natural utiliza-se do machine learning para encontrar padrões em grandes conjuntos de dados puros e reconhecer a linguagem natural. Um dos exemplos de aplicação do PLN é a análise de sentimento, onde os algoritmos podem processar padrões em postagens de rede sociais para compreender como os clientes se sentem em relação a marcas e produtos específicos.
  • Análise Preditiva: A análise preditiva é uma área avançada em analytics que utiliza dados históricos e algoritmos de Machine Learning para fazer previsões sobre eventos futuros desconhecidos e identificar a probabilidade de resultado.
  • Big Data: Podemos entender como grande quantidades de informações, estruturadas ou não, que são a base para determinar padrões e fazer previsões. É o que alimenta a inteligência artificial e os processos de machine learning, deep learning e PLN.

Redes Neurais Artificiais

O cérebro humano possui cerca de 10 bilhões de neurônios. Um neurônio é capaz de criar até 10.000 sinapses com outros neurônios. Se cada ligação for considerada como um bit de informação binária, tem-se 100 trilhões de bits que corresponde a 11,37 Tb de capacidade máxima de memória.

A maior virtude das redes neurais é a capacidade de aprender a partir dos dados de entrada com ou sem um professor. Esta habilidade tem tornado o uso de algoritmos de redes neurais cada vez mais frequentes.

Figura 1 – Representação de um neurônio biológico

Os principais componentes dos neurônios biológicos são:

  • Os dendritos, que têm por função receber os estímulos transmitidos pelos outros neurônios;
  • O corpo do neurônio, também chamado de soma, que é responsável por coletar e combinar informações vindas de outros neurônios;
  • O axônio, que é constituído de uma fibra tubular que pode alcançar até alguns metros e é responsável por transmitir os estímulos para outras células.

No cérebro humano os sinais gerados caminham pelos axônios. Se esses sinais forem superiores a aproximadamente 50 mV (limiar do disparo), seguem pelo axônio. Caso contrário, são bloqueados e não prosseguem (são considerados irrelevantes). Estes sinais na forma de pulsos, caminham pelo axônio a uma velocidade média de 25 m/s. Não é uma corrente eletrônica, mas uma corrente de íons de sódio e potássio. Antes de um sinal entrar no próximo neurônio, deve passar por uma sinapse, que é o processo de ligação entre o axônio e o dendrito. Se este sinal for superior a certo limite, vai em frente, caso contrário é bloqueado e não segue.

Um neurônio recebe sinais através de inúmeros dendritos, os quais são ponderados e enviados para o axônio, podendo ou não seguir adiante. Na passagem por um neurônio, um sinal pode ser amplificado ou atenuado, dependendo do dendrito de origem, pois a cada condutor está associado um peso pelo qual o sinal é multiplicado, estes pesos são a memória.

Os valores dos pesos são estabelecidos por meio do treinamento recebido pelo cérebro durante sua vida útil, ou seja a memorização.

Figura 2 – Representação de um neurônio artificial.

O neurônio matemático, similar ao natural, recebe um ou mais sinais de entrada e devolve um único sinal de saída, que pode ser distribuído como sinal de saída da rede, ou como sinal de entrada para um ou vários outros neurônios da camada superior.

Uma rede neural aprende acerca de seu ambiente por meio de um processo iterativo de ajustes aplicados aos seus parâmetros livres (pesos sinápticos e níveis de bias). A este processo denomina-se de treinamento. Depois de treinada a rede pode ser utilizada em diversas áreas do conhecimento humano, ainda que na ausência de um especialista.

Treinamento

O algoritmo de aprendizagem é escolhido em função do tipo de rede utilizada e das características dos dados que serão a ajustados. Entretanto, o processo é basicamente empírico. Nesta fase, serão ajustados os pesos das conexões. A tarefa do projetista, então, será a determinação dos valores iniciais dos pesos sinápticos, qual o algoritmo de aprendizagem e qual o tempo de treinamento para o aprendizado da rede. O algoritmo de aprendizagem é escolhido em função do tipo de rede utilizada e das características do dados que serão ajustados. Entretanto, o processo é basicamente empírico.

Teste

Durante esta fase, o conjunto de validação é utilizado para determinar o desempenho da rede com dados que não foram apresentados à mesma. Esta fase é a que verifica se a rede não decorou os dados de entrada e válida a rede para a aplicação desejada.

Perceptron

O perceptron é a arquitetura mais simples, apresentando apenas um conjunto de neurônios de entrada e um conjunto de neurônios de saída, sem haver nenhuma camada de neurônios intermediária. Este tipo de rede neural, embora simples, apresenta problemas específicos, não podendo ser utilizada em aplicações mais avançadas. No entanto para exemplificar será utilizado esta arquitetura.

Cases

No entanto a ideia a ser passada aqui, é que a Inteligência Artificial não é um sistema pronto onde simplesmente solicitamos as saídas necessárias, e sim um sistema complexo onde existe a necessidade de coleta de informações e conhecimento, criação de uma base de dados, treinamento da inteligência artificial que será utilizada para retornar os resultados esperado.

A Inteligência Artificial pode ser aplicada para que seja possível o reconhecimento do perfil de usuários, desde que utilizado uma base de conhecimento, um algoritmo de rede neural onde pode-se efetuar o treinamento dos dados que correspondem a um perfil e a partir daí a rede neural poderia classificar e reconhecer os usuários com ou sem a supervisão de uma pessoa.

A Inteligência Artificial está presente em nosso dia a dia:

  • Aplicações como a Siri utilizam processamento de voz para atuar como assistente pessoal;
  • O Facebook utiliza o reconhecimento de imagem para recomendar marcações em fotos;
  • A Amazon faz recomendação personalizada de produtos utilizando algoritmos de aprendizado de máquina;
  • O Waze prevê as melhores rotas a partir da sua localização com apenas um clique, enquanto carros com piloto automático usam as técnicas de IA para evitar engarrafamentos e colisões;
  • O Google consegue preencher automaticamente as buscas utilizando recursos de inteligência artificial e também prever o que você quer pesquisar com grande precisão.

Outro exemplo interessante é o caso da Netflix que se preocupa bastante com o conteúdo que deve ser sugerido para os seus assinantes. A Netflix sempre manteve o olhar nos algoritmos para gerar conteúdos relevantes, baseados nas preferências de seus usuários e, sobretudo, em ambientes externos, como no caso das redes sociais. Outra métrica usada para direcionar as produções é o estudo do comportamento dos usuários. Ou seja, quantas vezes eles pausam o vídeo, voltam ou mesmo assistem a vários episódios sequencialmente, em um determinado período. E, o quanto este comportamento reflete nas menções nas redes sociais.

O Waze por exemplo, é utilizado por motoristas do mundo inteiro, que se conectam uns aos outros e trabalham juntos para aperfeiçoar sua experiências ao dirigir. Para que o Waze possa fornecer a você com precisão a rota ou mais rápida ou mais curta, de acordo com suas configurações, ele necessita de dados precisos de todos os segmentos e rotas vizinhas. O Waze coleta os dados de cada trecho dirigido com o aplicativo aberto. Na próxima vez que uma via específica for percorrida, o Waze saberá como comparar os dados entre cada rota e saberá sugerir a rota ideal, conforme suas preferências.

Autor: Ramon Barros <contato [@] ramon-barros.com>

Referências:

Livro Inteligência Artificial – Noções Gerais. – 3 imp. / Anita Maria da Rocha Fernandes. – Florianópolis: VisualBooks, 2005.

Livro Redes Neurais: Fundamentos e Aplicações com Programas em C. / Ludwig Jr., O. e Costa, Eduard Montgomery M. Rio de Janeiro: Editora Ciência Moderna Ltda. 2007.

https://www.salesforce.com/br/products/einstein/ai-deep-dive/

https://www.youtube.com/watch?v=kMFY_XOQTDg

https://tecnoblog.net/191786/netflix-algoritmo-recomendacoes/

http://revistagalileu.globo.com/Revista/Common/0,,EMI334328-17773,00-ELES+SABEM+O+QUE+VOCE+QUER+VER.html

https://www.techtudo.com.br/noticias/2017/08/como-a-netflix-usa-algoritmos-para-encontrar-a-sua-nova-serie-perfeita.ghtml

http://www.meioemensagem.com.br/home/midia/2016/08/02/stranger-things-e-o-uso-de-algoritmos-pela-netflix.html

https://www.infoescola.com/sistema-nervoso/neuronios/

http://www.gsigma.ufsc.br/~popov/aulas/rna/neuronio_artificial/index.html

Análise de dados: como priorizar as informações mais importantes?

Seja pelo escândalo do Facebook e Cambridge Analytica, pelo nosso mapa traçado detalhadamente pelo Google Maps, ou simples sugestões de compras relacionadas em um e-commerce. Nós temos nossos dados coletados e analisados diariamente usando para o bem, e inevitavelmente, para o mal.

Produzimos uma infinidade de dados, diariamente, deixando cliques e rastros de navegação em todo o universo online. Se observados isoladamente, esses dados podem parecer irrelevantes. Mas através de conceitos da Inteligência Artificial como Machine Learning e outros métodos para a análise de dados, eles já se tornaram um divisor de águas para o avanço do conhecimento em todas as áreas de nossa sociedade. Desde a medicina até à música, do Facebook ao mundo real.

BIG TRASH DATA:

Big data é lixo. Sim, é lixo como aquele pedaço de carne sobrado que vai pro lixo pois não sabemos como reutiliza-lo e fazer um delicioso carreteiro, por exemplo.
Sem metáforas, big data nada mais é do que toda a informação que recebemos mas que involuntariamente deixamos passar, pois não temos capacidade de processá-la e armazená-la no nosso cérebro. Mas a diferença, é que no mundo digital, toda essa informação que produzimos, fica armazenado, e se analisada com atenção, pode ser o estopim para uma revolução na inovação mundial. Desde a sugestão de publicações no Facebook até a descoberta de cura para diversas doenças.

ANALISAR. MAS O QUE ANALISAR?

Quem procura, acha. Mas precisamos saber o que procurar.
Na visão de Steven D. Levitt (Freaknomics), “a economia é uma ciência com instrumentos para chegar a respostas, mas sofre uma tremenda escassez de perguntas interessantes”. O grande sucesso para criarmos relevância em qualquer pesquisa é saber o que realmente queremos saber(!). E para saber, precisamos viver. Entender o contexto do que queremos fazer é essencial, precisamos vivenciar o universo que a pesquisa se baseará, entender o mecanismo e refletir, para então, criarmos as perguntas certeiras e respondê-las através de dados.
Economia de tempo nem sempre é gastar menos tempo.

AFINAL, O QUE É ECONOMIA?

Muitas vezes, pensamos em economia e logo nos vem à mente inflação, taxa de juros, cotação do dólar. Mas a verdade é que a economia vai muito além disso. Ela não se baseia apenas em números, mas sim em comportamento. Ela pode responder perguntas como: “o que mata mais, armas ou piscinas?”, “crianças que têm livros em casa têm desempenho melhor que as outras?”. Para isso, precisamos mergulhar no universo de nossas perguntas e conhecer o contexto.

CAUSALIDADE x CORRELAÇÃO:

Este é um ponto crucial na análise de dados. Precisamos tomar cuidado com nossas análises para não confundirmos causalidade com correlação.

Mas afinal, o que é causalidade e correlação? Correlação é a relação ou semelhança entre duas coisas. Apenas isso. Nem toda correlação acarreta em uma causalidade. Sabe por que? A causalidade requer que, por exemplo, a variável X seja causa da variável Y, e a variável Y é consequência da variável X. Ou vice-versa.

Temos o clássico exemplo da correlação de que “no verão, as mortes por afogamento crescem de acordo com a elevação no número de consumo de sorvete”. Quantos pais não se preocuparam e alertavam os filhos para nã tomarem sorvete na beira da piscina? Essa correlação existe, e realmente no verão, o número de mortes por afogamento aumenta e a venda de sorvetes também. Mas não existe causalidade. Uma coisa não causa a outra. No verão, as pessoas vão mais à piscinas e também tomam mais sorvete. Mas o que mata não é o sorvete, é o nado. A causalidade é o aumento da temperatura.

 

Portanto, a análise de dados é um processo tão simples de ser absorvido, porém complexos de se fazer. Não pelo domínio técnico nem nada, mas sim pela imersão no universo a ser analisado, a fim de obtermos as melhores perguntas e utilizar a análise como meio para obtermos as respostas.

Raphael Chieli Capellari.
Links relacionados: Freaknomics – Ed. Campus -12/04/2005

A importância do mapeamento de processos nas organizações

Somente no mapeamento de processos conseguimos definir visivelmente as falhas, pois assim fica muito mais fácil instituir a melhoria contínua e realizar os ajustes quando necessário. Podemos também identificar os gargalos, demilitar os responsáveis pelas etapas, atividade, processo, estimar os recursos necessários, mão de obra, insumos e estimar tempo de produção. Podemos também definir os padrões dos procedimentos da gestão e do operacional, checklists, definir e revisar funções, responsabilidades e autoridades, definir as atividades que necessitam registro criando formulários padrões, eliminar o re-trabalho para otimizar o tempo disposto. Continue lendo “A importância do mapeamento de processos nas organizações”

O que é o ITIL (Information Technology Infrastructure Library)?

ITIL é uma biblioteca composta das boas práticas para Gerenciamento de Serviços de TI. Criada pelo governo britânico em 1980, tornou-se padrão de fato no mercado a partir de 1990. A ITIL não se trata de uma metodologia e sim de um conjunto de boas práticas adotadas em várias organizações. Atualmente é a framework (framework poderia ser traduzida como “estrutura de processos”) mais adequada para o gerenciamento de serviços para os departamentos de TI. Continue lendo “O que é o ITIL (Information Technology Infrastructure Library)?”

Suporte de TI: Ações que podem fazer a diferença em atendimento a clientes

Com um mundo cada vez mais virtual, as empresas devem estar preparadas tanto para inovações quanto para lidar com reclamações.
O setor de Tecnologia de uma empresa se tornou o coração de qualquer empresa, tudo que envolve algum tipo de máquina envolve tecnologia, seja uma máquina que usa uma programação especifica para produzir certa peça, do computador que é utilizado para gerar as notas fiscais até a internet que é usada para o trabalho. Continue lendo “Suporte de TI: Ações que podem fazer a diferença em atendimento a clientes”

Norma NBR ISO/IEC 12207

A norma internacional ISO/IEC 12207 tem como objetivo principal estabelecer uma estrutura comum para os processos de ciclo de vida e de desenvolvimento de softwares visando ajudar as organizações a compreenderem todos os componentes presentes na aquisição e fornecimento de software e, assim, conseguirem firmar contratos e executarem projetos de forma mais eficaz.

A norma ISO/IEC 12207 estabelece uma arquitetura de alto nível do ciclo de vida de software que é construída a partir de um conjunto de processos e seus inter-relacionamentos. Continue lendo “Norma NBR ISO/IEC 12207”

ISO 9000: A importância das auditorias de qualidade

ISO 9000 é um conjunto de normas e técnicas, sendo utilizadas em diversas organizações. ISO é o termo designado para “International Organization for Standardization”, tendo sua origem na Suíça, em 1947, por uma instituição sem vínculos governamentais, que atua na área de qualificação dos produtos, processos, materiais e serviços. Continue lendo “ISO 9000: A importância das auditorias de qualidade”

O que é a ISO/IEC 9126?

iso2Recentemente notou-se um enorme crescimento na área de desenvolvimento de softwares, pois houve um aumento nas demandas por programas que satisfaçam as necessidades dos consumidores de numerosos segmentos. Isso trouxe a necessidade de softwares que sejam de maior qualidade.
Surgiu então a norma ISO/IEC 9126, com o objetivo de avaliar a qualidade do produto de software. Esta norma é composta por vários atributos e métricas que devem ser abordados em um software para que ele seja caracterizado um “software de qualidade”. Continue lendo “O que é a ISO/IEC 9126?”

A importância do teste de softwares/sistemas

Analise de VulnerabilidadesEste artigo visa mostrar os benefícios e a melhoria contínua na produção de software a partir dos testes em sistemas desenvolvidos, evitando o retrabalho e garantindo assim excelência e qualidade no desenvolvimento de sistemas ou propriamente na qualidade do software das empresas, utilizando o controle de qualidade e o modelo de referência para melhoria do processo de software bem como testes para garantia da boa funcionalidade visando a satisfação e evitando o trabalho dobrado por parte dos desenvolvedores. Continue lendo “A importância do teste de softwares/sistemas”

Backups em Cloud – Vantagens e Desvantagens

Ao falarmos em armazenamento de dados em redes locais, logo lembramos que eles oferecem alto desempenho e disponibilidade de armazenamento acessível via interfaces padrão do setor.

Porém, quando o armazenamento de dados possui um volume considerável, o mesmo acaba se tornando caro e a segurança dessas informações fica cada vez mais preocupante, tendo em vista o seu armazenamento em uma rede local.

O que faz com que esse tipo de armazenamento fique caro, não é apenas o gasto com equipamentos físicos, mas também o gasto com ambiente apropriado para mantê-los e com pessoas para gerenciar esse armazenamento e a sua segurança. Continue lendo “Backups em Cloud – Vantagens e Desvantagens”

O que são os “Gold Farmers”?

 

Artigo_10

É considerada uma nova “profissão” que surgiu juntamente com a popularidade dos jogos multiplayer online. Os jogadores ficam online por horas, criam seus personagens, exploram mundos virtuais, obtêm armas, equipamentos, vencem inimigos, conquistam níveis seguintes, tudo isso com o fim de vender dinheiro do jogo em que acumulam por dinheiro no mundo real.

Grande parte dos gold farmers estão situados na China, onde muitas pessoas estão ligadas a este novo negócio, incluindo prisioneiros que são obrigados pelos chefes de prisão a praticar isto. Grupos de jovens chineses bancam uma vida jogando esses jogos online. Um exemplo de jogo é o World of Warcraft, em que os bens no jogo produzido são vendidos para o dólar real para jogadores de todo o mundo que pagam por isso para facilitar a carreira nos jogos e obter sucesso. Continue lendo “O que são os “Gold Farmers”?”