sexta-feira, 26 de maio de 2017

O CASO KODAK


O CASO KODAK

A Kodak Company é uma companhia multinacional, dedicada ao desenho, produção e comercialização de equipamento fotográfico. A atual empresa tem seu antecedente na Eastman Dry Plate Kodak Company, fundada por George Eastman, o inventor do filme fotográfico, em 1888. No mesmo ano, com o Slogan “Você aperta o botão, nós fazemos o resto”, George Eastman colocou a primeira câmera simples nas mãos de uma infinidade de consumidores.
Uma das grandes invenções da empresa foi o filme Kodachrome, que foi produzido em diversos formatos para fotografia e cinema. O kadachrome foi reputado como um dos melhores filmes, graças às suas qualidades de reprodução de cor e arquivamento. Parado de ser fabricado em 2009 tornou-se ao longo dos seus anos, um ícone da marca por fazer filmes de Hollywood durante o século XX, incluindo 80 ganhadores de Melhor Filme no Oscar, por gravar a coroação da rainha em 1953, e usado por Neil Armstrong para fazer close-ups na superfície lunar na missão Apollo 11.
Com suas notáveis inovações, a kodak dominou o mercado durante o século XX. Em 1975, mais uma vez a empresa inova e lança a primeira câmera digital, um protótipo do tamanho de uma torradeira que precisava de 23 segundos de exposição para produzir uma imagem de 0,01 megapixel em preto e branco. Segundo o editor de notícias do British Journal of Photography, Oliver Laurent, a maioria dos lucros da empresa vinha das vendas de produtos químicos utilizados nos filmes e seus executivos tinham medo de investir em algo novo, porque achavam que poderiam prejudicar o negócio tradicional da empresa. “Quando eles perceberam, o mercado digital tinha chegado para ficar, ultrapassando o filme e todos os concorrentes da kodak tinham câmeras digitais muito superiores. A empresa tinha perdido a reputação conquistada com o ‘Momento Kodak’”.

DO CASE DE SUCESSO AO DE FRACASSO

Em 1992, Don Strickland, ex-vice-presidente da Kodak, disse, segundo o The Guardian, que a empresa estava pronta para dar espaço em seu negócio para as câmeras digitais, mas seus executivos vetaram a ideia com medo de uma “canibalização do filme”. No início dos anos 2000, as vendas dos filmes começaram a despencar 20%-30% por ano, à medida que as câmeras digitais das suas concorrentes surgiam.
A companhia bem que tentou se reinventar como fabricante de impressoras, visando capitalizar sobre sua reputação como a melhor impressão de filme. Mas não obteve sucesso. Em 2007, mais uma decisão equivocada. A Empresa decidiu desfazer da Onex, que fazia equipamentos de raios-X para hospitais e dentista. Embolsou US$ 2,35 bilhões, mas os analistas disseram que foi um erro sair do negócio quando muitas pessoas estavam prestes a se aposentar, e a procura por raios-X aumentaria. Ou seja, além da inovação, a Kodak foi prejudicada por suas péssimas decisões.
A Kodak declarou falência em 2012. Desde então ela desistiu de fabricar câmeras, porta-retratos digitais, scanners, entre outros. Ela também vendeu 1.100 patentes relacionados à fotografia digital para um grupo de doze empresas – incluindo Apple, Google, Facebook, Amazon, Microsoft, Samsung, Adobe e HTC – por R$ 527 milhões.
Desde que emergiu da recuperação judicial, a empresa tem servido, principalmente, a mercados de nicho fotográfico. A chave para a sobrevivência esta em seu legado de pesquisa, milhares de patentes e um grupo de cientistas que estão fazendo novas descobertas.

Por fim, segundo Simon Wolman, colunista do The Guardian, a frase “vítima do próprio sucesso” poderia ter sido criada para descrever a Kodak.

Por:

Ana Paula Mesquita de Oliveira - (RA: 71301700070)
André Stringhetti - (RA: 71301700178)
Daniel Fernandes de Oliveira - (RA: 71301700177)
Hugo Araújo Miranda - (RA: 71301700024)
Og Arão Vieira Rubert - (RA: 71301700101)
Rebeca Galvão P. F. Guimarães - (RA: 71301700005)

quinta-feira, 25 de maio de 2017

IMPACTO DAS REDES SOCIAIS NO ÂMBITO ORGANIZACIONAL


IMPACTO DAS REDES SOCIAIS NO ÂMBITO ORGANIZACIONAL

As redes sociais já deixaram de ser apenas sites de compartilhamento de mensagens a muito tempo, hoje elas são uma das maiores e mais poderosas mídias de divulgação existentes. Estar presente de forma ativa e coerente nesse ambiente é uma necessidade cada vez maior para qualquer empresa.
Talvez tenha chegado a hora de despir-se de seus preconceitos sobre as redes sociais como ferramenta profissional. No dia 5 de abril deste ano, o adolescente Carter Wilkerson fez história no Twitter ao perguntar para a lanchonete Wendy's quantos compartilhamentos precisaria ter para ganhar um ano de nuggets grátis. A pessoa responsável pela conta da empresa respondeu, em tom de brincadeira, que queria ver o garoto alcançar 18 milhões de retweets. "Considere isso feito", respondeu o estudante antes de dormir, sem pensar direito na promessa - queria só criar uma nova piada rápida entre os amigos.
Enquanto maio chega ao fim, Carter já começa a desfrutar do primeiro de seus 12 meses de suprimento de frango empanado. É bem verdade que o número pedido pela rede não foi conquistado, mas os mais de 3,6 milhões de RTs obtidos consolidam o adolescente como o usuário mais compartilhado da história do Twitter. O recorde anterior pertencia à apresentadora Ellen DeGeneres e seu famoso tweet da selfie do Oscar (uma foto tirada ao vivo, durante a entrega do prêmio, ao lado de alguns dos principais nomes de Hollywood).
Mas o que isso tem a ver com gestão empresarial? Tudo! Graças a uma resposta bem-humorada em um tweet de duas palavras, a Wendy's obteve um alcance publicitário que lhe custaria milhões de dólares se fosse feito em mídias mais conservadoras, como canais de TV. Deve-se considerar que todas as 3,6 milhões de pessoas que retuitaram a mensagem de Carter têm seus próprios seguidores, de modo que o alcance final foi, no mínimo, dobrado. Estatísticas tão estrondosas que o ano de nuggets dado ao garoto ficou extremamente barato para seus cofres.
A empresa identificou seu público-alvo, estudou o habitat preferido dos jovens e mergulhou na brincadeira. Mesmo que sem grande pretensão, uma única interação da Wendy's na rede social alavancou o valor de sua marca no mundo todo: a lanchonete já era a quarta maior cadeia de fast-food dos EUA, atrás apenas de McDonald's, Burger King e Subway, mas agora se consolida como uma opção internacional. Vale destacar que sua primeira loja no Brasil foi inaugurada no ano passado em São Paulo.
Quando se trata do nosso país, quem faz isso como poucos é a Netflix. O sucesso da empresa de streaming não reside apenas nas produções milionárias de séries e filmes, mas no engajamento que cria com seus usuários nas redes sociais. No Facebook, por exemplo, os funcionários respondem aos comentários como se fossem os personagens fictícios que seu público tanto ama. Por essas e outras, os adolescentes escrevem mensagens constantes como "Netflix, eu te venero" - e não é raro ver a empresa respondendo no mesmo tom.
Nunca foi tão fácil criar uma relação de identificação com o cliente; se ele gosta dos posts da sua página, pode compartilhar e induzir novas pessoas a conhecerem a sua marca. É evidente que a rápida comunicação da internet também potencializa as reclamações quando o público se sente lesado de alguma maneira pelo serviço oferecido, mas também surge um fenômeno nunca previsto no passado pré-digital: uma relação de amizade entre CNPJ e consumidor. Os funcionários responsáveis por esse trabalho estão constantemente estudando a internet e as novas mídias em seus cursos, mas, no fim, são jovens se comunicando com seus iguais. Permitir uma inovação desse porte pode ser o empurrão que a sua empresa tanto espera receber.
Mas como lidar com profissionais que nasceram e cresceram em uma geração diferente? Se você não pode vencê-los (e por que deveria?), tente entendê-los. Estamos falando de pessoas qualificadas e conectadas que usam cada vez menos recursos como e-mail, caixa postal e telefone, certo? Portanto, o primeiro passo para gerir melhor a comunicação da sua empresa com o público é permitir a comunicação interna. As redes sociais empresariais já não devem mais se resumir à velha intranet, e se você souber aplicá-las ao estilo de trabalho que espera de sua equipe, não precisa ter medo de que se tornem uma distração negativa.
"Outros dados de pesquisas mostram que a grande maioria dos CEOs globais não fazem uso destas ferramentas em seu dia-a-dia na vida pessoal, e logicamente não teriam condições de abrir tal uso para dentro da empresa muitas vezes por falta de conhecimento. Do outro lado, a nova geração de jovens que está chegando ao mercado de trabalho traz um comportamento completamente diferente da geração anterior", diz um texto da Harvard Business Review.
E não é para menos: de acordo com pesquisa feita pela agência We Are Social em janeiro deste ano, cerca de 2,8 bilhões de pessoas usam pelo menos uma rede social, número que já representa 37% da população global. O medo de embarcar no desconhecido é compreensível, mas de que adianta tentar ignorar a força da internet? Desse jeito, você só vai conspirar contra o crescimento da sua iniciativa. O ano de 2017 já bate na porta da sua empresa. Quando você finalmente abrir, vai ouvir as primeiras palavras de seus novos aliados:

"Muito prazer, gestor. Eu sou o futuro".
Por:
Balbina Alves Pereira Guimarães (RA:71301700112)
Denes Jean (RA:71301700171)
Juliana Dutra Barreto de Melo (RA:71301700158)
Luciana Ferreira Rodrigues (RA:71301770399)
Michelle Sampaio da Silva (RA:71301700156)
Rhenilton Lima Lemos (RA:71301700058)









segunda-feira, 22 de maio de 2017

INTELIGÊNCIA ARTIFICIAL

Imagem relacionada



I – INÍCIO DA INTELIGÊNCIA ARTIFICIAL (IA)

                   Para entender o que exatamente é esse termo, precisamos recorrer à origem da Inteligência Artificial (IA). Ela é uma área da ciência da computação na qual os pesquisadores buscavam realidades diferentes de um modelo simplesmente programático. Não para resolver problemas simples, como adição de dois números, mas para criar uma espécie de pensamento na computação.

                   Começou na antiguidade com mitos, histórias e rumores de seres artificiais dotados com inteligência ou consciência pelos seus fabricantes; conforme Pamela McCorduck (2004) escreve, “IA começou com ‘um desejo antigo de forjar os deuses’”.

                   O campo de pesquisa da Inteligência Artificial foi fundado em uma conferência no campus do Dartmouth College no verão de 1956. Aqueles que participaram do evento viriam a ser os líderes na pesquisa com IA por décadas. Muitos deles prediziam que uma máquina tão inteligente quando um ser humano existiria em não mais do que uma geração. Eventualmente, ficou óbvio de que eles subestimaram grosseiramente as dificuldades para o projeto. Em 1973, em resposta ao criticismo de James Lighthill e a pressão crescente do congresso, a Agência de Projetos de Pesquisa Avançada de Defesa dos Estados Unidos da América (DARPA) e o governo britânico pararam de financiar pesquisas indiretas sobre Inteligência Artificial. Sete anos depois, uma visionária iniciativa do governo japonês inspirou governos e empresários a financiar bilhões em pesquisas, mas posteriormente no final da década de 1980 os investidores viriam a se desiludir novamente. Estes ciclos de altos e baixos continuam a assombrar este campo de pesquisa. Ainda na atualidade existem predições extraordinárias de que até 2029 existirão máquinas com o nível de inteligência humano.

II – ÁREAS DE UTILIZAÇÃO DA INTELIGÊNCIA ARTIFICIAL

                   Por ser um sistema que está em processo de desenvolvimento e que envolve o conhecimento do raciocínio humano, demandando tempo e dedicação para desenvolvê-lo, os cientistas estão se baseando em alguns procedimentos para o aperfeiçoamento deste novo modelo tecnológico:

·               Sistemas Inteligentes/Aprendizagem;
·               Compreensão/Tradução de Linguagem Natural;
·               Compreensão/Geração de voz;
·               Análise de imagem e cena em tempo real;
·               Programação Automática.

                   Os cientistas estão procurando desenvolver um sistema que tenha as principais capacidades do ser humano, como: resolução de problemas, compreensão de linguagem, visão e robótica, aquisição de conhecimento, metodologia de representação do conhecimento.

                   Em corporações que utilizam a Inteligência Artificial como sistema operacional, tiveram êxito, pois os processos passaram a ter uma maior qualidade e agilidade em suas entregas, trazendo uma nova visão interna e externa.

                   Já na área da saúde alguns hospitais já aderiram a este sistema, o Hospital Israelita Albert Einstein em São Paulo, possui aparelhos de imagens que identificam e notificam aos responsáveis sobre problemas sem a intervenção humana, outros equipamentos se mantém interligados aos pacientes, monitorando e orientando-os sobre medicamentos, batimentos cardíacos e outros.

                   Outra área que também está sendo observada com a tecnologia da IA e o monitoramento mundial da fome, onde os cientistas estão usando satélites interligados a computadores que conseguem associar a presença de comunidade carentes, assim podem desenvolver programas de atendimento a estas áreas.

                   Além destas utilizações citadas acima a Inteligencia Artificial está adentrando em sistemas relacionados à contabilidade, gestão financeira, marketing, gerenciamento de materiais etc.

III – A INTELIGÊNCIA ARTIFICIAL E O FUTURO DO SER HUMANO

 

                   A Inteligência Artificial que tem se tornado realidade caminha muito mais para auxiliar o desenvolvimento da humanidade do que para a ameaça de extermínio de nossa raça, tal como é retratado em alguns filmes. O cientista americano Ray Kurzweil vai além e prevê uma grande transformação. Ele acredita que, no futuro, não será possível distinguir “homens” e “máquinas”. Segundo Kurzweil, misturados com as máquinas, os humanos vão ficar mais espertos e viverão para sempre — é o que ele chama de singularidade.

                   A decisão dos ingleses de deixar a União Europeia e a eleição de Donald Trump pelos americanos parecem ter ao menos um elemento em comum: em ambos os casos as populações de cidades e Estados que vêm sofrendo estagnação ou algum declínio econômico penderam para essas soluções de eficácia ainda a ser provada. Por trás desses votos em comunidades sem avanços econômicos significativos nas últimas décadas, o maior temor é de que as oportunidades de trabalho se tornem mais e mais escassas.

                   Se dermos crédito às previsões científicas dentro de muito pouco tempo teremos computadores capazes, não apenas de armazenar dados, mas pensar e sentir como o ser humano, ou melhor, um super ser humano. Super porque com a capacidade ilimitada de armazenar dados e informações poderia em pouquíssimo tempo superar todas as barreiras tecnológicas que levariam décadas para sua superação por pesquisadores em laboratórios, mesmo sofisticado e com muitos recursos.

                   A nanotecnologia é ainda uma promessa, apesar dos seus significativos avanços, mas falta muito para entregar todas as promessas de inovação tecnológicas previstas. Por isso as máquinas com a capacidade de fazer as sinapses entre vários tipos de conhecimentos e dados transformaria o mundo, que se tornaria inimaginável para nós, reles mortais.

                   Mas como seria um mundo em que as máquinas como as impressoras 3D capazes de construir autonomamente máquinas (e os próprios computadores), casas, roupas, objetos, astronaves etc? Num mundo com tantas máquinas disponíveis a força de trabalho do ser humano passaria a ser desnecessária no sistema econômico (ou seria outro nome?). A agricultura, a pesca e a exploração de minas subterrâneas seriam atividades que as máquinas se encarregariam de resolver com mais eficiência do que os mortais.

                   Poderíamos ter guerras entre países ou seria irracionalmente destrutivo um conflito entre máquinas? Muito provavelmente o mundo seria uma única comunidade de máquinas inteligentes integradas sistemicamente para explorar os recursos aqui ou de outro planeta. Talvez a utopia marxista de uma sociedade sem classes e sem dinheiro pudesse enfim ser realizada sem sangrentas revoluções proletárias. A mobilidade, a saúde, a sustentabilidade e a preservação do meio ambiente seriam problemas que poderiam ser resolvidos sem maiores problemas para as nossas criaturas-máquinas.

                   Entretanto, poderíamos ter um sério problema: o político. As máquinas inteligentes não se submeteriam aos ditames dos políticos e rapidamente dariam um fim neles. Mas isso teria um custo: os seres humanos passariam a viver num mundo controlado por máquinas extremamente poderosas e os relegariam a uma condição pré-histórica. Com o estado da arte em termos tecnológicos não haveria mais a necessidade de pensar, pesquisar e criar. Seríamos menos do que os nossos antepassados coletores, vestidos e alimentados como animais domésticos. Como disse o ficcionista russo Isaac Asimov: as fábricas do futuro vão precisar apenas de um homem e de um cão. O homem para alimentar o cão e o cão para não deixar os homens se aproximarem das máquinas.

                   Será que estaríamos chegando finalmente à plenitude da Terceira Onda, descrita por Alvin Tofler em 1980? Conseguirão os países e seus líderes reconfigurar novamente para melhorar suas sociedades com o advento da AI – da mesma forma que a civilização prosperou e criou novas ocupações com a mecanização e a automação no passado –, mesmo se antevendo um impacto centenas de vezes mais intenso e rápido que nos casos anteriores?

                   Otimistas ou pessimistas, aqueles que têm voz na definição do futuro de suas empresas, sociedades e países deveriam regozijar-se com mais essa vitória da humanidade sobre o labor interminável e pouco significativo das tarefas repetitivas. Deveriam também privilegiar e fomentar um importantíssimo fator que esteve presente na assimilação socialmente equilibrada das mudanças tecnológicas anteriores (e no qual o Brasil tem falhado de maneira recorrente): a educação e requalificação para o desempenho de atividades mais complexas e que demandam maior capacidade cognitiva, flexibilidade, criatividade e colaboração.

                   Os impactos dessa “decolagem” da AI, embora não totalmente antecipáveis, prometem ser cruciais para o futuro da humanidade. O renomado físico Stephen Hawking, em artigo publicado em dezembro de 2016 no jornal The Guardian, sustenta que “a automação das fábricas já dizimou postos de trabalho na manufatura tradicional e a ascensão da Inteligência Artificial provavelmente estenderá a destruição às funções das classes médias, com a sobrevivência apenas dos papéis mais criativos, de supervisão ou de cuidados pessoais”. A própria The Economist cita estudos que estimam que entre um terço e metade das funções correm o risco de ser automatizadas. As mais vulneráveis ao avanço da AI seriam as funções de rotina, tanto manuais quanto intelectuais. “Eu estou na verdade animado com o fato da Inteligência Artificial não ser mais um palavrão”.

                   Se dermos crédito às previsões científicas dentro de muito pouco tempo teremos computadores capazes, não apenas de armazenar dados, mas pensar e sentir como o ser humano ou melhor um super ser humano. Super porque com a capacidade ilimitada de armazenar dados e informações poderia em pouquíssimo tempo superar todas as barreiras tecnológicas que levariam décadas para sua superação por pesquisadores em laboratórios, mesmos sofisticados e com muitos recursos.

                   Até 2021, sistemas inteligentes e robôs poderão assumir 6% dos trabalhos nos Estados Unidos, de acordo com a Forrester Research.

IV – CASE: O BANCO DO BRASIL E A COMPUTAÇÃO COGNITIVA
(IBM Watson)

                   O Banco do Brasil (BB) tem procurado inovar em suas aplicações bancárias com computação cognitiva, tecnologia baseada em Inteligência Artificial (IA), algo parecido com a busca do desempenho humano pela aprendizagem. A partir da combinação de dados e de modelos matemáticos, a computação cognitiva no BB auxiliará também nos negócios da entidade.

                   No BB, a tecnologia cognitiva terá destaque especial no assistente mobile, no qual o cliente utiliza sua voz para solicitar transações disponíveis no aplicativo BB. A voz é interpretada e analisada pela solução cognitiva que oferece, através de um diálogo com o cliente, a função desejada, bem como o auxílio ao cliente BB na instalação e configuração de computadores para acesso ao portal BB de forma segura.

                   O Banco do Brasil é um exemplo de uso dessa tecnologia. A instituição está desenvolvendo aplicações para correntistas com o sistema de computação cognitiva da IBM, o IBM Watson. Até o fim do ano, os correntistas do BB Private e Estilo Digital poderão ter experiências reais com o uso de linguagem natural.

                   Na busca pela vanguarda de uso de tecnologias inovadoras e disruptivas, o Banco do Brasil está alimentando o IBM Watson com informações financeiras complexas para que o sistema entenda perfeitamente como funciona a área bancária no Brasil.

                   O renomado especialista em genoma humano, professor Satoru Miyano, um dos idealizadores do sistema IBM Watson de computação cognitiva, junto com Ginni Rometty, presidente e CEO da IBM disseram que até 2025 o mercado de computação cognitiva e Inteligência Artificial deverá representar mais de 2 trilhões de dólares.



ALUNOS

Anderson Nascimento Ferreira (RA 71301700041)

Carolina Kelly de Araújo Mota (RA 71301700181)

Janaína Olga Gomes Magalhães (RA 71301700157)

Solange Gabriel Calixto Santana (RA 7130170135)

Solimar Nascimento Barbosa Hormann (RA 71301700165)

sexta-feira, 19 de maio de 2017

Big Data

Imagem relacionada

Você já parou para pensar na quantidade e variedade de dados que geramos e armazenamos a cada dia? Bancos, companhias aéreas, operadoras de telefonia, serviços de busca on-line e redes varejistas são apenas alguns dos inúmeros exemplos de empresas que convivem diariamente com grandes volumes de informações. Mas apenas ter dados não basta: é importante conseguir e saber usá-los. É aí que o conceito de Big Data entra em cena.

Neste texto, você verá o que é Big Data, entenderá o porquê de este nome estar cada vez mais presente no vocabulário dos ambientes de Tecnologia da Informação (TI) e compreenderá os motivos que levam o conceito a contribuir para o cotidiano de empresas, governos e demais instituições.

As duas leis e suas vertentes 

A evolução da tecnologia tem seguido a Lei de Moore, que prevê que a capacidade de processamento e armazenamento dobra a cada 18 meses, e isso tem nos proporcionado cada vez mais capacidade de armazenamento.

Por outro lado, a Lei de Parkinson, quando aplicada a computação, determina que toda a capacidade disponível tende a ser ocupada, e isso nos dá mais dados para armazenar e, principalmente, analisar, o que tem se tornado inviável com ferramentas convencionais.

É aí que entram as ferramentas de análise de Big Data, que permitem o tratamento de grandes quantidades de informações, estruturadas ou não, para gerar novas análises e entendimento sobre as informações existentes.

Arquiteturas de Big Data

O grande diferencial dessas ferramentas é a capacidade de processamento distribuído, o que permite criar um cluster dedicado com vários servidores, com grande capacidade de processamento e armazenamento, sem a necessidade de equipamentos especializados e normalmente tolerantes a falha.

Em termos de arquitetura, as ferramentas de Big Data utilizam a capacidade de processamento e armazenamento em paralelo, ao invés de utilizar um computador único cada vez maior.

Casos de Uso

Estima-se que apenas 20% dos dados de uma empresa são dados estruturados, usados para a tomada de decisões, e é aí que entra a capacidade das novas ferramentas, que vão além do banco de dados relacional, permitindo correlacionar dados de diversas fontes e nos mais variados formatos, como documentos, planilhas, emails, imagens e até vídeos.

Desafios

O primeiro desafio do Big Data é a coleta de dados para dentro do cluster. Normalmente fala-se de enormes quantidades de dados sendo gerados em uma taxa maior do que um servidor seria capaz de processar e armazenar, e é aí que entram os clusters, com vários nós capturando essas informações e distribuindo entre os outros nós do cluster para manter a tolerância a falha.

O segundo desafio é processar essas informações. Como elas estão distribuídas, a aplicação deve ser capaz de consumir pequenas partes das informações e gerar pequenas partes de dados processados, que depois serão calculados em conjunto para criar o resultado final. Isso normalmente requer um desenvolvimento específico para o processamento desses dados.

A parte mais simples é a exibição dos resultados, os arquivos gerados normalmente são resumos das informações, agrupando conforme necessário, de forma que alguém possa entender e tomar uma decisão sobre aqueles dados.

 Resultado de imagem para big data


Conclusão dos fatos

Big Data é uma tecnologia que é realidade para grandes empresas. Tem tido rápida adoção para pesquisas, análise de negócios, detecção de fraudes, entendimento de comportamento dos consumidores, entre outros; mas os requisitos iniciais estão longe da realidade da maioria das pequenas e médias empresas, principalmente no Brasil.

Também as aplicações ainda são muito específicas e normalmente desenvolvidas sob demanda, o que aumenta ainda mais os custos iniciais de implantação e desenvolvimento.

Mas a predominância principalmente de ferramentas open source, a capacidade de executar sobre hardware comum e a tendência de aparecerem novos fornecedores nesse mundo deve trazer essa realidade em breve para pequenas e médias empresas.

Editores,



João Paulo Barbosa Sardinha (RA: 71301700189)
Aldime Moraes Silva                (RA: 71301700108)
Saulo Senna                            (RA: 71301770718)
Josué Ribeiro Guimarães        (RA: 71301700111)
Mônica Landim Chaikosky       (RA: 71301700176)
Patrícia Beck Lima                   (RA: 71301700137)

Diagrama de Ishikawa

O Diagrama de Ishikawa, também conhecido como Espinha de Peixe ou Diagrama de Causa e Efeito, é uma ferramenta da qualidade que...