Blog da Navita:

Leia nossos artigos e saiba mais sobre o universo da tecnologia, atualidades, curiosidades e muito mais. Ganhe dicas e conhecimento para você e para o seu negócio!

Veja nossos últimos posts

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Conteúdo por categoria

Vazamento de dados: Entenda como proteger e ter mais segurança nos dados corporativos

No mundo em que vivemos, cada dia mais digital, os dados são parte essencial da vida, a todo o momento estamos criando e fornecendo dados para os mais variados veículos e entidades. Cadastros, criação de documentos, logins realizados, posts em redes sociais, envio de vídeos em plataformas de streaming, transações bancárias etc. Deixamos rastros por toda parte! Estes rastros podem ser monitorados, cruzados e combinados de forma com que esbocem um retrato bem preciso de quem somos, onde estamos e do que gostamos ou não. O costume de clicar em “eu aceito e concordo com os termos de uso e política de privacidade” sem sequer ler, nos leva a acreditar que nossos dados nem valem tanto assim. Afinal, a quem eles interessariam? Entretanto, escândalos relacionados a vazamentos de dados a até mesmo falta de transparência quanto ao uso de dados pessoais por parte de empresas públicas e privadas geraram reflexos. Por esse motivo, pessoas do mundo todo, têm se conscientizado quanto à falta de privacidade e segurança. Esse medo pelo suposto fim da privacidade é tão grande que foi iniciada uma corrida, em todo o mundo, para criar e aprovar leis que coloquem algum controle sobre a forma como dados são coletados, armazenados e utilizados pelas companhias. No Brasil, a Lei Geral de Proteção de Dados Pessoais nº 13.709/2018, também conhecida como LGPD, tornou-se agenda de discussão para executivos de empresas de todos os portes. Na União Europeia, a legislação aprovada também tem confortado muitos cidadãos. Dados no meio corporativo: coleta e utilização Para entender qual a importância dos dados, como são transformados em informação e como são utilizados estrategicamente, precisamos entender a base de tudo: Como eles são armazenados e tratados. Os dados se não forem tratados, são elementos desconexos sem nenhuma serventia, porém, quando tratados, são convertidos em informações úteis através de processos e atividades de inteligência, auxiliando departamentos, gestores e organizações em sua tomada de decisão. A coleta destes dados pode ser realizada de várias formas. Cadastros realizados em troca de algum material gratuito, dados de uso de um produto online, informações de sistemas de CRM, ERP e departamentos internos são apenas alguns exemplos. O diferencial competitivo está na utilização desses dados, para isso é feito um processo de extração e consolidação, os transformando em informações uteis. Depois de tratados, eles são armazenados em bases de dados com foco em análise. Existem alguns formatos para estas bases, tudo depende do tipo de estratégia adotada pela organização. Alguns exemplos: Data Warehouse: armazena apenas dados que já foram tratados ou modelados; Data Mart: enquanto o data warehouse é usado para múltiplas finalidades, o data mart funciona como uma subseção do data warehouse, formulada especificamente para um departamento ou função; Data Lake: armazena todos os dados, estruturados ou não, que são gerados através de diferentes processos e podem ser estruturados para o uso futuro. A utilização destes dados pode gerar novas estratégias, inovações em produtos e inteligência de negócios. A metodologia que coleta e analisa estes dados é o BI, ou Business Intelligence. Como um grande aliado das organizações na era digital, o Gartner estima que o mercado de BI e Business Analytics deve atingir a marca de US$ 22,8 bilhões ainda em 2020. Isso mostra como, cada vez mais, grandes corporações têm tomado suas decisões com base em dados coletados ao longo de sua existência. Portanto, a coleta de determinadas informações enriquece o negócio e o cruzamento delas pode traçar retratos trazer diversos tipos de insights, como por exemplo: dados de faturas, valores de contestações retroativas, o volume de multas por atraso no pagamento de faturas etc. De quem são os dados coletados? — O princípio do titular dos dados. Qual o critério do consumidor ao fornecer seus dados no decorrer do dia? Cadastros em troca de benefícios gratuitos não são analisados, termos de uso e políticas de privacidade recebem um “check” sem que sejam lidos. A persistência deste tipo de comportamento colocou em risco a privacidade de muitos cidadãos em escândalos envolvendo o uso de dados, como o caso Cambridge Analytica e o Brexit. Os acontecimentos chamaram a atenção da forma como nossos dados são tratados e processados sem transparência. O fornecimento de dados é subestimado pelo consumidor que acredita que, ao serem usados para fins publicitários, apenas recomendarão alguns produtos e serviços que, de fato, o interessarão. Será que é apenas isso? Você se lembra a última vez em que foi à farmácia, mas, para poder comprar os seus remédios, a instituição pediu seu CPF ou até te ofereceu um desconto em troca disso? Mediante o discurso de que é uma burocracia do sistema você fornece o CPF e leva os medicamentos para casa. Parece simples, mas essa situação pode se transformar em uma bola de neve complicada. Quais ações podem ser tomadas por uma indústria a partir do momento em que ela sabe, precisamente, qual tipo de medicamento você precisa? Além disso, ela pode cruzar este dado e entender com qual frequência você compra este medicamento e em qual região, por exemplo. A partir deste cruzamento, uma organização pode entender que você provavelmente tem uma doença relacionada ao tipo de medicamento que está adquirindo, portanto, aquele produto é uma de suas necessidades básicas. Muitos consumidores se sentem desconfortáveis diante desta situação. No exemplo, foram utilizados dados relacionados à saúde. Estas informações são consideradas dados sensíveis dentro do conjunto de dados pessoais, ou seja, podem gerar algum tipo de discriminação em caso de vazamento, portanto devem ser tratados de forma especial. Para a Lei Geral de Proteção de Dados, a LGPD, os dados sensíveis e que estão sujeitos a condições de tratamento específicas são: Dados pessoais que revelem a origem racial ou étnica, opiniões políticas e convicções religiosas ou filosóficas; Filiação sindical; Dados genéticos e dados biométricos tratados simplesmente para identificar um ser humano; Dados relacionados com a saúde; Dados relativos à vida sexual ou orientação sexual de uma pessoa. Claro que, para a LGPD, um dado pessoal só pode ser tratado se seguir um ou

Saiba mais »

Análise preditiva: o que é e como implementá-la com sucesso?

É possível prever o futuro, para se antecipar ao mercado? A análise preditiva pode ajudar uma organização a prever resultados futuros com base em dados anteriores e técnicas de análise, como o machine learning e a modelagem estatística. Nesta categoria de análise de dados, é possível gerar insights futuros com um grau significativo de precisão. Utilizar dados passados e atuais para prever tendências e comportamentos pode ser a peça chave para que uma organização consiga se destacar frente a um mercado tão competitivo. Tendo conquistado o apoio de uma ampla gama de organizações, a análise preditiva tem um mercado global projetado para atingir aproximadamente U$ 10,95 bilhões de dólares até 2022, crescendo cerca de 21% entre 2016 e 2022. E como esta técnica pode ajudar diversas áreas de uma organização? Ferramentas de análise preditiva permitem que empresas utilizem seus dados para prever cenários e identificar tendências. Sem “bola de cristal”, mas com o apoio de dados, inúmeros profissionais ao redor do mundo têm recorrido a este tipo de solução para apoiá-los em decisões estratégicas. É como se a tecnologia revelasse o futuro lançando um olhar sobre o passado. E não estamos falando de um recurso para poucas empresas: praticamente todos os ramos de atividade podem se beneficiar da análise preditiva. Como a análise preditiva surgiu e se consolidou? É possível encontrar referências para o assunto que remetem à década de 1940, quando os governos começaram a usar os primeiros computadores. Contudo, apesar de ter surgido através de uma combinação de técnicas extraídas de estudos estatísticos, modelagem e mineração de dados, a análise preditiva se transformou com o passar dos anos. Para se adaptar às necessidades do mercado, o modelo de predição analítica adotou as novas tecnologias que surgiam, como o machine learning e a inteligência artificial para se consolidar. A consolidação, portanto, deste método tecnológico de auxílio a tomada de decisão, aconteceu em decorrência de três principais fatos: o aumento exponencial no volume de dados coletados, a elevação voraz da competitividade entre empresas de diversos segmentos e o crescimento da complexidade do universo corporativo. É de amplo conhecimento que as últimas décadas contaram com o desenvolvimento de computadores e sistemas capazes de processar um volume imenso de dados, além de transformá-los em informações gerenciais através do Business Intelligence. O planeta produz, diariamente, 2,5 quintilhões de bytes. Para não se perder em meio ao mar de dados produzidos diariamente e transformá-los em respostas acerca de cenários que possivelmente existirão no mercado, a análise preditiva usa praticamente todo o arsenal disponível para atingir máximo grau de precisão possível. Veja abaixo, alguns exemplos de dados que podem ser consolidados e cruzados para antever situações iminentes: Dados contábeis e financeiros ao longo do tempo; Fontes de gastos (faturas significativas de fornecedores); Informações de redes sociais; Registros em ERPs ou CRMs; Divulgações de decisões macroeconômicas, como taxas de juros, inflação e aumento do desemprego; Dados de vendas; Avaliações de estoque em períodos extensos; Performance da concorrência. Como o lean office pode ajudar na geração de dados com maior qualidade? A boa gestão de dados, aliada a um sistema eficiente de BI, é definitivamente um dos principais fatores de sucesso de um projeto de análise preditiva. Todavia, é importante considerar que a gestão de informação de alto nível exige processos mais ágeis e eficientes nas empresas. Esta responsabilidade atinge camadas empresariais que vão muito além da TI. O conceito de lean office, ou escritório enxuto, em português, é associado aos resultados positivos em projetos de análise de dados. Isto acontece porque processos ágeis e eficientes geram dados com maior confiabilidade. Apesar do crescimento quantitativo no número de dados gerados todos os dias, é preciso que haja, em paralelo, um aumento qualitativo. Qual profissional é capaz de aplicar a análise preditiva ao meu negócio? Tendo em vista a utilização de uma base de dados com crescimento qualitativo e quantitativo, é preciso dar os primeiros passos rumo à predição de tendências baseada em dados. A maioria das empresas que leva a sério o uso da análise preditiva, forma uma equipe de planejamento multifuncional, para identificar oportunidades em potencial e desenvolver estratégias direcionadas. A equipe deve sempre buscar uma compreensão clara dos problemas de negócios que a análise preditiva deve resolver. As principais perguntas a serem consideradas incluem: Os problemas são definidos com precisão em termos de processos e objetivos de negócios? O impacto da análise preditiva pode ser quantificado, incluindo os benefícios e custos esperados? Quais são os riscos dos erros de previsão (ou seja, falsos positivos e falsos negativos)? Quais são os riscos e responsabilidades legais que podem surgir devido ao viés de previsão? Dadas as premissas da análise, é possível aplicá-la. Existem inúmeros fornecedores de tecnologia e modelos de análise preditiva cada vez mais focados em nichos, ainda assim uma iniciativa séria deve contar com profissionais internos para atender às necessidades específicas de previsão de negócios. Profissionais de inúmeras áreas de um organograma podem utilizar a análise preditiva para projeções de budget, por exemplo. A organização que conta com uma ferramenta inteligente de gestão de custos, como o Navita Connect, detém acesso a uma rica base de dados. Nela, é possível identificar tendências de gasto e consumo agrupadas por centro de custo. Através desta informação, o orçamento de uma determinada área ou projeto pode ser definido. Aplicando a metodologia de análise preditiva, as tendências de consumo podem ser utilizadas para proteger este orçamento ao longo do ano. Os profissionais deste segmento podem ter diversas origens: de matemáticos a especialistas em marketing ou ciência da computação. O importante, contudo, é encontrar analistas que resolvam problemas e pesquisem dados, em vez de “trituradores de números”. Tecnicamente, há várias abordagens possíveis para aplicar o conceito. Via de regra, é preciso criar um modelo preditivo. Este modelo será uma função matemática que, quando aplicada sobre os dados, fornecerá uma previsão a respeito de um problema. Com vários aplicativos e modelos de análise preditiva disponíveis no mercado, os membros da equipe devem ter em mente que não é necessário reinventar

Saiba mais »

Como a tecnologia e a gestão de dados de celulares estão ajudando no combate ao Covid-19

Dados armazenados pelo Facebook, Google e diversas operadoras, fornecidos através da geolocalização de celulares, estão sendo utilizados para criar índices do comprometimento com o isolamento social. Com o auxílio destes dados é possível mapear quais regiões têm maior aderência ao isolamento e quais são as movimentações mais comuns, oferecendo informações para o controle e focos de incidência da pandemia. Ou seja, aquele mesmo recurso que te permite fazer check-in no seu restaurante favorito no Instagram ou rastrear o celular corporativo através de plataformas de MDM ou EMM, agora está ajudando a criar índices de comprometimento com a quarentena para evitar a propagação da Covid-19. Além do Google e Facebook, que estão fazendo seus próprios relatórios, as operadoras Algar, Claro, Oi, Tim e Vivo fornecerão a localização de 222 milhões de linhas móveis para o Ministério da Ciência, Inovação, Tecnologia e Comunicação (MCTIC). As cinco empresas respondem por 97,8% dos 227,1 milhões de acessos móveis no Brasil. A startup In Loco, especialista em fornecer inteligência a partir de dados de localização, puxou dados públicos das operadoras utilizados na publicidade. Com eles, foi realizada uma análise do comportamento de 60 milhões de celulares brasileiros. A tecnologia utiliza a geolocalização para dizer quantas pessoas estão “estacionadas”, ou seja, em casa. O resultado do levantamento não é nem um pouco positivo. De acordo com a inteligência levantada, o número de pessoas em quarentena no Brasil está em queda livre. De acordo com o relatório da In Loco, o ápice de adesão ao isolamento social foi em 26 de março, atingindo a marca de 57.6% dos usuários de celular. Desde então, o índice fica abaixo de 54%, marcando picos de pessoas em casa aos domingos. O Facebook, por sua vez, detém informações de mais de 2 bilhões de pessoas ao redor do mundo. Destas, 130 milhões no Brasil. Com essas informações em mãos, a empresa divulgou três mapas com a movimentação dos brasileiros durante a pandemia. O primeiro deles calcula a probabilidade de pessoas de uma área entrarem em contato com grupos de outra área. De importância indiscutível, o relatório faz uma análise preditiva da localização dos próximos casos de Covid-19. Pode ser essencial, por exemplo, na estratégia de implementação dos novos hospitais de campanha. O segundo relatório releva as tendências de movimento, ou seja, cria índices de adesão regional ao isolamento social. Estes índices podem apontar quais ações de conscientização devem ser fomentadas e onde. Também podem ajudar as autoridades de saúde a entender os empecilhos na realização da quarentena, por região, embasando iniciativas socioculturais de maior assertividade. Por último, o mapa de conexão social (amizades) ajuda a prever a propagação da doença e áreas mais atingidas. O Advertising ID, ou código de publicidade, é um número único que constantemente identifica os interesses dos usuários que navegam pelos serviços de plataformas como Google e Facebook. Esta identificação serve para mostrar anúncios segmentados ou personalizados (os “anúncios com base em interesses”), que geram receita para os apps, mas também podem ser usados para rastrear deslocamento e uso de apps. O cruzamento de todas estas bases de dados virou o IIS (Índice de Isolamento Social). Ele é medido diariamente, de forma automatizada, para estabelecer a razão entre quem fica em casa e quem se desloca. O governo do Rio de Janeiro, em parceria com a Tim, e o de Recife, em parceria com a In Loco, já utilizaram a inteligência de geolocalização para combater a propagação da doença. Ações baseadas nos dados analisados obtém maior precisão. Ambos os governos mencionados embasaram o envio de profissionais a áreas de aglomeração e carros de som em locais movimentados através destes dados. O Governo Federal já anunciou que o cruzamento dos dados monitorará aglomerações e direcionará políticas de saúde pública. Do ponto de vista de privacidade, os dados serão armazenados em uma nuvem pública, na qual permanecerão anônimos e unificados. Os dados de deslocamento, mobilidade populacional, pontos de aglomeração e risco de contaminação serão direcionados para a sala de acompanhamento de crise do governo federal. Para a LGPD, a anonimização dos dados configura prática segura. Contudo, é importante monitorar a eliminação dos dados coletados durante a parceria assim que a epidemia terminar. Confira outros conteúdos disponíveis em nossa biblioteca: Vazamento de informações: Existe ameaça? Segurança da Informação: Onde mora o perigo? Saúde e Inovação: Tecnologia da Informação para Hospitais Big Data: O que é? Sua Empresa está pronta para trabalhar com Orçamento Base Zero? A digitalização da indústria farmacêutica Transformação digital: Como revolucionar a Rotina Corporativa?

Saiba mais »

Cibercrime: o que é e como pode ameaçar as organizações?

A internet nos colocou em uma nova era de hiperconexão e digitalização. Por outro lado, condutas lesivas ou ilícitas também podem ser praticadas por intermédio dela. Também conhecido como crime informático ou crime virtual, o cibercrime pode corresponder a diversas atividades criminosas realizadas online. Alguns exemplos comuns são o furto de informações sigilosas e espionagem, uso de identidade indevida (falsidade ideológica através de perfis falsos), distribuição de vírus e aplicativos maliciosos visando prejudicar outros usuários moral ou financeiramente e a invasão de dispositivos. Historicamente, a internet possibilitou a globalização e a evolução da sociedade digital. Entretanto, as vantagens que a levaram a uma explosão de usuários e volume de circulação de informação foram as mesmas que facilitaram a penumbra de condutas lesivas. Isto ocorre porque o ambiente online, é de fato sem fronteiras, contudo, a ausência destas fronteiras fomentada com esforços para democratização da rede implicou na falta de uma legislação cabível direcionada para esse tipo de ambiente no passado. Qual é a definição de cibercrime? O termo cibercrime surgiu no fim da década de 1990 na França, após uma reunião de um subgrupo do G8 que discutiu crimes promovidos através de aparelhos eletrônicos ou via disseminação de informação pela internet. Neste período, a internet já representava um papel fundamental no crescente processo da globalização e se expandia pelos países norte-americanos. Este subgrupo ficou nomeado Grupo de Lyon, porque a reunião em questão foi realizada na cidade de francesa de Lyon. A história do cibercrime e sua regulamentação Em paralelo à intervenção do Grupo de Lyon, o Conselho Europeu iniciou um esboço da Convenção Sobre o Cibercrime, que veio ao público pela primeira vez em 2000. A convenção incorporou um novo conjunto de técnicas de vigilância consideradas necessárias para a luta contra a ameaça emergente. Sua versão final só foi apresentada em novembro de 2001, apresentando as seguintes áreas sujeitas ao grupo do cibercrime: Crimes contra a confidencialidade, integridade e disponibilidade de dados de computador e sistemas; Crimes relacionados a computadores: falsificação e fraude; Crimes relacionados ao conteúdo: pornografia; Crimes relacionados a infração da propriedade intelectual e direitos conexos; Responsabilidade subsidiária e sanções: esforço e auxílio ou responsabilização corporativa. No início, houve uma grande confusão. O cibercrime se aplicava a novos tipos de criminalidade, tais como a pornografia na Internet ou a distribuição de fotos com imagens pornográficas que violavam a legislação de determinados países (porém não de todos), no que diz respeito ao material que explora a pornografia ou que a apresenta de forma inaceitável. Como a Internet não tem fronteiras, foi ficando cada vez mais fácil para os indivíduos distribuírem materiais para além de seus países, às vezes sem mesmo deixar rastros de origem. Quebrar sistemas de computador ou exercer atividades de hacker também era considerado um novo crime, o que muitos países ainda não tinham assumido como um delito criminoso. Um dos objetivos desse Tratado sobre o Cibercrime foi estabelecer regras e um acordo para o seu cumprimento, regras estas deveriam ser seguidas pelos aderentes, a fim de se lutar contra a nova atividade criminosa de forma bem coordenada. Privacidade de dados: a história da criptografia no cibercrime A criptografia é a prática de codificar e decodificar dados. Quando aplicada, um algoritmo codifica os dados em questão de forma que eles não tenham mais o formato original e, portanto, não possam ser lidos. Esta técnica protege informações confidenciais de diversos tipos de ameaças. Ao longo dos anos 90, ativistas da Internet, técnicos especialistas e organizações privadas, lutaram contra a imposição de controles sobre a criptografia. Esquemas com caução de chave, nos quais o governo teria uma cópia de todas as chaves criptográficas para poder mais facilmente investigar atividades criminais e procurar provas, foram inclusos nesta luta. Um exemplo popular foi o Clipper chip. O esquema americano não propunha apenas que o governo mantivesse as chaves para a criptografia, mas também um algoritmo fechado, que nenhum especialista estava autorizado a ter acesso e testar. Assim, a única medida de segurança em que os especialistas confiam são os sistemas expostos ao ataque e que sobreviveram ao teste. Originalmente, a criptografia era o domínio de especialistas de segurança nacional e de militares. Phil Zimmermann foi um dos primeiros especialistas em criptografia e pioneiro no tema. Phil se tornou um heroi na comunidade da Internet no início dos anos 90 ao disponibilizar na Usenet (um dos primeiros fóruns online) um programa de criptografia chamado Pretty Good Privacy, o PGP. O programa foi levado para países aos quais os Estados Unidos recusassem exportar uma forte criptografia. O Pretty Good Privacy ajudou dissidentes políticos de países como a Letônia a criptografar sua comunicação, impedindo a vigilância do Estado. Trazendo o tema para um contexto atual, é possível traçar um paralelo entre o Pretty Good Privacy e a criptografia de ponta a ponta do WhatsApp, por exemplo. Em 2014, a Open Whisper Systems, até então, o aplicativo mais seguro de mensagens, fechou uma parceria com o WhatsApp para permitir que os usuários enviem mensagens criptografadas de ponta a ponta. Isso significa que apenas usuários envolvidos nas conversas terão acesso às mensagens, uma vez que para descriptografá-las é necessário ter uma chave particular. É uma forma de proteção contra cibercriminosos. Contudo, a criptografia pode ser utilizada para se defender, por exemplo, contra investigações policiais. Assim como no Pretty Good Privacy, o WhatsApp recorre à criptografia para se defender contra ordens judiciais, ao alegar que não tem acesso às informações trocadas através do app. Após a disponibilização do PGP, o estudo da criptografia evoluiu no campo civil devido a visibilidade do tema e foi aplicado aos interesses de organizações privadas. Até hoje, é umas das principais medidas de privacidade aplicadas no mundo. O escândalo de Edward Snowden, em 2013, também contribuiu para a aceleração da utilização de criptografia nas empresas. Na época, o Google chegou a ser acusado de apoiar o governo americano na espionagem aos seus cidadãos. Com esta ferramenta, as empresas podem justificar, a qualquer governo, que não têm como acessar a informação

Saiba mais »

Como o isolamento social causado pelo Coronavírus mudou a forma como consumimos internet

Os provedores de Internet e serviços de comunicação estão vendo as cargas de suas redes aumentarem, à medida que mais pessoas trabalham de suas casas, e no Brasil não está sendo diferente. Com as medidas de isolamento, um número crescente de empresas tem trabalhado remotamente, e assim como esperado, as reuniões que antes se concentravam presencialmente em escritórios, passaram a ser feitas em conferências por voz e vídeo, aumentando o tráfego e consumo de dados. Além dos profissionais, que são obrigados em seu dia a dia, a ter que usar esse tipo de solução nessa nova realidade, também temos inúmeros estudantes que estão usando a internet para o aprendizado remoto, colocando seus estudos em dia. Os países mais afetados pela pandemia, aumentaram o tráfego de dados, e com algumas análises iniciais sendo feitas, já é possível perceber um padrão na utilização da rede em horários específicos. Muitos usuários começam suas atividades online logo pela manhã, se mantendo constante ao longo do dia, porém, é a noite que existe o pico, aumentando muito o consumo de dados. É possível perceber que nessa faixa de horário, os serviços de streaming são muito utilizados. Além do alto consumo, as empresas detectaram que vários dispositivos e telas estão sendo usados ​​simultaneamente em uma mesma casa. Por esse motivo, a Netflix, Youtube, Amazon Prime e até mesmo a Globo com o Globo Play, decidiram reduzir a qualidade da imagem fornecida para os usuários, a fim de evitar sobrecarga nos provedores de internet do Brasil e do mundo. De acordo com o gerente de infraestrutura Júlio Sirota, da IX.br, Comitê Gestor de Internet no Brasil, apesar do aumento de consumo, dentro do esperado, a infraestrutura de rede do país tem uma alta capacidade de tráfego de dados e não deve sofrer nenhum tipo de restrição no momento. Contudo, apontamentos realizados na Europa, onde a crise causada pelo vírus está mais acentuada, trazem números muito mais expressivos, apresentando aumentos que vão de 10% até 40%, como o caso da Itália. Mesmo as maiores empresas de tecnologia admitiram estar enfrentando dificuldades com as mudanças no padrão de tráfego. Mark Zuckerberg, presidente executivo do Facebook, disse a jornalistas que a empresa está fazendo experimentos com sobrecargas no uso de determinados serviços. O aumento no número de ligações realizadas através dos aplicativos WhatsApp e Messenger chegou a atingir o índice de 100%. Zuckerberg disse: “É preciso garantir que a situação esteja sob controle no ponto de vista de infraestrutura”, o que mostra a preocupação da empresa na disponibilidade dos seus serviços. A Anatel (Agência Nacional de Telecomunicações), por sua vez, se preocupa com os impactos futuros que o aumento do consumo de internet em banda larga podem ocasionar no Brasil. Pensando nisso, a agência reguladora adotou medidas com o objetivo de minimizar os efeitos do distanciamento físico entre as pessoas devido ao Coronavírus. As medidas foram demandadas em um ofício tentando facilitar a vida da população que deixou de sair de casa para evitar a disseminação do Covid-19. Com um cenário de maior distanciamento físico, requisições de quarentena e trabalho remoto, as conexões de acesso às redes se tornaram ainda mais essenciais. O órgão está cobrando medidas mais efetivas das operadoras de internet, como o aumento da velocidade de banda larga fixa e liberação do acesso das redes Wi-Fi em locais públicos. O ofício determina ainda, maior flexibilidade das empresas prestadoras de serviço em relação à inadimplência dos clientes, estendendo prazos estipulados em contrato com os consumidores. O Speedtest.net, serviço mundial utilizado para testes de velocidade de conexão, publicou um relatório que aponta redução de velocidade de operação em países como Estados Unidos, China e Itália. Se continuarmos com esse cenário, em breve o mesmo deve se repetir no Brasil. Especialistas da Navita também falaram um pouco sobre a percepção desta mudança no cenário. Muitas organizações privadas estão trabalhando pela melhoria efetiva da infraestrutura, para assegurar um ambiente mais estável e propício para o trabalho em casa. Um exemplo direto deste tipo de melhoria é a contratação ou upgrade nos links de banda larga. Para Amanda Pozzi, gerente de Customer Success na Navita, até a cotação do dólar exerce um papel importante no momento: “Alguns clientes possuem contratos em dólar, isto é, já existe a preocupação pela negociação do dólar fixo para os próximos meses”. Os dados móveis também estão sendo roteados para notebooks, o que justifica parte do aumento de seu uso. A sobrecarga dos pacotes de dados compartilhados reduz de forma representativa a velocidade e, consequentemente, a produtividade dos times remotos. Segundo Rodrigo Gabardo, gerente de alianças e canais da Navita, já é possível perceber que as empresas estão focadas em sua reestruturação. Desde o aumento na utilização do MDM, com ações simples como, a distribuição de apps de comunicação para reuniões online, até mudanças de ferramentas como o Exchange para Office 365, são apenas alguns exemplos. Com o isolamento social em um ambiente urbano, as pessoas e empresas precisarão de acesso à internet para praticamente tudo, a tecnologia mais do que nunca se tornou uma grande aliada. O uso da internet no Brasil está distribuído em 32,5 milhões de acessos na banda larga fixa e 226,7 milhões na rede móvel, de acordo com a Anatel. Nas classes D e E, 83% do acesso é móvel, isto é, realizado através de pacotes de celular limitados. Ainda de acordo com a Anatel, as redes de telecomunicações são projetadas e implementadas com capacidade de tráfego além do normal, suportando aumentos repentinos nas demandas. Também não deixe de conferir os nossos outros materiais sobre mobilidade e tecnologia: Bloqueio de Aplicativos: Conheça as diferenças no ambiente corporativo e para uso pessoal; MDM – Conheça sua história no Brasil; LGPD: O que é, e como pode impactar nas empresas; Vazamento de informações: Existe ameaça; Antivírus para celular: É mesmo necessário; Segurança da Informação: Onde mora o perigo; Saúde e Inovação: Tecnologia da Informação para Hospitais; A digitalização da indústria farmacêutica;

Saiba mais »

C-Level: Conheça os principais cargos executivos e entenda o seu significado

Se você trabalha em uma empresa com certeza já deve ter ouvido falar desse tipo de nomenclatura:  CEO, CFO, COO, CIO, CTO, CMO, CLO etc. Esses nomes fazem parte do dia a dia de qualquer organização, porém, o que acontece é que nem todos sabem do que se trata ou acabam se perdendo diante de tantas siglas. O que podemos dizer é que todos esses nomes têm algo em comum: São os cargos executivos de uma organização. Se você trabalha em uma empresa de pequeno ou médio porte, talvez nunca tenha tido que lidar com algum desses profissionais, no máximo, conhece o gerente da sua área ou o dono da empresa. Mas quando falamos de empresas bem estruturadas, de médio ou grande porte, temos esse tipo de cargo, que chamamos de “cargos de alta gestão”. Os executivos são os responsáveis por ditar e conduzir interna e externamente como essas grandes corporações vão atuar em seu mercado. O fato destes profissionais lidarem diretamente com métricas e resultados requer uma capacidade analítica e preditiva. Então, os executivos precisam sempre estar em contato com números que demonstrem as atividades da operação e indiquem potenciais ofensores. É nesse contexto que o Business Intelligence está cada vez mais sendo utilizado como diferencial competitivo, porém, é necessário que outras soluções ajudem na consolidação de todos esses dados. O Navita Connect por exemplo, também funciona como um repositório de dados que demonstra de forma responsiva através de dashboards toda a gestão de ativos de TI e Telecom. E por conta de todas essas obrigações, eles são os responsáveis pelo: Direcionamento da empresa, alocação de capital, construção de imagem (valores, comportamento e cultura), planejamento estratégico etc. Portanto, é bom que você saiba o que cada um desses nomes significa, pois, mais cedo ou mais tarde, você pode ouvir falar em algum deles em uma reunião, ou até mesmo lidar diretamente com um desses profissionais. O que é um cargo executivo? Para começar a explicar cada um dos cargos, primeiro devemos saber o que é um executivo, o que ele faz, qual o seu papel dentro de uma empresa e quais são suas principais obrigações. Um executivo, é um profissional que está atrelado a alta gestão de uma organização, tem o poder de intervir e influenciar diretamente nas decisões da empresa, ou seja, são eles os responsáveis pelo direcionamento da organização. Esses profissionais são encarregados pela tomada de decisão, alocar recursos, dirigir atividades, tudo isso com o intuito de atingir determinados objetivos. Na maioria das vezes, não existe apenas um executivo, temos uma comissão executiva, no qual cada um dos membros possui funções predeterminadas, de acordo com suas características profissionais. O industrial francês Jules Henri Fayol, fundador da teoria clássica da administração e autor da obra: Administração Industrial e Geral (título original: Administration Industrielle et Générale – Prévoyance, Organisation, Commandement, Ccoordination, Contrôle), editado em 1916. Dizia que os executivos realizavam cinco funções gerenciais: Planejar, organizar, comandar, coordenar e controlar. Hoje, com as mudanças na indústria e no mercado, fez com que essas tarefas fossem condensadas em apenas quatro funções: Planejar, organizar, liderar e controlar. Se deve entender que toda organização precisa de um direcionamento, pois somente desta forma é possível crescer, os resultados aparecem quando os objetivos traçados são alcançados através das metas. Para que tudo isso aconteça, é necessário ter planejamento, portanto, o papel principal da comissão executiva, é traçar objetivos e criar formas de alcançar essas metas, através de um conjunto abrangente de atividades e ações que devem ser realizadas interna ou externamente na organização. Resumindo, eles são os responsáveis por conduzir pessoas, através de atividades e ações, criando o direcionamento necessário para que a organização alcance suas metas. Por que os cargos executivos têm essa nomenclatura? Por dois motivos: Convenção e Moda. É uma tendência natural com a globalização que empresas do mundo todo se mobilizem para que determinados termos se tornem padronizados, por esse motivo, existe um movimento para nivelar o patamar hierárquico desses cargos, sendo assim, as responsabilidades serão semelhantes independente do lugar ou mercado de atuação dessas organizações. Por outro lado, temos o modismo brasileiro em seguir tendências do exterior. O que devemos saber, é que esse tipo de nomenclatura veio para ficar, o “C-Level” é uma forma de padronizar nomes e atribuições dentre os cargos executivos. Principais C-Level (Cargos Executivos) A partir deste momento, você já sabe o que é um executivo, qual o seu papel, suas obrigações dentro de uma organização e como surgiu a nomenclatura dos “C-Level”. Então vamos explicar o que representa cada sigla, seu significado e principais atribuições. CEO (Chief Executive Officer) O CEO ou Diretor executivo com certeza é o mais popular dentre todos os outros. Quem nunca ouviu falar por exemplo no antigo CEO da Apple, Steve Jobs ou até mesmo no atual, Tim Cook. Dentre os executivos é o cargo com mais responsabilidades, ele está no topo da hierarquia dentro de uma organização. Geralmente são eles a “cara” da empresa, suas declarações têm grande impacto dentro e fora da organização, e em muitos casos até em seu nicho de mercado. Quantas vezes você já não leu alguma notícia dizendo que o CEO de uma empresa, deu uma declaração ou fez um evento para lançar um determinado produto. Ele é o responsável pelas estratégias e visão da empresa, além do seu lado criativo deve ser extremamente analítico, pois suas decisões têm grande impacto na organização. Não são todas as empresas que possuem esse cargo, geralmente é utilizado em multinacionais de médio e grande porte, pois é necessário ter uma figura competente, visionária, com reconhecimento de mercado e habilidades de gestão para estar à frente da organização como um todo. Principais atribuições: Gestão de toda a organização, inclusive da comissão executiva; Assegurar a operação da empresa de acordo com estratégias predefinidas; Construção da imagem da corporação (Valores, comportamento e cultura); Intermediar a comunicação entre os acionistas; Criar um planejamento estratégico para o crescimento da organização; Atrair e reter novos talentos; É o principal responsável pela construção de

Saiba mais »

Sabia que o “modo quiosque” está presente até no Big Brother Brasil?

O ‘Big Brother 20’, reality show mais popular do país, tem tentado se reinventar para não perder relevância. Famosos e anônimos dividem a casa, e no time das celebridades temos os influenciadores digitais, muito populares na internet. Por esse motivo, a produção decidiu liberar um telefone celular para que os confinados possam produzir conteúdo no programa. O aparelho não tem comunicação com o mundo exterior, servindo apenas para compartilhar o que acontece dentro da casa, através de uma rede social interna criada pela Rede Globo – o #FeedBBB. Essa iniciativa só é possível graças à estratégias de controle de aplicativos como soluções MDM (Mobile Device Management) configurado possivelmente no modo “quiosque”, por exemplo, restringindo o acesso as configurações, recursos e apps do dispositivo. O celular utilizado pelos “brothers” está configurado para ter conexão apenas com uma intranet (rede privada) para executar funções do ‘#FeedBBB’. Além disso, o sinal telefônico foi desativado ou quaisquer outros aplicativos que possam permitir algum tipo de contato externo. O gerenciamento de dispositivos móveis não é um conceito novo e pode ser aplicado a diversos cenários. Aplicativos de controle parental, por exemplo, têm ajudado a zelar pela segurança e bem-estar das crianças no ambiente virtual, fornecendo acesso remoto ao dispositivo, permitindo controle, bloqueio ou gerenciamento de determinados recursos, como limite de horário (time fence) e cercas de geolocalização. No uso pessoal, o bloqueio de aplicativos pode trazer mais proteção, evitando acessos indesejados a apps, pastas e outros arquivos. Como o MDM se aplica ao contexto corporativo? Os dispositivos móveis já fazem parte da rotina empresarial, reinventando as relações de trabalho em equipe. Os aplicativos de mensagem instantânea já são inerentes aos processos de negociação e relacionamento com o cliente, por exemplo. De acordo com o relatório publicado pela empresa de pesquisa de mercado de tecnologia The Radicati Group, a receita mundial do mercado de EMM aumentará de US$ 1,8 bilhão em 2017 para US$ 3,3 bilhões em 2021. A taxa média de crescimento anual será de 18% para os próximos anos. Contudo, o ingresso quase que repentino destes aparelhos nas organizações também trouxe impactos negativos. Estes impactos, que na maioria das vezes são associados somente à queda de produtividade, podem apresentar muito mais riscos como a possibilidade de facilitar o vazamento de informação, aumentar a toxicidade do relacionamento entre colegas e até a chance de ações trabalhistas. O uso dos celulares no ambiente de trabalho é ainda mais perigoso quando os dispositivos estão conectados a rede da empresa. Um exemplo recente foi o bloqueio do WhatsApp no Brasil, que fez com que muitos trabalhadores recorressem ao uso de VPNs de fontes desconhecidas para acessar o aplicativo — possibilitando a exposição dos seus dados pessoais e corporativos, além de possíveis ataques. Por isso, é importante combater o Shadow IT, uso de aplicativos não monitorados ou certificados sem autorização da empresa. Bloquear a instalação de apps de fontes desconhecidas e criar uma loja privada, somente com aplicativos seguros e permitidos pela empresa é um bom início para essa estratégia. Para ressignificar o uso do celular no trabalho tornando-o uma ferramenta facilitadora, muitas empresas têm optado por soluções de MDM que podem aplicar suas funcionalidades minimizando os riscos associados aos dispositivos móveis corporativos. O Navita EMM por exemplo, possui as principais funcionalidades que as empresas necessitam para gerenciar seus dispositivos móveis. Simples de implantar e fácil de usar, é uma excelente opção para projetos e operações de todos os tipos, com uma interface amigável e responsiva, pode ser acessado em ambiente web, através do seu smartphone, tablet ou desktop. Entre os principais benefícios e funcionalidades, temos: Gerenciamento de smartphones e tablets iOS e Android; Administração simples e fácil; Informações de inventário de dispositivos atualizadas; Maior agilidade na entrega de aparelhos através de configurações automatizadas; Envio e atualização de aplicativos remotamente; Administração por grupos; Controle de funcionalidades e restrições; Modo quiosque: controle total dos dispositivos limitando-os a uma única finalidade; Envio de configurações de Wi-Fi e Email; Definição de políticas de senha; Inventário de aplicativos corporativos instalados; Informações de geolocalização dos dispositivos; Segurança da informação, através de políticas, controles e segregação de conteúdo; Time fencing: disponibilização de aplicativos por horários pré-determinados. Conclusão Agora você já sabe da importância de uma ferramenta de MDM no mundo corporativo e que grandes organizações como a Rede Globo estão utilizando esse tipo de solução.  Para conhecer mais a nossa ferramenta de MDM acesse o site https://navitaemm.com.br/ Também não deixe de conferir os nossos outros materiais sobre mobilidade e tecnologia: Bloqueio de Aplicativos: Conheça as diferenças no ambiente corporativo e para uso pessoal; MDM – Conheça sua história no Brasil; LGPD: O que é, e como pode impactar nas empresas; Vazamento de informações: Existe ameaça; Antivírus para celular: É mesmo necessário; Segurança da Informação: Onde mora o perigo; Saúde e Inovação: Tecnologia da Informação para Hospitais; A digitalização da indústria farmacêutica;

Saiba mais »
business-intelligence-o-que-e/

Business Intelligence: Guia Completo – Saiba como a análise de dados pode ajudar sua empresa

Não é de hoje que falamos de Business Intelligence, esse é um termo bastante difundido e praticamente todas as pessoas que estão envolvidas no mundo corporativo, ou são da área de tecnologia, já ouviram falar dessa palavra. O grande problema, é que muitas pessoas e empresas ainda não conhecem a sua real importância. No passado, era muito comum que gestores e executivos tomassem suas decisões baseadas em sua intuição, através de suas experiências ou conhecimento de mercado. Porém, atualmente, no mundo em que vivemos a alta competitividade do mercado fez com que esse cenário mudasse, uma decisão pode ter grande impacto em uma organização, sendo crucial para o sucesso ou fracasso de um negócio. E se os gestores não precisassem mais usar a sua intuição para deduzir algo? Pudessem de forma inteligente: Obter, estruturar, analisar e monitorar dados para uma tomada de decisão mais correta e coesa. Foi para resolver esses problemas que surgiu o Business Intelligence, também conhecido como BI. Quando falamos de BI, não estamos falando unicamente de ferramentas, estamos falando de uma metodologia que através da análise de dados pode ajudar gestores e organizações em seus negócios. O que é Business Intelligence e para que serve? Business Intelligence é um conjunto de ações, atividades e processos, que convertem dados brutos, aparentemente desconexos, em informações significativas para ajudar gestores e empresas na tomada de decisão sobre o seu negócio. O BI tem impacto direto nas decisões estratégicas, táticas e operacionais de uma organização. O seu principal objetivo é oferecer suporte a gestão empresarial baseado em dados e fatos históricos, ao invés de suposições ou pressentimentos. Embora o Business Intelligence não diga exatamente o que fazer, e o que acontecerá, ele não se trata apenas da geração de relatórios. Ao invés disso, o BI oferece uma maneira de examinar dados para entender tendências e obter insights, simplificando o esforço necessário em procurar, mesclar e consultar, transformando esses dados em informações valiosas. Atualmente o Business Intelligence utiliza a tecnologia para fazer a extração, manipulação e análise, porém, ele não é uma ferramenta ou software, é uma metodologia que através da coleta de dados brutos é possível gerar insights para as empresas. Com o Business Intelligence é possível ter uma gestão eficiente de informações, otimizar processos, prevenir e reconhecer falhas, fazer a gestão de riscos, analisar melhor a própria organização, ter um melhor entendimento do mercado, identificar novas oportunidades, melhorar a tomada de decisão etc. A importância do BI é tão grande no cenário atual, que segundo o Gartner o mercado de BI e Business Analytics no ano em que estamos, 2020, deve atingir US$ 22,8 bilhões em todo o mundo. Outro estudo realizado pela Forbes Insights, diz que 60% das 449 empresas pesquisadas, planejam acelerar seus investimentos em soluções de Business Intelligence. Também de acordo com a pesquisa, 69% dos executivos utilizam o BI para identificar novas oportunidades de negócios, 65% para obter insights em precificação otimizada ou dinâmica, e 63% mensuram a produtividade dos seus colaboradores. A história e evolução do BI Atualmente, o termo Business Intelligence está intrinsecamente ligado a tecnologia, porém, a verdade é que a palavra “Inteligência de negócios” foi utilizada pela primeira vez há mais de 155 anos. Embora tenha surgido muito antes da invenção e popularização dos computadores, foi somente com o uso da tecnologia que o termo ganhou relevância, se tornando conhecido e utilizado pela maioria das organizações. O início de tudo: Quando surgiu o termo “Business Intelligence – inteligência de negócios”? O termo “Inteligência de Negócios” foi usado pela primeira vez por Richard Miller Devens, em seu livro “Cyclopaedia of Commercial and Business Anecdotes”, publicado pela primeira vez em 1865. Richard Devens usou o termo para descrever como um banqueiro de sucesso, Henry Firnese, lucrou agindo em cima de informações sobre o ambiente, muito antes de seus concorrentes. Firnese coletava dados e reagia baseado nas informações recuperadas, provando que a utilização de dados estratégicos, é muito mais eficaz do que o uso da intuição para tomada de decisão em negócios. No final de 1800, Frederick Taylor criou o primeiro sistema formalizado de análise de negócios nos Estados Unidos. Seu sistema de gestão cientifica, analisava técnicas de produção e movimentos corporais dos trabalhadores para encontrar maior eficiência e produtividade na indústria. Taylor acabou se tornando consultor de Henry Ford, que no início de 1900 começou a medir o tempo que cada componente do seu Ford – Modelo T levava para ser produzido em sua linha de montagem. Seu trabalho e sucesso revolucionaram a indústria manufatureira em todo o mundo. Porém, todo o processo ainda era feito usando papel e caneta. Em 1930 começaram a surgir os primeiros computadores embrionários durante a segunda guerra mundial, como parte dos esforços dos aliados para desvendar os códigos alemães. Um dos grandes nomes dessa época, foi o matemático, lógico, criptógrafo e cientista da computação, Alan Turing. Seus esforços no desenvolvimento da computação e na formalização do conceito de algoritmo, desempenharam um papel importante na criação do computador contemporâneo, que lhe rendeu uma menção como “o pai da computação moderna”. Até a década de 1950, os computadores serviam apenas para processar enormes pilhas de cartões perfurados. Foi então, que em 1956 a IBM inventou a primeira unidade de disco rígido, possibilitando o armazenamento de grandes quantidades de informações com maior flexibilidade de acesso. Cerca de dois anos depois, em 1958, o pesquisador da IBM – Hans Peter Luhn, publicou o famoso artigo “A Business Intelligence System”. Neste artigo, ele teorizou sobre um sistema de “disseminação seletiva” de documentos para “pontos de ação” com base em “perfis de interesse”. Seu trabalho é lembrado até os dias de hoje, Luhn previu várias tendências de inteligência de negócios que são utilizadas mesmo em tempos modernos, como: A capacidade dos sistemas de informação aprenderem e criar previsões com base nos interesses dos usuários. Hoje chamamos isso de Machine Learning ou aprendizado de máquina. Embora todas as teorias levantadas por ele fossem consideradas revolucionárias, poucas foram postas em prática na época, devido

Saiba mais »

Saúde e Inovação: Tecnologia da Informação para Hospitais

Com o “boom” da transformação digital, novas tecnologias como a computação em nuvem, internet das coisas (IoT) e o Big Data começaram a fazer parte do ambiente corporativo. Mas, a inovação tecnológica não se limitou ao universo institucional e se tornou uma ferramenta também na área da saúde, mais especificamente nos hospitais. A tecnologia da comunicação hospitalar surgiu para promover melhorias na qualidade de serviço e assistência, além de reduzir custos e elevar as práticas de gestão. A inclusão de equipamentos tecnológicos em conjunto com descobertas científicas traz avanços e melhorias no tratamento de doenças. A utilização de computadores, tablets e smartphones é uma realidade.  Ferramentas de redes de telecomunicações e infraestrutura tecnológica contribuem para otimizar o trabalho, na tomada de decisões estratégicas e beneficiam a segurança da informação. Com a adoção da computação em nuvem, por exemplo, todos os colaboradores de uma unidade hospitalar, incluindo médicos e a equipe de enfermagem, ganham mais mobilidade para acessar os sistemas e prontuários por meio de dispositivos conectados à Internet. Quando um hospital está equipado tecnologicamente, pode contribuir para que ele seja melhor administrado, já que possibilita a integração de todas as áreas: administração, equipe médica, enfermagem e equipe técnica. A área de TI pode ser muito útil, até mesmo considerado essencial, para apoio à gestão em saúde até em relação aos aspectos mais especializados da assistência, como na visibilidade, armazenamento e distribuição de exames. Os aspectos gerais relacionados à gestão e administração dos hospitais nunca foram tão estratégicos como nos dias de hoje. Investir em tecnologia da informação é olhar também para os resultados como negócio. Com a tecnologia, os gestores conseguem planejar melhor as ações, definir indicadores, traçar objetivos, além de melhorar o serviço que está sendo entregue para o paciente. Quais são as tecnologias inovadoras utilizadas pelo setor hospitalar? Entre as ferramentas tecnológicas que são importantes para realizar a gestão hospitalar estão as plataformas de comunicação, os softwares, os aplicativos e até mesmo as soluções em telecom.  Os dispositivos móveis (tablets e smartphones) já fazem parte da rotina hospitalar. Hoje, é possível contar com a ajuda destes dispositivos para adiantar um atendimento, para verificar as informações de prontuário ou, até mesmo, acessar informações remotamente em uma emergência. Além da mobilidade em telefonia, outras tecnologias estão cada vez mais presente no universo da saúde, confira: Aplicativos de saúde; Armazenamento em nuvem; Big Data; Analytics; Wearables; Internet das Coisas (IoT); Sistemas para a gestão hospitalar; Telerradiologia; Impressora 3D. Todas essas soluções inovadoras podem ajudar uma unidade de saúde a garantir processos mais eficientes e a se manter competitiva em um mercado caracterizado pela concorrência, que é cada vez mais crescente na atualidade. E quais são os benefícios do investimento em TI na área hospitalar? Ao investir em uma equipe capacitada e ferramentas tecnológicas, as organizações hospitalares conseguem alguns benefícios, dentre eles, podemos destacar 15 principais: Produtividade; Organização em processos internos; Redução de custos; Diminuição de erros médicos; Redução de riscos; Planejamento estratégico; Segurança da informação; Otimização de processos; Relacionamento mais próximo com o paciente; Aumento da rentabilidade; Qualidade na assistência; Padronização de serviços; Integração de departamentos; Unificação na comunicação; Eficiência na tomada de decisões. Humanizar processos, aproximar o paciente Se de um lado a gestão é extremamente importante para a saúde do negócio hospitalar, de outro, há um ponto que tem sido cada vez mais requisitado no sistema de saúde: a humanização. E é aí que a tecnologia pode ajudar. Ao pensarmos em migrar totalmente para a era digital, é muito comum termos uma ideia de distanciamento e menos contato humano. Porém, na prática, a utilização de novos conceitos e ferramentas tecnológicas podem contribuir para estreitar o relacionamento. É preciso utilizar a tecnologia a nosso favor! Um dos maiores benefícios da utilização da Tecnologia da Informação na área hospitalar, por exemplo, é a proximidade e melhora no relacionamento com o paciente. A Tecnologia da Informação tem contribuído de forma significativa para melhorar a capacidade de diagnóstico, organizar o atendimento, ampliar os serviços e fortalecer a relação entre o médico e o paciente. A inclusão do TI no setor hospitalar tem transformado a forma como o paciente é tratado, aumentando a segurança nos procedimentos médicos e proporcionando um atendimento mais rápido nas emergências. É possível, ainda, garantir um atendimento personalizado ao manter um banco de dados mais focado no paciente. Com dados organizados e mais robustos, com históricos de consultas, diagnósticos e informações adicionais pertinentes. Desta forma, a equipe médica consegue ter uma aproximação maior com o paciente e ficar por dentro do seu histórico. Isso diminui erros de diagnóstico, mantém uma relação mais humanizada, além de melhorar a tomada de decisão do profissional. Algumas ferramentas permitem também que os pacientes possam acessar informações via Internet, fazer agendamentos online e até mesmo tirar dúvidas. Essa solução veio para revolucionar a relação paciente x unidade hospitalar. Segurança e saúde são fundamentais Medidas de segurança na área da saúde, principalmente no setor hospitalar, exigem ainda mais eficiência e responsabilidade. Este universo lida com vidas e, consequentemente, com informações muito particulares e confidenciais. Imagine se acontece algum vazamento de informações de uma grande unidade hospitalar? A instituição perderia sua credibilidade, pois se não encontra formas seguras de garantir a proteção dos dados, possivelmente também não está totalmente equipada para garantir um bom atendimento para seus pacientes. A tecnologia da informação vem ganhando cada vez mais participação na área da saúde e tem como uma de suas principais missões melhorar a segurança do paciente (e dos seus dados). Um sistema de informação hospitalar é focado em hardware e software. E pode conter módulos dentro dos grupos funcionais: administração, gerenciamento de pacientes, aplicações médicas e sistema técnico. Tudo isso precisa estar integrado! Ao investir na área de TI, a instituição melhora os aspectos de segurança em dois níveis Segurança Patrimonial – segurança e monitoramento de ambientes, além de controle de acesso; Segurança da Informação – dados dos pacientes, sejam esses cadastrais ou de prontuário médico. Desta forma, a organização atende a LGPD, lei geral de proteção de dados,

Saiba mais »

Oi Atualiza sua plataforma de MDM em parceria com a Navita

A OI atualizou a sua plataforma de MDM (Mobile Device Management – Gerenciamento de Dispositivos Móveis) para empresas. O lançamento do Oi Gestão de Mobilidade 2.0, em sua nova versão, é uma parceria entre a operadora e a integradora NAVITA, com a utilização das plataformas IBM Maas360 e Navita EMM. A atualização está em total conformidade com a Lei Geral de Proteção de Dados (LGPD) e também possui uma camada de serviços especializados em treinamentos, suporte na instalação e configuração de políticas. Desenvolvido para gerenciar dispositivos móveis, a plataforma tem recursos de monitoramento, segurança e produtividade. O Oi Gestão de Mobilidade 2.0, permite a criação de políticas, configurações de segurança, criação de perfis, monitoramento remoto de smartphones e tablets, além do controle de aplicativos e horário de uso. A solução ainda conta com recursos de inteligência artificial, que fornece insights para melhorar a gestão e segurança do ambiente corporativo (IBM Watson) e a visibilidade através do inventário de todos os dispositivos móveis, pessoais e corporativos cadastrados. A plataforma é fornecida como serviço na nuvem, e a cobrança do MDM é feita mensalmente por dispositivo, com a possibilidade de compra de chips, smartphones e tablets diretamente com a operadora. “Segundo a pesquisa de riscos em segurança de TI Corporativa da Kaspersky Lab e B2B International, 51% das empresas concordam que o aumento do número de dispositivos usados em suas organizações faz com que o gerenciamento da segurança desses aparelhos móveis seja mais difícil. E é para atender essa demanda que evoluímos com a nossa solução, não nos restringindo ao ambiente Oi. Nosso produto independe da operadora utilizada pelo cliente”, diz Rodrigo Shimizu, diretor de Marketing Corporativo da Oi.  

Saiba mais »