Missão cumprida, voltamos de dois dias intensos de informação no Gartner Analytics Summit. Primeiramente, recomendo o próximo evento a todos os interessados em alta tecnologia. Algumas palestras foram espetaculares. A Gartner tem grande peso internacional na formação de valor na comunidade de TI, impactando diretamente em decisões da indústria. E em seus eventos se percebe o porquê.

Portanto, com o título acima não busco desmerecer o valor do evento ou seu tema, sem dúvidas, o assunto é da maior relevância. Para se ter ideia, o Gartner afirma que até 2020, analytics será a tecnologia predominante de suporte ao negócio, superando os aplicativos de gestão e performance empresarial. Porém, gostaria de comentar sobre o exagero que está ocorrendo em relação ao Data Discovery. Todo o marketing relativo a Business Intelligence está direcionado a esse tema, notoriamente neste evento.

Se você ainda não ouviu falar do assunto, Data Discovery trata de um conceito, materializado em ferramenta, cuja promessa é popularizar o BI ao tornar o cruzamento e a descoberta de informações acessíveis para usuários de negócio, sem apoio da TI. De fato, é isso mesmo que essas ferramentas já começam a entregar.

Dado este apelo, o mercado decidiu investir todas as suas fichas no Data Discovery e posicioná-lo como a força motriz do segmento de Analytics para a década. Está formado o über hype! O negócio é tão sério, que há muita gente boa dizendo que o Data Discovery muda completamente o conceito de BI, que ninguém mais vai perder tempo com Data Warehouse e ETL, que se trata de uma evolução disruptiva, ou coisas do gênero. Mas isso é um erro, e os efeitos colaterais foram omitidos dos panfletos.

Um antigo problema da TI está em garantir a qualidade e a consistência dos dados que formam a base informacional de seus clientes. Os dados vêm de fontes variadas, sujeitos a manipulações de programas distintos e desintegrados, aos erros de entrada de usuários e as falhas sistêmicas. Como se pode ver, os dados não são, a priori, tão confiáveis. O que fazer para garantir que os gestores descrevam e analisem seus negócios a partir de informações integras e padronizadas, que constituam uma versão única da verdade? À égide do Big Data, essa questão se agrava exponencialmente, pois as fontes dos dados estão se tornando mais heterogêneas e os dados, absurdamente mais abundantes e desestruturados.

Para esclarecer o ponto, vou falar de outra tecnologia, o MDM – Master Data Management. Se trata de um conjunto de conceitos, processos e ferramentas que objetivam gerenciar, dar consistência, prover qualidade, confiabilidade e governança aos dados organizacionais. Nos últimos anos, a disciplina ganhou abrangência e importância, e passamos a falar de EIM – Enterprise Information Management. Agora, os objetivos extrapolam a gestão e a qualidade dos dados e passamos também a pensar em soluções corporativas para disponibilização da informação, tornando o conhecimento disponível onde e quando for necessário, e adequado a políticas e normas do negócio. Então, se passaremos a beber das informações com o Data Discovery, é aqui que se cultiva os dados.

Numa analogia com o vinho, se certas escolhas não forem feitas previamente pelo produtor, na composição do terroir e no tratamento das videiras, a qualidade das uvas resultantes será ruim. Neste caso, o consumidor mais versado na enologia não seria capaz de tirar um vinho decente daí. Transformar dados em conhecimento não é tão diferente, pois a matéria prima também precisa ter boa qualidade. Portanto, não é difícil perceber que soluções de qualidade, MDM ou EIM, são necessidades prementes e anteriores ao Data Discovery. Talvez sua organização já tenha investido nisso, e implantado um programa de qualidade e de governança de dados. Mas não é isso que temos visto por aí.

O que me fez sobressaltar a percepção de hype do Data Discovery é exatamente o fato de que a outra grande mensagem do evento foi no campo da governança dos dados e gestão da informação. Só que houve um descasamento incoerente entre os assuntos. Qualidade e governança de dados não foram assuntos encontrados nas mesas redondas dos fabricantes, nem haviam folders espalhados sobre o tema. Porém, a matéria esteve entre as mais abordadas em palestras técnicas. O fato é que a TI está preocupada com isso, com toda razão! Só que nesse caso não há burburinho, pois o assunto não é tão empolgante e é menos palatável aos usuários finais.

Gartner - Data Discovery

Não me entendam mal, sou grande entusiasta do Data Discovery. É a inovação de BI que faltava para dar mais vida, sentido e percepção de resultado aos usuários de negócio. E você certamente terá uma solução destas em sua organização nos próximos anos, pois todos os grandes fabricantes já têm a sua versão, ou estão trabalhando numa. E é exatamente por causa disso que agora é o momento ideal para se investir na qualidade e na confiabilidade dos seus dados e informações. Em breve, os gestores de sua organização estarão minerando esses dados e criando seus insights de negócio como nunca fizeram. Qual será a qualidade dessas descobertas? O diferencial competitivo dependerá disso.

Alexandre Nunes
Especialista em Análise de Dados

Um grupo de profissionais e clientes da VERT participaram do evento da EMC e Symantec que acontece anualmente em Las Vegas.

las_vegas

cio_gov_florianopolisCom stand e palestras para 100% dos presentes no evento, a VERT participou do CIO GOV 2014, evento que reuniu mais de 130 CIOs do setor público.

O evento aliou relacionamento, conteúdo e integração e teve como objetivo trazer para discussão assuntos que vão além da fronteira de temas técnicos, como debates que influenciam tanto no crescimento pessoal, quanto profissional.

No último dia 27, VERT & COMPUWARE realizaram um evento no Rio de Janeiro sobre Gestão de performance das Aplicações.

O objetivo foi mostrar como esta parceria têm colaborado para revolucionar a forma de gestão das aplicações de missão crítica com ganhos mensuráveis.

A palestra com o tema “Desempenho de suas aplicações a partir da experiência dos usuários finais” foi seguida de apresentações de cases de sucesso, e posteriormente regado a um jantar.

vert_compuware_rj

 

Com mais de 100 clientes e prospectes presentes, o evento realizado em parceria com a EMC superou as expectativas.

Com o tema “Software defined Storage” a palestra foi um sucesso, mostrando que o datacenter definido por software cria um ambiente de TI ágil, diminuindo os riscos operacionais, aumentando a utilização dos recursos existentes e gerando redução de custos.

 

vert_emc

O evento foi finalizado com um jantar, no Porcão em Brasília.

A VERT participou com stand e palestra no SECOP 2014 – Seminário Anual de TIC para Gestão Pública, realizado em Foz do Iguaçu pela ABEP – Associação Brasileira de Entidades Estaduais de Tecnologia da Informação e comunicação.

secop_foz

 

O módulo de Gestão de Capital Humano (HCM – Human Capital Management) do sistema SAP é facilmente adaptável para se adequar a esta exigência e a Vert tem trabalhado em empresas dos mais diferentes segmentos.

O eSocial é uma ação conjunta dos seguintes órgãos e entidades do governo federal: Caixa Econômica Federal, Instituto Nacional do Seguro Social – INSS, Ministério da Previdência – MPS, Ministério do Trabalho e Emprego – MTE, Secretaria da Receita Federal do Brasil – RFB. As informações ficarão armazenadas no Ambiente Nacional do eSocial e poderão ser acessadas pelos órgãos participantes para fins previdenciários, fiscais e de apuração de tributos e do FGTS.

Órgãos ligados ao projeto eSocial

Com o eSocial, o impacto para as empresas será adotar um novo fluxo de transmissão de informações relevantes da relação trabalhista e previdenciária, tais como declarações e resumos para recolhimento dos tributos. Isso quer dizer que irá modificar ou substituir completamente documentos como Guia de Recolhimento do FGTS e Informações à Previdência Social (GFIP), DIRF, RAIS, CAGED e outras obrigações acessórias.

Outros módulos também foram acrescentados, como reclamações trabalhista e sobre a saúde e segurança do trabalhador, como por exemplo: afastamentos e doenças laborais deverão ser declarados quase de maneira instantânea quando a empresa tomar conhecimento do fato.

Para as empresas, o principal benefício será, portanto, a redução da burocracia. Para o Governo e órgãos fiscalizadores essa centralização facilitará a busca e crítica de irregularidades, tais como prazos desrespeitados, erros de cálculo e declarações inconsistentes.

Para os clientes usuários do sistema SAP, a arquitetura abaixo resume como será feita a integração do sistema para o cumprimento dessas exigências. Em alto nível, podemos definir que haverá uma troca periódica de dados (diárias, semanais ou mensais, de acordo com as exigências) que serão extraídas do sistema SAP e serão repassadas através da Internet para o Ambiente Nacional do eSocial.

Arquitetura SAP para projeto eSocial

Maiores informações podem ser obtidas pelos links do Portal eSocial e no artigo de Ricardo Viana no SAP Community Network.

O calendário de implementação do eSocial está mais próximo do que nunca e isso afetará a todas as empresas. Aquelas organizações que possuem o sistema SAP podem usar a consultoria Vert para adaptar-se às novas regras. Aquelas que ainda não possuem, podem aproveitar essa oportunidade para implementar o sistema de Gestão de Capital Humano da SAP e Gestão da Saúde e Segurança do Trabalho para se adaptar ao projeto eSocial e aprimorar a gestão de talentos da sua empresa.

Angelo Junior
Especialista em Planejamento Empresarial

A Internet mudou radicalmente o modo de trabalhar das empresas, criando e substituindo canais de comunicação. A Virtualização, em um momento futuro, transformou a operação das empresas trazendo automação e permitindo um nível de consolidação nunca antes alcançado. Hoje, os principais desafios de TI nas empresas são o de alinhar a TI aos objetivos de negócios, necessitando de um conjunto de ferramentas que permitam redesenhar o datacenter de forma ágil, afim de se obter auxilio na tomada de decisões. Nesse contexto, é que o conceito de Datacenter Definido por Software tem se tornado relevante.

A virtualização é o elemento central do SDDC. Em um primeiro estágio a virtualização permitiu a abstração das capacidades de processamento e memória dos computadores, agrupando-os em ilhas de processamento, permitindo a criação de computadores virtuais de acordo com a demanda de cada sistema. Os principais benefícios alcançados foram a automação de processos repetitivos, velocidade no provisionamento de servidores, continuidade de negócios, alta disponibilidade dos sistemas e a redução de custos com a consequente redução da quantidade de computadores físicos (consolidação).

 

Movimento SDDC

A mesma tecnologia que permitiu a virtualização do processamento, agora permite a virtualização dos demais pilares do datacenter, a rede de dados e segurança e o armazenamento de dados, baseando-se nos conceitos de Software-Defined Network (SDN) e Software-Defined Storage (SDS), respectivamente. O conceito de SDDC contempla, portanto, a abstração da inteligência de todo o hardware do datacenter, implementando sobre este a inteligência do software, tornando o Datacenter Definido pelo Software. Este modelo permite a orquestração dos recursos disponíveis, tornando seu uso mais eficiente com a definição de regras de negócio para o seu consumo, aprimorando a gestão com automatização de processos, permitindo o monitoramento centralizado dos recursos e da qualidade dos serviços e estendendo os benefícios da virtualização à todas as áreas do datacenter. A necessidade de interação humana com o hardware é mínima, simplificando a administração da TI e trazendo SLAs excelentes.

SDDC Movimento 2

O SDDC é portanto, a resposta do mercado de TI às exigências de negócio das organizações. Possuir todo o datacenter em uma abstração lógica unificada, cria um modelo de autosserviço onde os usuários poderão consumir recursos através de datacenters virtuais próprios, contando com um catálogo virtual de Aplicativos, Servidores e Desktops Virtuais, com liberdade de escolha de fornecedores. Com o SDDC, pessoas e organizações passão a consumir TI de forma autônoma, mantendo a visibilidade precisa dos custos e da qualidade pelo CIO. O SDDC oferece uma infraestrutura onde as cargas de trabalho são ajustadas automaticamente e o provisionamento dos recursos é programático, permitindo um nível de controle, elasticidade e escalabilidade não possível nos modelos tradicionais, dando vantagem competitiva e agilidade comercial por meio de benefícios tais como a potencialização da operação e a continuidade de negócios em caso de desastre.

Um dos principais fabricantes que lidera o desenvolvimento desse conceito é a VMware, a empresa líder no quadrante mágico do Gartner de junho de 2013 (mais recente), tem em seu portfólio uma suíte de produtos chamada vCloud Suite, que completa uma solução completa para a implementação da arquitetura do SDDC.

 

SDDC - Movimento 3

Leandro Marques
Especialista em Virtualização

No momento de avaliação de investimentos para upgrade tecnológico é importante os gestores avaliarem a opção de appliance de backup, que oferecem uma arquitetura integrada e expansível. Essa tecnologia é mais eficiente não apenas em questões técnicas, mas financeiras, quando se coloca os custos de aquisição, configuração, integração e manutenção de servidores e equipamentos de armazenamento de fabricantes distintos.

A Symantec, terceira maior fabricante de software do mundo, foi visionária neste assunto lançando um appliance de backup com hardware especialmente desenvolvido para este propósito. O produto Symantec NetBackup™ Appliance série 5200 vem com o software NetBackup pré-instalado para fornecer uma solução completa e integrada de backup e desduplicação para os clientes.

blog-3

Os appliances da Symantec têm uma arquitetura flexível e escalável e podem ser implantados como um servidor de backup tudo-em-um (all in one), com deduplicação inteligente fim a fim (end-to-end) ou em uma configuração de vários appliances de backup (media servers), podendo mover centenas de Terabytes de dados por dia. As opções de conectividade de rede flexíveis permitem que estes appliances sejam implementados para atender escritórios remotos, servidores virtuais, ou necessidades de proteção de dados de data centers.

Algumas das principais características do appliance de backup estão elencadas a seguir:

  • Solução ideal para proteção de máquinas virtuais com suporte para VMware vSphere ™ e Microsoft Hyper- V ®.
  • Cada equipamento da série NetBackup 5200 é capaz de armazenar a partir de 4TB e expansível até 76TB de disco utilizável.
  • Solução completa de Backup com desduplicação embutida. A Symantec fornece o software, hardware, serviços e suporte.
  • A desduplicação Intelligente end-to-end reduz o tamanho dos backups em até 50 vezes e utilização de largura de banda em até 99 por cento, de modo que você pode fazer backup e replicar mais rapidamente as informações.
  • Possui múltiplos papéis funcionais, podendo ser implementado como master server, media server ou ambos para um ambiente NetBackup.

Os equipamentos da série NetBackup 5200 permitem que você crie facilmente e implemente estratégias de backup e desduplicação para a gestão eficaz de informação da sua organização. Esta é a solução mais simples e inovadora para seu ambiente de backup, ela vai maximizar o tempo da equipe de TI, equipe de operações e minimizar os investimentos em armazenamento.

Leon Homar
Especialista em Segurança

Em minhas atividades em implementações ou mesmo atuando em manutenções da base SAP já instalada, sempre me deparo com críticas à apresentação das soluções SAP, em modelos de execução complexa, requerendo o uso de várias transações para se atingir o objetivo de um processo, de forma não intuitiva, com cores e formatos não agradáveis aos olhos de quem executa e, caras para serem modificadas.

Isso ocorre principalmente pela necessidade da formatação de modelos adequados, rigorosos, para a execução de cada processo empresarial. Uma boa implantação SAP-ERP pode exigir da empresa até uma reformulação ampla de processos.

Mas, como podemos mudar tudo isso?

Formas menos complexas de tratar os processos no âmbito da usabilidade podem ser utilizadas. Ao menos duas alternativas podem ser analisadas, a fim de gerar o resultado esperado: SAP-Screem Personas ou adaptação com SAP-FPM (Floorplan Manager for Web Dynpro ABAP).

SAP Screen Personas: Produtividade através da personalização

SAP Screen Personas fornece uma forma simples, através da composição de funcionalidades, totalmente voltado a ambientes web, para adaptar telas SAP-GUI e dessa forma torná-las mais visualmente atraentes, como representado na figura abaixo:

Exemplo de uma tela usando SAP Screen Personas

Maiores informações podem ser obtidas pelo link da SAP Community Network.

SAP-FPM (Floorplan Manager for Web Dynpro ABAP) – Framework para Interfaces de Usuários altamente configuráveis

Com a ajuda de elementos pré-definidos, tais como floorplan, barras de ferramentas e objetos genéricos de interface do usuário, o FPM fornece consistência entre aplicações e conformidade com as diretrizes de design de interface do usuário SAP, bem como reduz significativamente o tempo necessário para criar tais aplicações.

As funções centrais como a navegação, mensagens e personalização são incorporados no framework e podem ser facilmente definidas por APIs. O FPM permite adaptar facilmente a entrega de interface de usuários Web Dynpro ABAP às suas necessidades específicas de configuração sem modificação e combinar visualizações específicas da aplicação de um ou mais aplicativos de negócios em novas aplicações Floorplan Manager.

SAP Floorplan Manager

Maiores informações podem ser obtidas pelo link do SAP Help Portal.

Esse artigo buscou apresentar as alternativas existentes para buscar melhores interfaces aplicando conceitos de usabilidade e maior experiência do usuário final. Nas próximas interações, iremos detalhar cada uma dessas duas alternativas, totalmente web e, que podem otimizar e muito as atividades operacionais.

Marcos Hodum
Especialista em Planejamento Empresarial

SAP S/4 HANA

Conheça nossos parceiros