Informações e notícias sobre Business Intelligence e Tecnologia.

segunda-feira, 25 de julho de 2011

Visualizing Success

Fonte: Information Management


We hear it many times after disaster strikes: the warning signs were there, but the decision-maker didn't see them. Or, sophisticated technology had been installed, but no one had properly learned to use it. Such failings are often chalked up to "user error" or "problems between keyboard and chair."
In catastrophic failures that have involved analytics, we've come to see that sophisticated models won't do us much good unless decision-makers are able to interpret, understand and act on the results appropriately.


Bad outcomes related to analytic models often arise because designers have not considered how people interact with the information being delivered. Designers might be too enamored with the power of their model, its options and parameters. They may have forgotten that users are pressed for time and need to focus on daily duties.
As a result, users might not be able to answer basic questions such as, "What information should I pay attention to?" and, "Now that I've seen this information, what should I do?"
If users can't easily answer these questions, the interface and the analytics are plainly not meeting their needs. A more user-centric analytics design approach is needed.

What Users Need

Good analytic interfaces facilitate what the military calls situational awareness: a grasp of events relevant to a given situation, how those events relate to each other and an ability to project the effects those events will have on the situation. A situationally aware pilot uses the information presented in the cockpit to determine what course of action might be needed to respond to a situation.
The analytics interface is the decision-maker's cockpit. Well-designed "analytics cockpits" are built with characteristics that promote situational awareness, including:
  • Role-based design. A telecommunications CEO makes decisions unlike decisions made in the company's network operations center, so role-based interfaces to their analytics need to support different types of decisions. Where interfaces are tailored to roles, users won't be asking, "What does that thing do?" or "Why do I care?"
  • Less is more. Good analytics interfaces show the information most critical to the user - not every piece of information that might be available for analysis.
  • Sensory cues direct attention. Good interfaces exploit people's abilities to perceive patterns based on position, size, shape, color and movement. These properties highlight important features that might otherwise be lost in a table of numbers.
  • Interfaces suggest actions. Analytic dashboards alert users to potential performance issues and provide actionable information. Good interfaces provide context to interpret results that suggest what the user might do next and provide mechanisms such as clickthrough to facilitate an explanation and further analysis.

Designing User-Centered Analytics

Just as cockpits could not be designed without understanding what pilots need in order to fly an airplane, analytic interfaces should be driven by an understanding of what users will do with the results. Here are some principles for obtaining that understanding and designing interfaces accordingly.

Let the Users Lead

User-centric analytics follows the approach of other user-centric designs: start from user needs and work backward to design the interface that supports those needs, ultimately to the analytics that will drive that interface. Even when users cannot specify in advance what they really want, it is critical to involve them early and often as analytic interfaces are designed. Users are likely to feel about interfaces the same way Supreme Court Justice Potter Stewart described obscenity – they can't define it, but they know it when they see it. Users are even better gauges for bad interfaces – if enough users believe an interface is unsatisfactory, the designer is well-advised to accept their judgment.
Beyond consulting users, analytics designers should consider user preferences even in choosing basic analytic approaches. Users who are comfortable adopting an analytic approach are likely to be confident that they can explain and defend the analytics (that it is not a black box). Simple models have a greater chance of adoption than complex ones, and linear models have a greater chance of adoption than nonlinear ones, even at the sacrifice of accuracy.
If you are contemplating giving users the ability to set analytics modeling parameters, determine if they want to set those parameters and that they know how to do so (or at least give them default values).
Other benefits arise when users are involved in the design of analytic interfaces. They can help identify early wins the designer may not have thought of and might provide useful introductions to other potential users and their communities. A user who feels a sense of ownership in interface design can become an advocate for the technology respected by other users. Users of different abilities may point out accessibility considerations, such as how and when color is used so color-blind users get the same information from the intensity of the display.
It is always best to avoid relying on a single user for design. Vet judgments and suggestions with several other users to be sure that the input is representative of the intended user population.

A Picture is Worth a Thousand Numbers

The right visual display can make it much easier to understand the results of complex analytics and increase user adoption. Because of our human ability to understand relationships quickly based on size, position and other spatial attributes, the eye can summarize what might otherwise require thousands of numbers to convey.
As an example, Figure 1 represents an analytics interface at a large consumer products company. It shows the effectiveness of trade promotion investments in distributors of products offered by the company. Each dot represents a distributor, with the horizontal axis showing the amount of the investment in rebates offered through that distributor and the vertical axis showing the profit or loss from that investment. The vast majority of investments are small, with correspondingly small profits or losses.
The marketing manager wants to track performance averages, but is more interested in the outliers. The circles highlight several such outlier groups. The one in the upper left has a low investment, but an abnormally high return. The one in the upper right has a high investment with high return, while the cluster toward the bottom of the chart represents high investments with abnormally low returns. Each cluster represents an opportunity to improve investment effectiveness.
We can consider this a use of analytics rather than a simple data plot because the outliers were selected from thousands of possibilities and data attributes (not all shown on the graph), and the circles were drawn automatically based on a sophisticated statistical clustering method. Automatic clustering saves weeks of work, but it is not be important for the marketing manager to know the details. What he or she needs to know in order to figure out what to do next is the size of the outlier investments and returns. Surely, the manager could have inferred this with a spreadsheet and enough time, but this display communicates the findings at a glance. It is easy to see the number of outliers in each cluster, how the clusters relate to each other and the magnitude of the problem or opportunity.

From Analytics to Action
An analytics interface may be visually appealing, but if it doesn't stimulate action, it's not going to be very effective. Good interfaces provide the context to let the user know when action might be required.
Consider the treemap displayed in Figure 2, drawn from a health care organization that operates a number of hospitals. Each rectangle represents emergency room visits to one hospital; the larger the rectangle, the higher the number of ER visits. The color represents the number of visits relative to the forecasted number of ER visits. Red means the actual number of visits was higher than forecast, while green means the actual number of visits was lower than forecast. In both red and green cases, there is a problem with the forecasts.
In the red case, poor forecasting might have caused a shortage in supplies or staff, while in the green case, poor forecasting might have caused overstaffing (and expensive idle capacity). The larger the rectangle, the bigger the potential impact of forecasting errors on the hospital chain's overall results. The interface combines color and size to draw the eye to the hospitals or regions with the biggest forecasting issues, and it invites the users to learn more about those hospitals.
While not demonstrated here, this interface actually goes further in guiding the next action. When hovering over a rectangle (not shown), more detail is provided about the types of ER visits and forecasts for each. If this detail were provided in the initial display, including those where the lack of red or green indicates good forecasting and no need for action, the display would be cluttered with unactionable information. A good analytics interface presents information only when the user can act in response.

Relevancy Follows Role

While scores of workers from the C-suite to the contact center might benefit from access to analytics, different interfaces will be required to serve different job roles. This is illustrated with a final example in Figure 3.
This dashboard was created for an internal auditor to track requisitions, invoices and payments and identify anomalies in timing and volumes. Each element in the dashboard is relevant to the task. The top bar chart shows number of requisitions over time and uses color to emphasize the months with higher dollar amounts. The middle chart profiles the requisition on all the days within a chosen month, highlighting the weekend, showing the lag between requisition and purchase order. The treemap at the bottom uses size to show the number of requisitions from each department and color to indicate dollar value. Filters on the right can be used to focus in on particular ranges of requisitions or purchase order numbers.
The interface also illustrates the application of principles for good visual design. Displays of related information are horizontally and vertically aligned so the eye can see patterns across related variables (they do not have unintended alignments that suggest misleading or irrelevant comparisons). Color serves to highlight exceptions, not to enliven a dull dashboard. Analytic results are not presented to 10 decimal places when the user does not need such precision to make a decision. The displays have a high "data-ink" ratio, following Yale professor Edward Tufte's principles for designing statistical graphics. Good interfaces avoid 3-D effects or ornate gauge designs when simple numbers, charts and graphs will do.

The Payoff for Getting it Right

Analytics have enormous potential to improve business decision-making. They can improve operational efficiency, identify opportunities for growth, and identify and mitigate risks. They are the keys to increasing profitability and shareholder value. But to benefit from analytics, interfaces must be designed that improve situational awareness. Following the suggested design principles can facilitate the creation of interfaces that help users get the information they need, when they need it, to make faster and smarter decisions.

This publication contains general information only and is based on the experiences and research of Deloitte practitioners. Deloitte is not, by means of this publication, rendering business, financial, investment, or other professional advice or services. This publication is not a substitute for such professional advice or services, nor should it be used as a basis for any decision or action that may affect your business. Before making any decision or taking any action that may affect your business, you should consult a qualified professional advisor. Deloitte, its affiliates, and related entities shall not be responsible for any loss sustained by any person who relies on this publication.

Dr. David Steier is a director in Deloitte LLP, where he co-leads a group in the U.S. Deloitte Analytics Institute focused on advanced analytics and visualization. Prior to joining Deloitte, Steier worked at PwC, where he served as director of the Center for Advanced Research, and previously as a managing director at Scient.

A inteligência de negócios se volta para o futuro

Fonte: Decision Report


A inteligência de negócios se volta para o futuro
* Por Márcio Guerra     20/07/2011


Há 20 anos, o BI (Business Intelligence) despontava no mercado como grande promessa tecnológica, porém ainda restrita aos usuários mais modernos e economicamente poderosos. Sua grande disseminação em empresas de todos os portes deveu-se à economia de escala , que o tornou financeiramente acessível, associada é, claro ao enorme benefício que essa tecnologia proporciona ao negócio.

Hoje, porém, com o grande avanço das novas tecnologias de análise de dados em baixa latência (ou mesmo em tempo real) já é lícito avaliar que o tradicional modelo BI está entrando em fase de radical virada tecnológica. Implica dizer que, neste movimento, o que tradicionalmente se entende por BI não irá exatamente desaparecer, mas já começa a ceder o seu lugar para ferramentas mais  evoluídas. Ferramentas estas voltadas não só para suas antigas funções, mas também para funcionalidades antes não pensadas no seu modelo de plataforma.

O prognóstico é, em parte, embasado pela avaliação de que as novas ferramentas de Business Analytics (BA), já vão se consolidando no mundo como tendência irrefreável. De fato, uma nova e abrangente maneira de se encararem os dados estratégicos das empresas vai surgindo da confluência do BI com BA e com as novas tecnologias de armazenamento e ordenação dos dados. Este novo modelo de inteligência de negócios já começa a ingressar no mercado sobre diferentes rubricas, sendo uma delas a de BI 2.0.

Vale observar que tal avanço na forma de encarar o avanço do BI é parte de um processo natural de modernização da tecnologia computacional. Embora o BI tenha trazido muito mais competitividade aos negócios desde a sua criação; hoje, sua efetividade é bem menor, e o será cada vez menos, se ele não for capaz de incorporar os conceitos e requisitos advindos da nova era digital, baseada na banda larga abundante e na total conexão da sociedade em redes sem limitação geográfica e com baixo limite de performance.
A tarefa de organizar as informações e prever futuras decisões com base em eventos altamente recentes, que é a proposta do BI tradicional, torna-se agora apenas mais um componente (embora, sem dúvida importante) das novas tecnologias preditivas que integram o BI 2.0.

Mais do que reagir aos eventos, o que hoje a inteligência de negócios espera da tecnologia é que ela se adiante a eles. É a partir de tal premissa, que o novo modelo aqui chamado de BI 2.0 se direciona para descrever e entender aqueles fenômenos de negócio que ainda “devem” ocorrer e não mais os que “estão ocorrendo” e que são usados como subsídio para a ação dos gestores.

Exemplo disto são muitos. Um deles é o atual “boom” das tecnologias de forecasting (ou previsão de demandas), que estão revolucionando as práticas de planejamento do negócio e representam índices de acerto surpreendentemente maiores que os obtidos por meio da análise artesanal de gráficos fornecidos pelo antigo BI.
A compilação inteligente dos dados históricos, já mensurável pelo tradicional BI, permitia aos gestores trabalhar com intuições bem embasadas em dados reais. Porém, com o BI 2.0, esses “insights” de negócio passam a ser muito mais mecanizados, ou cada vez menos dependentes de intuições humanas e, portanto, desprovidas de um padrão matemático preciso.

A velocidade e o volume de pontos de decisão aumentaram substancialmente. Uma visão mais embasada do futuro já se torna uma exigência imposta pela complexidade cada vez maior dos negócios. Hoje não é mais suficiente aquela tecnologia capaz de  apresentar uns painéis, oriundos de aplicação de análises ad-hoc,  para que os executivos encontrem históricos relacionados aos clientes, produtos, fornecedores, tempos, localidade, pessoas ou contratos.

No mínimo, as novas soluções precisam ser capazes de sugerir possíveis ações ou decisões, baseadas em hipóteses fortemente lastreadas, proporcionando ao gestor uma tomada de decisão dinâmica e segura. Com isto, o BI 2.0 resolve, de modo imediato, a necessidade de redução do time-to-market (hoje uma das grandes demandas dos negócios), e de mitigação do risco de perdas de oportunidades, com a conseqüente potencialização da eficácia das organizações.

Juntamente com o BI 2.0, deve iniciar-se a eclosão de uma segunda onda de reorganização das bases de dados empresariais. A constituição de novos data centers em nuvem e o avanço da venda de software como serviço (SaaS), marcam o começo da nova era tecnológica nas empresas, consolidando a base para a expansão do BI 2.0.

* Márcio Guerra é diretor comercial da MD2 Consultoria

segunda-feira, 18 de julho de 2011

Falta de planejamento retarda efeito do BI

Fonte: TI Inside

Falta de planejamento retarda efeito do BI

Os projetos de business intelligence não são uma responsabilidade da área de TI, mas da direção de uma empresa.” Com essa afirmação, executivos ligados a empresas provedoras de soluções de business intelligence (BI) respondem à alta incidência de erros nas corporações frente à prioridade, por quase 10 anos consecutivos, segundo o Gartner, de investimentos em projetos de BI.

A alta incidência de erros foi identificada no estudo global “The Business Impact of Big Data”, realizado pela Kelton Research a pedido da Avanade, joint venture entre a Microsoft e Accenture. Na pesquisa aplicada em 543 companhias de 17 países na América do Norte, Ásia Pacífico e na Europa, 46% das empresas dizem se apoiar em informações imprecisas ou desatualizadas quando estão decidindo novas estratégias.

A pesquisa revela que o alto volume de dados está criando um grande desafio aos executivos. Mais de 56% dos “c-level” – gerentes e diretores de negócios, decisores de TI e líderes de unidades de negócios – afirmam sentir-se pressionados pelo volume de dados gerados pelas suas empresas. Muitos deles, inclusive, confessaram atrasar decisões importantes devido a necessidade de manuseio de grande volume de informações.

“As empresas precisam desenvolver a cultura dos dados, na qual executivos, colaboradores e parceiros estratégicos sejam atores ativos na gestão e manuseio do ciclo de vida da informação”, diz Tyson Hartman, global chief technology officer da Avanade. “Isso fará com que as empresas consigam transformar dados em informações.”

Dualidade

Apesar da incômoda proliferação dos dados, os profissionais desejam ainda mais informação e querem também um ritmo de entrega acelerado. Um em cada três deles acredita que o acesso a um número maior de fontes poderia melhorar seu desempenho no trabalho, enquanto 61% diz querer acesso rápido aos dados. De acordo com a pesquisa, este desejo por mais dados e maior velocidade é impulsionado pela capacidade, ou ausência dela, das empresas se manterem alinhadas com as expectativas de seus clientes.

“Nossa pesquisa confirma o que ouvimos dos clientes sobre os desafios no gerenciamento dos dados. Os executivos parecem estar segurando um acesso mais rápido aos dados como forma de ajudá-los a lidar com a sobrecarga de informação. Ao mesmo tempo em que a velocidade é importante, o contexto é absolutamente essencial para compreender o escopo completo dos dados e tomar decisões corretas na hora certa”, diz Hartman.

Talvez esteja aí a justificativa para o fato de o BI estar entre as tecnologias prioritárias dos gestores de TI também em 2011. Mas a constatação mais alarmante da pesquisa divulgada pela Avanade é que ao mesmo tempo em que os executivos reconhecem que há valor nos dados, uma vez que a partir de previsões de negócios eles reduzem as incertezas e melhoram o posicionamento competitivo das empresas, 61% deles acreditam que a avalanche de dados muda drasticamente a dinâmica de funcionamento das empresas.

“O problema é que boa parte desses dados são imperfeitos ou não estruturados e isso distorce o resultado final”, sentencia Antonio Paulo Rihl, responsável pela recém-estruturada operação da Tagetik no Brasil, uma provedora global de soluções de gestão de desempenho (performance management), governança financeira e business intelligence. Rihl, aliás, liderou operações locais da Business Objects e da Hyperion.

Outra falha, na opinião de Flavio Bolieiro, vice-presidente América Latina da MicroStrategy, é a automatização de processos convencionais e equivocados sem atenção à necessidade de análise.

Dissipação

Kátia Vaskys, executiva de Business Analytics & Optimization (BAO) da IBM Brasil, confirma que os obstáculos à qualidade na tomada de decisão são organizacionais. Primeiro, porque falta entendimento sobre como usar a análise para transformar o negócio; depois porque falta tempo aos gestores para aprender como usar a informação, ou seja, deixar de usar a intuição e passar a analisar relatórios; e por fim o conhecimento dos usuários na manipulação de ferramentas de business intelligence com a correta aplicação de mecanismos de gestão de mudanças, para que os executivos reaprendam a trabalhar com análise para gerar informação.

Também não se pode manter os “guetos” de informações responsáveis por manipular e distribuir a informação. “Hoje as informações estão em sites, mídias sociais, conteúdo, documentos digitalizados, etc. Cada vez mais o próprio processamento da informação está distribuído”, alerta a executiva.

Aos poucos as empresas promovem a distribuição da informação e da tomada de decisão. E o que antes era uma atribuição exclusiva de um departamento ou o maior valor de outro, agora cresce em vias horizontais e verticais, segundo Marco Antonio Brittes, diretor de BI da Sofftek. O Brasil em particular, diz ele, está migrando de projetos departamentais de business intelligence para aqueles que atendem a toda a empresa. Essas por sua vez buscam complementar o projeto para atender a várias áreas ou a empresa como um todo, expandindo os projetos de datamart para um data warehouse.

Mas Brittes alerta para o fato de ainda haver “muita empresa com problemas básicos de informação transacional. “Elas até têm estratégias de BI, mas enfrentam muito problema em obter informação de qualidade”.

MÃO NA MASSA

A CSU CardSystem, processadora de cartões e

crédito, é responsável pelo processamento dos cartões de nove empresas, entre elas a Porto Seguro, o HSBC, o BANERJ e Carrefour. E foi com este perfil que a companhia pesquisou o mercado para identificar uma platafoma que lhe desse maior competitividade no mercado. “O BI entrou na estrutura inicialmente para controlar campanhas promocionais”, conta Rodrigo Bibiano,

gerente de sistemas da CSU.

Após pesquisas, a empresa delegou à Softtek a responsabilidade de implementar o projeto, com a ferramenta IBM Cognos, inicialmente na CSU MarketSystem, o braço da empresa que oferece soluções de marketing de relacionamento. Entre novembro de 2009 e meados de 2010 foram investidos aproximadamente R$ 2 milhões, apenas no serviço de implementação.

O segundo passo foi associar o BI ao cartão de crédito, para apresentar itens de faturamento, ganhos com ativamento de cartões e a montagem de campanhas baseadas no uso do cartão. Uma ação que despertou interesse da diretoria, viabilizando a criação de duas frentes de trabalho, interna e externa, porque, segundo Bibiano, “a área de finanças começou a ver os números com maior exatidão, melhorou a qualidade das propostas e colocou todos os dados abaixo de um BI único”.

Prova de fogo

O movimento aumentou o grau de assertividade e a confiança da diretoria nos dados. “Como o retorno foi muito bom, implementamos também o planning – no qual estão todos os controles”, conta o gerente de sistemas.

Nos últimos quatro a cinco anos, a CSU empreendeu um programa de captação de novos clientes e também utilizou a plataforma de business intelligence para promover a internalização de um deles. “Quando analisei a base, vi que tudo estava muito confuso, com muitos desencontros de informações. Traçamos um processo de alinhamento dos dados e só conseguimos concluir o projeto em seis meses porque utilizamos a plataforma de BI para a limpeza dos dados.

Na migração foi internalizado o processamento de gastos de mais de 4 milhões de cartões, sem interrupções no faturamento de mais de 8 mil lojas. “Foi uma ação de guerra, com fretamento de avião para transportar informação, processamento de informações em tempo recorde”, conta o gerente de sistemas, segundo o qual agora, com o BI, a operação da CSU erra menos do que no modelo anterior baseado em Excel.

“Aumentamos a confiabilidade. Os dados são

protegido e todo o processo é automatizado e supervisionado. Sabemos exatamente quando começa e quanto termina qualquer coisa diferente do normal”, conclui o executivo, dizendo que o atual modelo afetou até o quadro de RH da CSU.

Aposta Bilionária

Com a aquisição de várias empresas (foram investidos US$14 bilhões na compra de 24 companhias nos últimos cinco anos) e a recém-criação de uma diretoria específica para Business Analytics & Optimization (BAO), liderada por Kátia Vaskys, a IBM reforça a aposta no setor e o transforma em um de seus principais pilares de negócios para os próximos anos, com a meta de alcançar receita de US$ 16 bi no setor até 2015.

A IDC prevê que o mercado de BA crescerá uma média de 7% ao ano de 2009 até 2014, com aumento ainda maior esperado nos próximos 10 anos. O que ajudou a aumentar o interesse do mercado foi a explosão na quantidade de dados digitais. Nos bancos, por exemplo, os dados crescem a uma taxa de 50% ao ano. A IBM estima que 80% dos novos dados não são estruturados e vêm de blogs, e-mail, podcasts, comentários de clientes e vídeos, todos eles oferecendo desafios de análise.

Bola cheia

A receita mundial da indústria de software de business intelligence (BI) e seus subsegmentos (que incluem ferramentas analíticas e de gerenciamento de performance corporativa – CPM, na sigla em inglês) atingiu US$ 10,5 bilhões no ano passado, cifra 13,4% maior que os US$ 9,3 bilhões registrados em 2009, de acordo com estudo do Gartner.

A consultoria atribui o aumento nos gastos com software de BI no ano passado ao ressurgimento dos pacotes de incentivos, a melhoria geral da economia e ao lançamento de novos produtos. “Os gastos com software de BI ultrapassaram em muito o crescimento dos orçamentos para TI em todo o mundo em muitos anos, e é claro que o BI continua a ser uma tecnologia central para as organizações. Os fornecedores também atuaram de forma agressiva nesta área, o que contribuiu para impulsionar a demanda”, disse Dan Sommer, analista de pesquisas do Gartner.

Os quatro grandes fornecedores do mercado – SAP, Oracle, IBM e Microsoft – continuaram a consolidar o mercado, sendo que, juntos, detêm 59% de market share. Considerando apenas as plataformas de BI e de CPM juntas, eles detêm cerca de dois terços, de market share, enquanto que em aplicações analíticas o SAS domina o mercado.

Self-Service Business Intelligence: Empowering Users to Generate Insights

Fonte: It Toolbox


Self-Service Business Intelligence: Empowering Users to Generate Insights





DWI: “In today’s economic environment, organizations must use business intelligence (BI) to make smarter, faster decisions. Yet, in too many organizations, decisions are still not based on business intelligence because of the inability to keep up with demand for information and analytics. One way to satisfy this demand is to set up a self-service BI (SS BI) environment.

Self-service BI offers an environment in which information workers can create and access specific sets of BI reports, queries, and analytics themselves—without IT intervention. This approach extends the reach and scope of BI applications to address a wider range of business needs and problems. At the same time, this extension must support the information workers’ need for a personalized and collaborative decision-making environment. Information workers must become more self-sufficient by having a BI environment that is more usable and more consumable. It is these two themes—usability and consumability—that play crucial roles in a fully functioning self-service business intelligence (SS BI) environment.”

Self-service BI is defined as the facilities within the BI environment that enable BI users to become more self-reliant and less dependent on the IT organization. These facilities focus on four main objectives: easy access to source data for reporting and analysis, easy-to-use BI tools and improved support for data analysis, fast-to-deploy and easy-to-manage data warehouse options such as appliances and cloud computing, and simpler and customizable end-user interfaces.

DIY BI Self Service Business Intelligence: Empowering Users to Generate Insights

TDWI provides a report describing the technological underpinnings of these four objectives in great detail while recognizing that there are two opposing forces at work—the need for IT to control the creation and distribution of BI assets and the demand from information workers to have freedom and flexibility without requiring IT help.

Some of the interesting bits of the report…

What are the benefits to IT of Self-Service BI?
In their research, TDWI noted that IT garnered a number of key benefits from the deployment of SS BI as well.
• IT can often step aside as the intermediary Self-service capabilities give users what they have wanted for years—more hands-on control over the information they access and use. This directly leads to better satisfaction with BI and IT in general.
• IT can focus on more value-added activities Rather than constantly being pulled off projects to create a new report or analytic, IT can focus on more value-added activities. For example, they can concentrate on developing new applications, expanding data in the data warehouse from existing and new sources, improving data quality processing, and incorporating new technologies to improve performance.
• IT becomes a partner to business users rather than a roadblock Business users move into a role that is more responsible for BI capabilities. IT moves into a role that better supports business needs. Both sides become respected partners in the organization.

What do they have to say about SaaS BI?
 
Cloud computing is gaining significant attention from organizations because it potentially offers a Industry interest in faster and lower-cost approach to developing, deploying, and maintaining IT applications. From a BI cloud computing and and data warehousing perspective, there are three aspects to cloud computing that are of interest:

• Packaged software-as-service (SaaS) BI applications that can be deployed in a cloud environment.
Like on-premises packaged BI solutions, these solutions offer the benefits of fast development and deployment as well as on-demand and elastic scalability. Deploying packaged applications in a cloud environment provides the additional benefit of a pay-as-you-use subscription model with lower up-front and predictable costs, which reduces risk.
• SaaS BI tools that can be used to develop BI applications for deployment in a cloud computing or on-premises environment. This approach reduces the need to install in-house development tools, which speeds development and possibly lowers costs. It is also a good approach for evaluating tools and building prototypes.
• Data warehousing in the cloud. This approach is discussed in the section “Cloud-Based Data Platforms”.

Interface: The End of the End User

Fonte: Information Management


Interface: The End of the End User

The borders of the office are being redefined forever by collaboration and engagement on Web platforms

Information Management Magazine, July/Aug 2011
End user. It's a term we hear every day in the business intelligence community. Who reads our reports? Who uses BI tools? Who makes decisions? The end user.
But here's the problem: There are no "end users" anymore. With good BI, and especially with newer business discovery or self-service tools, no user is at the "end" of anything. Every user is the start of something new.
CTOs seem to think of users as being at the end of a technology process in which IT supplies hardware and software, and users take what they are given. If this ever was the case, circumstances have certainly changed. Users adopt mobile devices and even BI tools independently, and network administrators appear to be running to keep up with these new demands.
Some users sit at the end of a "chain of custody" of data (or rather, data governance teams assume they are at the end of a chain). These users receive reports and analyses, and where there is a decision management process downstream, it is assumed that their data goes no further. Yet, users have always redistributed information outside administrative protocols as simply as exporting to Excel.
Even more clearly, these users are not at the end of the business process. There's little point in providing a report just for the sake of someone reading it. If a user acts on any report, they set a new process of their own into motion.
Business users take BI further with social collaboration. They discover and provision their own technologies ahead of the IT curve. They share data. It's simply mistaken to erect an invisible wall to mark where the process, or the technology, or the data simply stops.
Around 10 years ago, my IT department supplied all the software and hardware I needed for work. When I changed jobs in 2011, things were different, and not only because I moved to a smaller company. My new IT department still delivered a preloaded laptop, but also some critical processes that used online services.
Meanwhile, colleagues were suggesting tools for note keeping, file sharing or chat that were "unofficial" standards. These "apps" were not provisioned IT and didn't require their involvement to install and use, yet IT knew about them and advised on configuration where needed.
This all sounds familiar, but it is a transformative change. Business users are now actively choosing and using technologies and often insist on their choices. Barack Obama famously resisted not just an IT team but also the Secret Service. "I'm still clinging to my BlackBerry," he said after his inauguration as President. "They're going to pry it out of my hands." He still has it.
Users are no longer unreceptive consumers: They are knowledgeable active users who actively influence IT strategy. They are no longer at the end of the technology value chain.
This behavior also befits trends in BI software. In the 2011 Magic Quadrant for Business Intelligence Platforms, Gartner acknowledges "vocal, demanding and influential business users (who) are increasingly driving BI purchasing decisions, most often choosing easier-to-use data discovery tools over traditional BI platforms - with or without IT's consent."
Just as companies may have "bring your own device" policies, there are few compelling reasons why BI tools cannot be supported in the same way. IT departments can still deliver enterprise reporting, and there will be spreadsheets in Excel, open source or online. IT can provision traditional or self-service BI tools if they wish. Just as with devices, active users will choose the tool that suits their practice and thinking style.
On my traditional desktop machine, I worked with Microsoft Outlook. In that one application, I had email, notes, a task list and a calendar, all connected to my enterprise Exchange server. Today, on my iPhone and iPad I have an email app, a notes app, a task organizer app and a calendar app for the same purposes. Each app is just how I want it: focused on a great user experience for one aspect of my work. However, they are all still connected to my enterprise Exchange server. This tells me that IT's role does not lie in managing my apps, but in supplying the services, security and data I need to be effective in my corporate environment. How I work is up to me.
In this transformed world, the roles of BI users and administrators will similarly evolve. IT will be the providers of quality data and services to users. Active users will choose their apps to suit their needs. They will build analytics around the data services from IT. They will share and collaborate. And they will not be the end of anything, but rather at the beginning of something new and very exciting.
Donald Farmer is QlikView Product Advocate, QlikTech.
For more information on related topics, visit the following channels: