Resumo: Diversos engines de desenvolvimento de jogos como, por exemplo, UNITY 3D, já disponibilizam ferramentas bastante efetivas para geração, mineração e visualização de dados para desenvolvimento e avaliação de jogos digitais. Além de permitir a aceleração de processos de avaliação de desempenho de implementações, técnicas de mineração e visualização de dados também colaboram na obtenção de informações para formação de perfis e detecção de hábitos de jogadores. Além disso, esta área emergente, conhecida como Game Analytics, oferece diversas oportunidades de pesquisa e desenvolvimento de produtos, tanto do ponto de vista acadêmico quanto industrial. Dentro deste contexto, o objetivo deste minicurso será apresentar as bases de geração de dados baseados em eventos em jogos digitais, as estruturas necessárias para armazenamento, os principais processos e algoritmos de mineração destes dados, assim como sua efetiva visualização, tanto em esquemas do tipo dashboard quanto em artefatos dentro do próprio jogo. Todos os fundamentos serão ilustrados com exemplos práticos suportados pelo plugin GameAnalytics, disponível para o game engine Unity3D.
Palestante: Prof. Dr. Luciano Silva
Mini-Curriculum: Bacharel em Ciência da Computação (1996), Mestre em Matemática Aplicada (1998) e Doutor em Ciência da Computação (2004), todos pelo IME-USP. Especialista em Data Mining pela Universidade de John Hopkins (2014). Coordenador e pesquisador do Laboratório de Processamento Gráfico e Mídias Digitais, vinculado a Faculdade de Computação e Informática da Universidade Mackenzie. Sócio-proprietário da empresa Nornes Pesquisa e Desenvolvimento, que atua no ramo de projeto e desenvolvimento de soluções para visualização e jogos para dispositivos móveis e redes sociais. Já organizou diversos eventos pela SBC (WRVA, SBGAMES, CBSOFT, SVR, ERAD-SP, SBAC) e ministrou diversos tutoriais também em eventos realizados/apoiados pela SBC (WEBMEDIA,SVR, WRVA, ERAD-SP, SBGAMES).
Resumo: Modelagem dimensional e ferramenta OLAP com a criação de um cubo para a ferramenta OLAP. Apresentação da ferramenta de ETL denominada de PDI do Pentaho para criar o data warehouse visando extrair os dados das fontes de dados e criar a nova base de acordo com o modelo gerado. Criação de Dashboards, utilizando o plugin de criação de dashboards, para visualização dos dados. E, por fim, apresentação de um case usando o Pentaho.
Palestrante: Leandro Guimarães
Mini-Curriculum: Fundador e CEO da empresa Know Solutions, empresa especializada em Business Intelligence e Data Warehouse; Aluno de Ralph Kimball e Margy Ross no curso de Modelagem Dimensional realizado pela Kimball University em Estocolmo - Suécia; Palestrante em diferentes eventos sobre Business Intelligence e Software Livre; Pós-Graduado em Gestão em Projetos de Software pela PUC-PR; Trabalha com Business Intelligence e a plataforma Pentaho desde 2009; Atuou em diferentes países como Colômbia, Chile, Argentina e Itália.
Resumo: Os primeiros sistemas de gestão possuíam uma grande ênfase em auxiliar seus usuários a executar suas tarefas cotidianas com maior facilidade e agilidade. Com o passar do tempo, isso se tornou insuficiente. Os usuários precisavam mais do que relatórios para acompanhar o andamento de atividades e conferência das mesmas, precisavam de informações integradas de outras áreas da empresa e formas mais eficientes de realizar os controles. Atualmente, a maior parte dos sistemas de gestão possuem essa amplitude. São dados chegando de diferentes áreas da empresa e formam uma verdadeira massa de dados que precisa ser transformada em informação. E, por sua vez, toda essa informação precisa chegar no tempo certo para auxiliar os usuários nas suas análises e facilitar o processo da tomada decisões no seu dia a dia. Este minicurso tem por objetivo apresentar formas e ferramentas para transformar dados em informação, gerando conhecimento que auxilia as pessoas a tomar as melhores decisões nas empresas.
Palestrante: Leandro Schio
Mini-Curriculum: Possui graduação em Tecnologia em Processamento de Dados pela Universidade de Caxias do Sul. Atualmente é o Gestor de Customizações da Focco Sistemas de Gestão S.A., empresa onde atua há 10 anos, tendo experiência em desenvolvimento de softwares e análise de sistemas.
Resumo: Introdução à carga de dados, Conceitos de Design, Pasta e Objetos de Pasta, Listas e Gráficos.
Palestrante: Júlio César Fábio
Mini-Curriculum: Profissional com mais de 28 anos de experiência em TI. Formado pela Unisul em Gestão de TI. Certificado pela Oracle em SQL e Administração de Banco de Dados. Atuou como analista, Dba, consultor e instrutor em várias empresas de TI no RS, PR, SC e SP. Atualmente é consultor/instrutor de BI na Synergy Inteligência de Negócios, empresa com foco exclusivo em BI Qlikview. Profissional Certificado Qlikview.
Resumo: Diversas aplicações atualmente produzem e manipulam grandes volumes de dados, denominados Big Data. Bancos de dados tradicionais, em particular, os Bancos de Dados Relacionais (BDRs), não são adequados ao gerenciamento de Big Data. Assim, novos modelos de dados têm sido propostos para manipular estes dados, visando alta escalabilidade e disponibilidade. A maioria destes modelos de dados pertence a uma nova categoria de gerenciadores de dados denominados BDs NoSQL. Entretanto, BDs NoSQL não são compatíveis com o padrão de consulta SQL. Torna-se assim pertinente o desenvolvimento de abordagens para o suporte da interoperabilidade entre BDRs e BDs NoSQL. Este minicurso visa apresentar em detalhes as abordagens existentes, bem como uma análise comparativa das mesmas.
Palestrantes: Ronaldo dos Santos Mello (UFSC) e Geomar André Schreiner (UFSC)
Mini-Curriculum:
Ronaldo dos Santos Mello: Possui graduação (1990), mestrado (1994) e doutorado (2002) em Ciência da Computação pela Universidade Federal do Rio Grande do Sul. Atualmente é professor asssociado do Departamento de Informática e Estatística da Universidade Federal de Santa Catarina. Tem experiência na área de Ciência da Computação, com ênfase em Banco de Dados, atuando principalmente nos seguintes temas: integração de dados, gerência de dados na Web e na nuvem, modelagem de dados e restrições de integridade. Coordena, desde 2006, o Grupo de pesquisa em Banco de Dados da UFSC (GBD/UFSC). Coordena, desde novembro de 2011, o Programa de Pós-Graduação em Ciência da Computação da UFSC (PPGCC/UFSC).
Geomar André Schreiner: Possui graduação em Ciência da Computação pela Universidade Federal da Fronteira Sul (2014) e curso técnico-profissionalizante pelo Colégio Politécnico da UFSM (2010). Atualmente cursa mestrado no Programa de Pós-Graduação em Ciència da Computação da UFSC (PPGCC/UFSC). Áreas de interesse: integração de dados, gerência de dados na nuvem, modelagem de dados, bancos de dados NoSQL.