Semântica e multimídia: Uma introdução à inteligência artificial simbólica aplicada à multimídia
Guilherme Lima (IBM Research), Rodrigo Santos (IBM Research Brazil) Marcio Ferreira Moreno (IBM Research | Brazil)
Este minicurso é uma introdução à inteligência artificial (IA) simbólica aplicada à multimídia. O minicurso está dividido em três partes. Na primeira parte, apresentamos noções gerais de IA simbólica e discutimos os desafios envolvidos na construção de aplicações multimídia inteligentes, isto é, aplicações enriquecidas com consulta, raciocínio e recomendação semântica, Na segunda parte, discutimos as principais tecnologias de AI simbólica e a sua aplicação em multimídia. Em particular, apresentamos as linguagens de representação de conhecimento RDF(S) e OWL, as lógicas de descrição (DLs) que fundamentam essas linguagens, a linguagem de consulta SPARQL, e os vocabulários e extensões que nos permitem aplicar essas tecnologias à dados multimídia. Na terceira e última parte, discutimos o modelo de Hiperconhecimento: um modelo híbrido para representação de conhecimento e conteúdo. O modelo de Hiperconhecimento estende o NCM, um modelo clássico de hipermídia, com a noção de elos semânticos, permitindo a representação integrada de conteúdo multimídia e de sua descrição semântica.
An Introduction to Data Stream Processing: A Complex Event Processing Approach
Marcos Roriz Junior (Universidade Federal de Goiás) , Alan Guedes (Puc-Rio), Fernando Magalhães (Pontifícia Universidade Católica do Rio de Janeiro), Sérgio Colcher (PUC-Rio), Markus Endler (PUC-Rio)
A cada dia torna-se mais importante extrair informação rapidamente de fluxo de dados que são gerados constantemente e em grande quantidade. Exemplos práticos são a processamento de dados de sensores na indústria, a detecção de engarrafamento de veículos, de situações de alerta em redes sociais, e a análise do mercado de ações. Para tais tarefas existem várias tecnologias focadas na análise de fluxos de dados, as quais vão desde bancos de dados ativos até o processamento de eventos complexos. O processamento de eventos complexos, também conhecido como CEP (Complex Event Processing), consiste em um modelo de programação que fornece primitivas para processar e derivar eventos (informações) mais complexas a partir de fluxos de dados. CEP tem capacidade de examinar dados provenientes de múltiplas fontes. Esses dados são encapsulados em eventos simples, também chamados de eventos atômicos ou eventos brutos. Os fluxos de eventos são examinados por um processador de eventos, o qual utiliza regras CEP previamente especificadas. Regras CEP são primitivas que permite especificar como os eventos devem ser processados. Cada processador utiliza uma linguagem, ou EPL (Event Processing Language) para definir as regras. As regras são o método disponibilizado pelas ferramentas CEP para especificar como deve ser feita a análise dos eventos. Regras CEP são semelhantes a consultas a um banco de dados, porém enquanto no banco as consultas são feita a informações já armazenadas, uma regra CEP é uma consulta contínua, ou seja, todo novo evento recebido é testado contra as regras que já haviam sido instanciadas antes da chegada do evento. Em uma indústria, por exemplo, o evento de incêndio pode ser gerado a partir de eventos de aumento de temperatura e detecção de Fumaça. Em Smart Cities, por exemplo, o evento de engarrafamento pode ser detectado a partir de eventos mais simples que indicam que vários veículos não estão se movendo em um determinado período de tempo. Neste sentido, este minicurso tem como objetivo apresentar o modelo de programação de processamento de eventos complexos (CEP) como meio de lidar com as especificidades de fluxos de dados. Especificamente, o minicurso prepara o participante para: (1) entender os conceitos e problemas fundamentais de processamento de fluxo de dados e o modelo CEP; (2) apresentar a tecnologia Esper e a sua linguagem de regras EPL como meio de tratar os fluxo de dados; (3) Exemplificar um caso de uso da aplicação de CEP para tratamento de dados de aplicações IoT; (4) Apresentar um outro caso de uso de aplicação de CEP como meio de processar dados de aplicações para Smart Cities.
Teoria e Prática de Microserviços reativos: Um estudo de caso na Internet das Coisas
Cleber Lira de Santana (UFBA), Leandro Andrade (Universidade Federal da Bahia), Brenno Alencar (Universidade Federal da Bahia (UFBA)), José Vitor Sampaio (Federal University of Bahia), Ernando. Batista (Universidade Federal da Bahia), Cassio Prazeres (Universidade Federal da Bahia)
Microservices recentemente tem sido empregado na Cloud Computing para suportar a construção de sistemas de larga escala que sejam resilientes, elásticas e melhor adaptados para atender as demandas atuais. Na Internet das Coisas (Internet of Things IoT) um conjunto de aplicações inteligentes podem ser construídas nos mais diferentes cenários e que podem impactar na rotina diária da vida das pessoas. O desenvolvimento de aplicações e serviços na IoT traz desafios como implantação, elasticidade e resiliência. Microserviços implementados com as caraterísticas de resiliência, elasticidade e dirigido a mensagens são considerados Microserviços reativos. Portanto, o minicurso tem como objetivo principal oferecer a alunos de graduação, pós graduação e pesquisadores formação para o desenvolvimento de projetos e pesquisas que adotem Microserviços reativos para a implementação das aplicações com foco em resiliência e elasticidade.
Coleta online de conjuntos de dados usando recursos do Chrome Extension
Andre Lima (Universidade de São Paulo), Maria da Graca Campos Pimentel (Universidade de Sao Paulo (USP)), Marcelo Manzato (University of Sao Paulo)
Neste minicurso mostraremos como o navegador Chrome pode ser customizado para coletar dados da navegação online de usuários recrutados como participantes de uma pesquisa acadêmica. Apresentaremos a arquitetura básica de customização (o Chrome Extension framework) e como usá-la para (1) identificar o usuário recrutado, informá-lo sobre quais dados de navegação serão coletados e obter seu consentimento, (2) coletar dados de histórico de navegação, (3) coletar resultados de busca realizada em modo conectado ou em modo incógnito, (4) armazenar os dados coletados em um repositório centralizado, e (5) publicar a extensão desenvolvida na loja online.
Deep Learning Methods for Video Understanding
Gabriel Pereira dos Santos (DeVry), Pedro Almeida (PUC-Rio Brazil), Antonio Busson (PUC-Rio), Alan Guedes (Puc-Rio), Sérgio Colcher (PUC-Rio), Ruy Milidiú (PUC-Rio)
A popularização de equipamentos de captura audiovisual e de serviços para armazena- mento e transmissão vídeo, possibilitou a produção de massivos volumes de vídeo. O Youtube, por exemplo, registrou em 2014 o upload de 72 horas de vídeo por minuto, enquanto que em 2018 esse número subiu para 400 horas. Esse cenário apresenta desa- fios para navegação, busca e recomendação nesse grande volume vídeos. Essas atividades requerem análise automática desse volume de forma eficiente e prática, contemplando não somente a classificação dos vídeo, mas também o entendimento de eventos complexos.
Recuperação de Informação Multimídia em Big Data utilizando OpenCV Python
Rudinei Goularte (ICMC/USP ) e Tiago Henrique Trojahn (IFSP – São Carlos)
A popularização de sistemas, aplicativos e dispositivos para produzir, exibir e compartilhar conteúdo multimídia fez surgir a necessidade de tratar um grande volume de dados. Nas áreas relacionadas (como Multimedia Big Data, Ciência de Dados e Recuperação de Informação Multimídia) um pré-requisito chave é comumente conhecido como Indexação Multimídia (ou Análise Multimídia em Big Data), onde o objetivo é representar o conteúdo em unidades menores e mais gerenciáveis, permitindo a extração de features dos dados e informações essenciais para o bom funcionamento dos serviços associados. Este minicurso aborda ferramentas e técnicas atuais para indexação, extração e processamento de conteúdo multimídia multimodal. As técnicas são exemplificadas em OpenCV Python sobre diferentes conteúdos (imagens, áudio, texto e vídeo), levando ao interesse de serviços como Netflix, Google e YouTube nesse assunto, despertando o interesse de pesquisadores e desenvolvedores.