448 lines
20 KiB
Markdown
448 lines
20 KiB
Markdown
---
|
|
title: 5. Data Science & IoT
|
|
sidebar_label: 5. Data Science & IoT
|
|
sidebar_position: 5
|
|
---
|
|
|
|
A Pragmatismo adota uma abordagem centrada em código aberto para ciência de dados e Internet das Coisas (IoT), garantindo transparência, interoperabilidade e controle total sobre nossas soluções tecnológicas. Neste capítulo, apresentamos nossa visão, políticas e procedimentos relativos ao desenvolvimento e implementação de soluções de ciência de dados e IoT, fundamentadas em nossa filosofia de liberdade tecnológica e alinhadas com regulamentações vigentes.
|
|
|
|
Nossa abordagem open source nos permite evitar dependências de grandes empresas de tecnologia (Big Techs), preservando nossa autonomia tecnológica e facilitando a conformidade com regulamentações de privacidade e segurança de dados. Esta escolha estratégica representa não apenas uma preferência técnica, mas um compromisso com valores de transparência, comunidade e sustentabilidade digital.
|
|
|
|
### 5.1.1. Missão e Visão para Ciência de Dados & IoT
|
|
|
|
**Missão:** Desenvolver e implementar soluções de ciência de dados e IoT baseadas em tecnologias open source que proporcionem valor significativo aos negócios enquanto mantêm os mais altos padrões de privacidade, segurança e conformidade regulatória.
|
|
|
|
**Visão:** Estabelecer um ecossistema de ciência de dados e IoT totalmente baseado em ferramentas open source que capacite nossa organização a extrair insights valiosos de dados, sem comprometer a propriedade, a privacidade ou a segurança desses dados.
|
|
|
|
### 5.1.2. Princípios Fundamentais
|
|
|
|
1. **Soberania Tecnológica:** Manter controle total sobre nossa infraestrutura de dados e algoritmos.
|
|
2. **Transparência e Auditabilidade:** Garantir que todos os processos e algoritmos sejam transparentes e auditáveis.
|
|
3. **Privacidade por Design:** Incorporar princípios de privacidade desde a concepção das soluções.
|
|
4. **Ética de Dados:** Adotar práticas éticas em todas as etapas do ciclo de vida dos dados.
|
|
5. **Comunidade e Colaboração:** Contribuir ativamente para projetos open source e construir sobre o trabalho comunitário.
|
|
|
|
## 5.2. Stack Open Source para Ciência de Dados
|
|
|
|
### 5.2.1. Infraestrutura de Processamento de Dados
|
|
|
|
A Pragmatismo implementa uma infraestrutura robusta e escalável para processamento de dados, utilizando exclusivamente soluções open source:
|
|
|
|
#### 5.2.1.1. Plataformas de Processamento Distribuído
|
|
|
|
- **Apache Hadoop:** Framework para processamento distribuído de grandes conjuntos de dados.
|
|
- **HDFS (Hadoop Distributed File System):** Sistema de armazenamento distribuído.
|
|
- **YARN (Yet Another Resource Negotiator):** Gerenciador de recursos do cluster.
|
|
- **MapReduce:** Modelo de programação para processamento paralelo.
|
|
|
|
- **Apache Spark:** Engine unificada para análise de big data.
|
|
- **Spark Core:** Componente fundamental para processamento em memória.
|
|
- **Spark SQL:** Módulo para trabalhar com dados estruturados.
|
|
- **Spark Streaming:** Processamento de fluxos de dados em tempo real.
|
|
- **MLlib:** Biblioteca de machine learning.
|
|
- **GraphX:** API para processamento de grafos.
|
|
|
|
#### 5.2.1.2. Orquestração e Workflow
|
|
|
|
- **Apache Airflow:** Plataforma de orquestração de workflows de dados.
|
|
- **Luigi:** Framework para construção de pipelines de dados complexos.
|
|
- **Prefect:** Sistema de orquestração de fluxos de trabalho de dados modernos.
|
|
|
|
#### 5.2.1.3. Armazenamento e Processamento de Dados em Larga Escala
|
|
|
|
- **Apache Cassandra:** Banco de dados distribuído altamente escalável.
|
|
- **TimescaleDB:** Extensão do PostgreSQL otimizada para dados de séries temporais.
|
|
- **InfluxDB:** Banco de dados de séries temporais otimizado para IoT.
|
|
- **Apache Druid:** Base de dados analítica de alto desempenho.
|
|
|
|
### 5.2.2. Ferramentas de Ciência de Dados e Machine Learning
|
|
|
|
Nossa stack de ciência de dados e machine learning é composta por ferramentas open source robustas e maduras:
|
|
|
|
#### 5.2.2.1. Linguagens e Ambientes de Desenvolvimento
|
|
|
|
- **Python:** Principal linguagem para desenvolvimento de soluções de ciência de dados.
|
|
- **R:** Linguagem estatística para análises especializadas.
|
|
- **Julia:** Linguagem de alto desempenho para computação numérica.
|
|
|
|
- **Jupyter:** Ambiente interativo para exploração e desenvolvimento.
|
|
- **JupyterLab:** Interface avançada baseada em web.
|
|
- **JupyterHub:** Plataforma multi-usuário para notebooks.
|
|
- **Jupyter Book:** Criação de documentação interativa.
|
|
|
|
#### 5.2.2.2. Bibliotecas e Frameworks de Análise e Visualização
|
|
|
|
- **Análise de Dados:**
|
|
- **NumPy:** Computação numérica fundamental.
|
|
- **pandas:** Análise e manipulação de dados estruturados.
|
|
- **Dask:** Computação paralela para grandes volumes de dados.
|
|
- **Vaex:** Processamento de grandes datasets tabulares.
|
|
|
|
- **Visualização:**
|
|
- **Matplotlib:** Biblioteca abrangente para visualizações estáticas.
|
|
- **Seaborn:** Interface de alto nível para visualizações estatísticas.
|
|
- **Plotly Open Source:** Visualizações interativas.
|
|
- **Bokeh:** Visualizações interativas para web.
|
|
- **Dash:** Framework para aplicações analíticas web.
|
|
- **Apache Superset:** Plataforma de exploração e visualização de dados.
|
|
- **Grafana:** Plataforma para monitoramento e análise.
|
|
|
|
#### 5.2.2.3. Machine Learning e Deep Learning
|
|
|
|
- **Frameworks de Machine Learning:**
|
|
- **scikit-learn:** Biblioteca abrangente para machine learning.
|
|
- **XGBoost:** Implementação otimizada de árvores de decisão gradient boosted.
|
|
- **LightGBM:** Framework de gradient boosting de alta eficiência.
|
|
- **CatBoost:** Biblioteca para gradient boosting em dados categóricos.
|
|
- **mlflow:** Plataforma para gerenciamento do ciclo de vida de ML.
|
|
|
|
- **Deep Learning:**
|
|
- **PyTorch:** Framework flexível para deep learning.
|
|
- **TensorFlow (Apache 2.0):** Plataforma de ML de ponta a ponta.
|
|
- **Keras:** API de alto nível para redes neurais.
|
|
- **Hugging Face Transformers:** Biblioteca para modelos de linguagem natural.
|
|
- **Onnx:** Representação aberta para modelos de ML.
|
|
|
|
#### 5.2.2.4. Processamento de Linguagem Natural (NLP)
|
|
|
|
- **spaCy:** Biblioteca para NLP avançado.
|
|
- **NLTK:** Kit de ferramentas para processamento de linguagem natural.
|
|
- **Gensim:** Biblioteca para modelagem de tópicos e similaridade de documentos.
|
|
- **fastText:** Biblioteca para classificação de texto e representação de palavras.
|
|
- **StanfordNLP:** Suite de ferramentas NLP da Universidade de Stanford.
|
|
|
|
### 5.2.3. Ferramentas para IoT
|
|
|
|
Nossa infraestrutura IoT é construída inteiramente com tecnologias open source:
|
|
|
|
#### 5.2.3.1. Sistemas Operacionais e Firmware
|
|
|
|
- **Linux Embarcado:** Diversas distribuições para dispositivos IoT.
|
|
- **RIOT OS:** Sistema operacional para dispositivos com restrição de recursos.
|
|
- **Zephyr Project:** Sistema operacional escalável para dispositivos conectados.
|
|
- **OpenWrt:** Linux para dispositivos embarcados (roteadores, gateways).
|
|
|
|
#### 5.2.3.2. Protocolos de Comunicação
|
|
|
|
- **MQTT:** Protocolo leve para mensagens de publish/subscribe.
|
|
- **CoAP:** Protocolo de aplicação web para dispositivos restritos.
|
|
- **LwM2M:** Protocolo para gerenciamento de dispositivos IoT.
|
|
- **ZigBee:** Protocolo para redes de malha de baixa potência.
|
|
- **LoRaWAN:** Protocolo para redes de longo alcance e baixo consumo.
|
|
|
|
#### 5.2.3.3. Plataformas de Integração
|
|
|
|
- **Eclipse Mosquitto:** Broker MQTT leve.
|
|
- **Node-RED:** Ferramenta de programação visual para IoT.
|
|
- **Eclipse Kura:** Framework para gateways IoT.
|
|
- **ThingsBoard Community Edition:** Plataforma de desenvolvimento IoT.
|
|
- **EMQX:** Broker de mensagens escalável para IoT.
|
|
|
|
#### 5.2.3.4. Monitoramento e Gestão de Dispositivos
|
|
|
|
- **Zabbix:** Sistema de monitoramento de rede e aplicações.
|
|
- **Prometheus:** Sistema de monitoramento e alerta.
|
|
- **Grafana:** Visualização de métricas.
|
|
- **InfluxDB:** Armazenamento de dados de séries temporais.
|
|
- **Eclipse Ditto:** Framework para gêmeos digitais.
|
|
|
|
## 5.3. Governança de Dados
|
|
|
|
### 5.3.1. Políticas de Gestão de Dados
|
|
|
|
A Pragmatismo implementa uma abordagem abrangente para governança de dados:
|
|
|
|
#### 5.3.1.1. Classificação e Catalogação de Dados
|
|
|
|
Todos os dados são classificados e catalogados seguindo uma taxonomia padronizada:
|
|
|
|
- **Dados Públicos:** Informações que podem ser livremente compartilhadas.
|
|
- **Dados Internos:** Informações de uso interno da organização.
|
|
- **Dados Confidenciais:** Informações sensíveis com acesso restrito.
|
|
- **Dados Pessoais:** Informações que identificam indivíduos, sujeitas à LGPD/GDPR.
|
|
- **Dados Críticos:** Informações essenciais para operações de negócio.
|
|
|
|
#### 5.3.1.2. Ciclo de Vida dos Dados
|
|
|
|
Estabelecemos políticas claras para cada fase do ciclo de vida dos dados:
|
|
|
|
1. **Coleta:** Procedimentos para aquisição ética e legal de dados.
|
|
2. **Processamento:** Diretrizes para transformação e análise de dados.
|
|
3. **Armazenamento:** Requisitos para armazenamento seguro de dados.
|
|
4. **Uso:** Políticas para utilização apropriada de dados.
|
|
5. **Compartilhamento:** Regras para transferência interna e externa de dados.
|
|
6. **Arquivamento:** Procedimentos para preservação de longo prazo.
|
|
7. **Descarte:** Métodos seguros para eliminação de dados.
|
|
|
|
#### 5.3.1.3. Qualidade de Dados
|
|
|
|
Implementamos controles para garantir a qualidade dos dados:
|
|
|
|
- **Precisão:** Correspondência com a realidade representada.
|
|
- **Completude:** Presença de todos os valores necessários.
|
|
- **Consistência:** Ausência de contradições nos dados.
|
|
- **Atualidade:** Grau de contemporaneidade dos dados.
|
|
- **Conformidade:** Aderência a formatos e padrões definidos.
|
|
|
|
### 5.3.2. Conformidade Regulatória
|
|
|
|
Nossa abordagem open source facilita a conformidade com regulamentações:
|
|
|
|
#### 5.3.2.1. LGPD (Lei Geral de Proteção de Dados)
|
|
|
|
Implementamos controles específicos para atender à LGPD:
|
|
|
|
- **Mapeamento de Dados Pessoais:** Identificação e documentação de todos os dados pessoais.
|
|
- **Base Legal para Processamento:** Documentação da base legal para cada operação.
|
|
- **Direitos dos Titulares:** Procedimentos para atendimento de solicitações.
|
|
- **Relatórios de Impacto:** Avaliação de impacto para processamentos de alto risco.
|
|
- **Controles de Acesso:** Restrição de acesso a dados pessoais.
|
|
|
|
#### 5.3.2.2. GDPR (General Data Protection Regulation)
|
|
|
|
Para operações que envolvem dados de cidadãos europeus:
|
|
|
|
- **Representante na UE:** Designação quando aplicável.
|
|
- **Transferências Internacionais:** Controles para transferências seguras.
|
|
- **Registros de Atividades:** Documentação detalhada de processamentos.
|
|
- **Notificação de Violações:** Procedimentos para notificação dentro de 72 horas.
|
|
|
|
#### 5.3.2.3. Regulamentações Setoriais
|
|
|
|
Dependendo do setor de atuação do projeto, implementamos controles adicionais:
|
|
|
|
- **Saúde (HIPAA/CFM):** Proteções específicas para dados de saúde.
|
|
- **Financeiro (BACEN/CVM):** Controles para dados financeiros e transacionais.
|
|
- **Governo (IN01/GSI):** Requisitos para projetos governamentais.
|
|
|
|
### 5.3.3. Segurança de Dados
|
|
|
|
Nossa estratégia de segurança para dados e IoT inclui:
|
|
|
|
#### 5.3.3.1. Criptografia End-to-End
|
|
|
|
- **Em Repouso:** Utilização de LUKS, eCryptfs e VeraCrypt.
|
|
- **Em Trânsito:** Implementação de TLS/SSL e VPN baseada em OpenVPN ou WireGuard.
|
|
- **Em Processamento:** Uso de técnicas de criptografia homomórfica quando aplicável.
|
|
|
|
#### 5.3.3.2. Controle de Acesso
|
|
|
|
- **Autenticação Multi-fator:** Implementada com soluções como FreeOTP ou privacyIDEA.
|
|
- **Autorização Baseada em Papéis:** Controles granulares com RBAC.
|
|
- **Gerenciamento de Identidade:** Utilização de soluções como Keycloak.
|
|
- **Auditoria de Acesso:** Logging e monitoramento de todos os acessos.
|
|
|
|
#### 5.3.3.3. Segurança para Dispositivos IoT
|
|
|
|
- **Firmware Seguro:** Atualizações automáticas e assinadas digitalmente.
|
|
- **Hardening de Dispositivos:** Remoção de serviços desnecessários e configurações seguras.
|
|
- **Isolamento de Rede:** Segregação de dispositivos em VLANs separadas.
|
|
- **Monitoramento de Anomalias:** Detecção de comportamentos suspeitos.
|
|
|
|
## 5.4. Implementação de Projetos de Ciência de Dados & IoT
|
|
|
|
### 5.4.1. Metodologia de Desenvolvimento
|
|
|
|
Adotamos uma abordagem sistemática para projetos de ciência de dados e IoT:
|
|
|
|
#### 5.4.1.1. Ciclo de Vida de Projetos de Ciência de Dados
|
|
|
|
1. **Definição do Problema:**
|
|
- Identificação clara dos objetivos do negócio.
|
|
- Definição de métricas de sucesso.
|
|
- Avaliação de viabilidade e recursos necessários.
|
|
|
|
2. **Coleta e Preparação de Dados:**
|
|
- Identificação de fontes de dados relevantes.
|
|
- Extração e integração de dados.
|
|
- Limpeza e transformação de dados.
|
|
- Documentação de linhagem de dados.
|
|
|
|
3. **Exploração e Análise:**
|
|
- Análise exploratória de dados (EDA).
|
|
- Identificação de padrões e correlações.
|
|
- Formulação de hipóteses.
|
|
- Validação preliminar de abordagens.
|
|
|
|
4. **Modelagem:**
|
|
- Seleção de algoritmos e técnicas.
|
|
- Treinamento e validação de modelos.
|
|
- Ajuste de hiperparâmetros.
|
|
- Avaliação comparativa de modelos.
|
|
|
|
5. **Implementação:**
|
|
- Integração com sistemas existentes.
|
|
- Desenvolvimento de interfaces e APIs.
|
|
- Testes de desempenho e escalabilidade.
|
|
- Documentação técnica.
|
|
|
|
6. **Monitoramento e Manutenção:**
|
|
- Monitoramento de desempenho do modelo.
|
|
- Detecção de drift e degradação.
|
|
- Retreinamento periódico.
|
|
- Gestão de versões.
|
|
|
|
#### 5.4.1.2. Ciclo de Vida de Projetos de IoT
|
|
|
|
1. **Concepção:**
|
|
- Definição de requisitos funcionais e não-funcionais.
|
|
- Análise de viabilidade técnica e financeira.
|
|
- Seleção de hardware e protocolos.
|
|
- Avaliação de riscos de segurança.
|
|
|
|
2. **Design:**
|
|
- Arquitetura de sistemas.
|
|
- Topologia de rede.
|
|
- Design de interfaces de usuário.
|
|
- Planejamento de segurança.
|
|
|
|
3. **Desenvolvimento:**
|
|
- Programação de firmware e software.
|
|
- Configuração de infraestrutura.
|
|
- Integração com sistemas existentes.
|
|
- Implementação de controles de segurança.
|
|
|
|
4. **Testes:**
|
|
- Testes de conectividade e comunicação.
|
|
- Testes de resistência e performance.
|
|
- Testes de segurança (penetração, fuzz testing).
|
|
- Validação de requisitos.
|
|
|
|
5. **Implantação:**
|
|
- Instalação de dispositivos.
|
|
- Configuração de rede.
|
|
- Comissionamento de sistemas.
|
|
- Treinamento de usuários.
|
|
|
|
6. **Operação e Manutenção:**
|
|
- Monitoramento de desempenho.
|
|
- Atualizações de firmware.
|
|
- Manutenção preventiva.
|
|
- Gestão de incidentes.
|
|
|
|
### 5.4.2. Práticas de DevSecOps para Ciência de Dados e IoT
|
|
|
|
Integramos segurança em todo o ciclo de desenvolvimento:
|
|
|
|
#### 5.4.2.1. Integração Contínua (CI)
|
|
|
|
- **Automação de Testes:** Implementação com Jenkins, GitLab CI ou Drone CI.
|
|
- **Análise Estática de Código:** Utilização de SonarQube, Bandit e OWASP Dependency Check.
|
|
- **Verificação de Segurança:** Integração de ferramentas como OpenSCAP e OWASP ZAP.
|
|
|
|
#### 5.4.2.2. Implantação Contínua (CD)
|
|
|
|
- **Infraestrutura como Código:** Uso de Ansible, Terraform e SaltStack.
|
|
- **Containerização:** Implementação com Docker e Kubernetes.
|
|
- **Gerenciamento de Configuração:** Controle com Puppet ou Chef.
|
|
|
|
#### 5.4.2.3. MLOps (Machine Learning Operations)
|
|
|
|
- **Versionamento de Dados e Modelos:** Utilização de DVC (Data Version Control) e MLflow.
|
|
- **Pipelines Automatizados:** Implementação com Apache Airflow ou Kubeflow.
|
|
- **Monitoramento de Modelos:** Tracking com Prometheus e Grafana.
|
|
|
|
### 5.4.3. Documentação e Rastreabilidade
|
|
|
|
Mantemos documentação abrangente para garantir transparência e auditabilidade:
|
|
|
|
#### 5.4.3.1. Documentação de Código e Algoritmos
|
|
|
|
- **Documentação In-Code:** Comentários explicativos e docstrings.
|
|
- **Documentação de API:** Geração com Sphinx, MkDocs ou Javadoc.
|
|
- **Notebooks Documentados:** Explicações detalhadas em notebooks Jupyter.
|
|
|
|
#### 5.4.3.2. Documentação de Modelos
|
|
|
|
- **Cartões de Modelo:** Descrição completa baseada em Model Cards.
|
|
- **Linhagem de Dados:** Rastreamento com ferramentas como Apache Atlas.
|
|
- **Explicabilidade:** Documentação de métodos de interpretabilidade.
|
|
|
|
#### 5.4.3.3. Documentação de Dispositivos IoT
|
|
|
|
- **Inventário de Dispositivos:** Registro completo de todos os dispositivos.
|
|
- **Topologia de Rede:** Documentação da arquitetura de comunicação.
|
|
- **Configurações de Segurança:** Registro de parâmetros e controles.
|
|
|
|
## 5.5. Ética e Responsabilidade em Ciência de Dados & IoT
|
|
|
|
### 5.5.1. Princípios Éticos
|
|
|
|
Adotamos um conjunto robusto de princípios éticos:
|
|
|
|
#### 5.5.1.1. Justiça e Equidade
|
|
|
|
- **Detecção de Viés:** Uso de ferramentas como Aequitas e AI Fairness 360.
|
|
- **Mitigação de Discriminação:** Implementação de técnicas de debiasing.
|
|
- **Avaliação Diferencial:** Análise de impacto em diferentes grupos demográficos.
|
|
|
|
#### 5.5.1.2. Transparência e Explicabilidade
|
|
|
|
- **Interpretabilidade de Modelos:** Uso de SHAP, LIME e outros métodos explicativos.
|
|
- **Documentação Acessível:** Explicações claras sobre funcionamento de algoritmos.
|
|
- **Decisões Contestáveis:** Procedimentos para questionar resultados algorítmicos.
|
|
|
|
#### 5.5.1.3. Privacidade e Consentimento
|
|
|
|
- **Privacidade Diferencial:** Implementação de técnicas de anonimização robustas.
|
|
- **Minimização de Dados:** Coleta apenas de dados estritamente necessários.
|
|
- **Consentimento Informado:** Obtenção e documentação de consentimento explícito.
|
|
|
|
### 5.5.2. Avaliação de Impacto
|
|
|
|
Realizamos avaliações sistemáticas de impacto:
|
|
|
|
#### 5.5.2.1. Impacto Social
|
|
|
|
- **Análise de Stakeholders:** Identificação de todos os grupos afetados.
|
|
- **Avaliação de Consequências:** Análise de efeitos primários e secundários.
|
|
- **Consulta Comunitária:** Envolvimento de comunidades impactadas.
|
|
|
|
#### 5.5.2.2. Impacto Ambiental
|
|
|
|
- **Eficiência Energética:** Otimização do consumo de recursos computacionais.
|
|
- **Ciclo de Vida de Dispositivos:** Planejamento para descarte responsável.
|
|
- **Pegada de Carbono:** Monitoramento e redução de emissões.
|
|
|
|
#### 5.5.2.3. Avaliação de Impacto na Proteção de Dados (DPIA)
|
|
|
|
- **Mapeamento de Riscos:** Identificação de vulnerabilidades e ameaças.
|
|
- **Medidas de Mitigação:** Definição de controles compensatórios.
|
|
- **Documentação Formal:** Registro completo da avaliação conforme LGPD/GDPR.
|
|
|
|
## 5.6. Gestão de Talentos e Capacitação
|
|
|
|
### 5.6.1. Desenvolvimento de Competências
|
|
|
|
Investimos no desenvolvimento contínuo de habilidades:
|
|
|
|
#### 5.6.1.1. Programa de Capacitação
|
|
|
|
- **Trilhas de Aprendizado:** Percursos personalizados por função e nível.
|
|
- **Workshops Práticos:** Sessões hands-on com ferramentas open source.
|
|
- **Certificações:** Suporte para certificações relevantes como CDA, Azure Data Scientist, etc.
|
|
- **Projetos-Piloto:** Oportunidades para aplicação prática de conhecimentos.
|
|
|
|
#### 5.6.1.2. Recursos de Aprendizado
|
|
|
|
- **Biblioteca Digital:** Acesso a livros, artigos e cursos especializados.
|
|
- **Assinaturas:** Plataformas como DataCamp, Coursera e edX.
|
|
- **Conferências:** Participação em eventos da comunidade open source.
|
|
- **Grupos de Estudo:** Comunidades internas para troca de conhecimentos.
|
|
|
|
### 5.6.2. Comunidade e Colaboração
|
|
|
|
Fomentamos o compartilhamento de conhecimento:
|
|
|
|
#### 5.6.2.1. Contribuições Open Source
|
|
|
|
- **Política de Contribuição:** Diretrizes para participação em projetos open source.
|
|
- **Tempo Dedicado:** Alocação de horas para contribuições comunitárias.
|
|
- **Reconhecimento:** Valorização de contribuições significativas.
|
|
|
|
#### 5.6.2.2. Comunidades de Prática
|
|
|
|
- **Grupos de Interesse:** Comunidades temáticas internas.
|
|
- **Meetups Regulares:** Encontros para apresentações e discussões.
|
|
- **Fóruns de Discussão:** Espaços virtuais para troca de conhecimentos.
|
|
- **Hackathons Internos:** Eventos para solução colaborativa de problemas.
|