Conheça o blog técnico de Carlos Diego
Pesquisas atualmente em andamento, sendo conduzidas por Carlos Diego C. P., seus grupos de pesquisas e alunos dos programas de gradução e pós-graduação (Mestrado e Doutorado) em Ciências da Computação.
Integridade de Dados; Fairness e Viés Algorítmico; Dados Sintéticos; Proveniência e Governança de IA.
Investigar como integridade, viés, geração sintética de dados e proveniência formam um ecossistema interdependente para a construção de sistemas de IA confiáveis, propondo o Data-Centric Trust Pipeline como modelo unificado para elevar transparência, interpretabilidade e responsabilização ao longo de todo o ciclo de vida dos dados.
Integridade de dados em ambientes sociotécnicos complexos
Problema: Como assegurar consistência, contextualização e completude dos dados quando grande parte dos datasets operacionais carece de metadados, padronização e documentação?
Justificativa: Falhas de integridade comprometem reprodutibilidade, auditabilidade e amplificam erros em modelos downstream.
Persistência de viés mesmo com intervenções algorítmicas
Problema: Quais abordagens permitem mitigar disparidades de desempenho entre grupos demográficos quando métricas de fairness são insuficientemente documentadas ou incompletas?
Justificativa: Estudos mostram variações de 20–35% em erro entre grupos, revelando que fairness requer tratamento contínuo e integrado à cadeia de dados.
Confiabilidade e riscos associados ao uso de dados sintéticos
Problema: Como validar autenticidade, representatividade e limites de uso de dados sintéticos, considerando que eles podem reproduzir vieses estruturais ou introduzir incertezas não detectáveis?
Justificativa: Dados sintéticos são artefatos epistemológicos; sem rastreabilidade, podem distorcer interpretações e prejudicar análises sensíveis.
Proveniência como mecanismo de responsabilização
Problema: De que forma sistemas de proveniência podem evoluir de repositórios passivos para registros interpretativos que documentam não apenas transformações, mas também racionalidades e decisões humanas?
Justificativa: Proveniência é essencial para explicabilidade, auditoria e reconstrução histórica de decisões em pipelines de IA.
Schwabe, D., Becker, K., Seyferth, M., Klaß, A., & Schaeffter, T. (2024).
The METRIC-framework for assessing data quality for trustworthy AI. npj Digital Medicine.
Buolamwini, J., & Gebru, T. (2018).
Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.
Hameed, M. A. S., Qureshi, A. M., & Kaushik, A. (2024).
Bias Mitigation via Synthetic Data Generation. Electronics.
Ahmed, M., Dar, A., Helfert, M., Khan, A., & Kim, J. (2023).
Data Provenance in Healthcare: Approaches, Challenges, and Future Directions. Sensors.
Longpre, S. et al. (2024).
A Large-Scale Audit of Dataset Licensing and Attribution in AI. Patterns.
Computação em Nuvem; Arquitetura de Software; Engenharia de Desempenho; Planejamento de Capacidade; Sistemas Distribuídos.
Investigar como características arquiteturais, semântica de workloads e objetivos operacionais (SLO, PLO, RLO) podem ser integrados em um modelo conceitual unificado para planejamento de capacidade em nuvem, propondo o C2PF como um framework architecture-aware capaz de produzir decisões proativas, explicáveis e repetíveis.
Limitações de abordagens reativas e dependentes de histórico
Problema: Como superar a dependência de modelos reativos e heurísticos baseados exclusivamente em métricas históricas, que falham em capturar variação, concorrência e comportamento dinâmico de workloads?
Justificativa: A ausência de contexto arquitetural leva a previsões imprecisas, overprovisioning e respostas tardias a gargalos estruturais.
Ausência de modelos integrando arquitetura, workload e objetivos de serviço
Problema: De que forma combinar componentes arquiteturais, classificação funcional de workloads e objetivos de desempenho/fiabilidade para orientar decisões de capacidade de forma unificada?
Justificativa: Estudos indicam lacunas semânticas, temporais e cognitivas entre arquitetos, operadores e planejadores, dificultando previsões acuradas e planejamento contínuo.
Impacto das decisões arquiteturais no comportamento de capacidade
Problema: Como formalizar e quantificar os efeitos de padrões de arquitetura (microservices, event-driven, serverless, service mesh) no consumo e nos limites de capacidade dos sistemas?
Justificativa: Pesquisas mostram que fatores arquiteturais podem adicionar até 30% de sobrecarga, alterando diretamente requisitos de escalabilidade, latência e resiliência.
Padronização insuficiente para sizing e previsão de demanda
Problema: Como definir uma taxonomia abstrata de classes de sizing que correlaciona demanda computacional, características de capacidade e objetivos de serviço, garantindo repetibilidade?
Justificativa: A falta de padronização gera inconsistência entre equipes e impede automação eficaz em pipelines de DevOps e SRE.
Pereira, C. D. C. (2023).
Capacity Planning of Cloud Computing Workloads — Doctoral Dissertation, CESAR School.
Pereira, C. D. C. (2025).
Capacity Planning of Cloud Computing Workloads: Theoretical and Empirical Synthesis of Architecture-Aware Capacity Planning — IntechOpen.
Richards, M., & Ford, N. (2020).
Fundamentals of Software Architecture. O’Reilly Media.
Lichtenthäler, R., Fritzsch, J., & Wirtz, G. (2023).
Cloud-Native Architectural Characteristics and Their Impacts on Software Quality: A Validation Survey.
Zhu, X. et al. (2023).
Dissecting Overheads of Service Mesh Sidecars.
Jamshidi, P., Ahmad, A., & Pahl, C. (2013).
Cloud Migration Research: A Systematic Review.
Gunther, N. (2010).
Guerrilla Capacity Planning: A Tactical Approach to Planning for Highly Scalable Applications and Services.
Amiri, M., & Mohammad-Khanli, L. (2017).
Survey on Prediction Models for Cloud Resource Provisioning.
Becker, S., Koziolek, H., & Reussner, R. (2011).
Capacity Planning for Event-Based Systems Using Automated Performance Prediction..]
Economia da Inteligência Artificial; Ecossistemas de Plataformas Digitais; Infraestrutura Computacional; Organização Industrial de Mercados Tecnológicos; Produtividade em Trabalho do Conhecimento.
Investigar a estrutura tecnológica e econômica do ecossistema de inteligência artificial generativa, analisando como diferentes camadas da cadeia de valor — semicondutores, infraestrutura de nuvem, desenvolvimento de modelos, inferência, plataformas e aplicações — organizam a dinâmica de competição, investimento e captura de valor no setor. A pesquisa busca integrar literatura de machine learning, economia de plataformas digitais e estudos de inovação, propondo um modelo conceitual da cadeia de valor da IA generativa e avaliando empiricamente hipóteses sobre capital intensivo, concentração de infraestrutura, difusão de capacidades tecnológicas, barreiras de entrada em aplicações e impactos de produtividade.
Estrutura econômica e capital intensivo na cadeia de valor da IA
Problema: Como a distribuição de capital intensivo entre diferentes camadas do ecossistema de IA generativa influencia a estrutura competitiva do setor?
Justificativa: A literatura indica que treinamento de modelos e infraestrutura computacional exigem grandes volumes de investimento em hardware especializado e data centers, criando barreiras estruturais de entrada e concentrando capital nas camadas inferiores da cadeia tecnológica.
Concentração de infraestrutura computacional
Problema: Até que ponto o fornecimento de infraestrutura computacional necessária para IA generativa apresenta concentração estrutural de mercado?
Justificativa: A produção de hardware especializado e a operação de infraestrutura em escala global dependem de capacidades industriais e financeiras significativas, o que tende a concentrar oferta entre poucos fornecedores e hyperscalers.
Difusão de capacidades tecnológicas em modelos de IA
Problema: Com que velocidade as capacidades técnicas desenvolvidas em modelos de fronteira se difundem entre diferentes organizações e plataformas?
Justificativa: Estudos indicam que melhorias em modelos de IA tendem a se difundir rapidamente pelo ecossistema, reduzindo exclusividade tecnológica e pressionando preços de serviços de inferência.
Barreiras de entrada no desenvolvimento de aplicações
Problema: Como o acesso a modelos por meio de APIs e plataformas influencia as barreiras de entrada para o desenvolvimento de aplicações baseadas em IA?
Justificativa: A disponibilidade de modelos como serviços permite que desenvolvedores construam aplicações sem necessidade de treinar modelos próprios ou operar infraestrutura de larga escala, reduzindo significativamente os requisitos de capital para inovação downstream.
Coordenação e captura de valor em plataformas
Problema: Qual o papel das plataformas e ecossistemas de desenvolvedores na coordenação do ecossistema de IA e na captura de valor econômico?
Justificativa: A literatura sobre plataformas digitais sugere que camadas responsáveis pela coordenação entre desenvolvedores, modelos e usuários podem capturar valor significativo ao controlar interfaces, integração e distribuição dentro do ecossistema.
Impactos de produtividade da IA generativa
Problema: Quais evidências empíricas demonstram ganhos de produtividade associados ao uso de IA generativa em atividades de conhecimento?
Justificativa: Estudos experimentais indicam que ferramentas baseadas em IA podem reduzir tempo de execução de tarefas e melhorar qualidade de resultados em áreas como programação, escrita e atendimento ao cliente, embora esses efeitos sejam heterogêneos dependendo do tipo de tarefa e do nível de experiência do trabalhador.
LeCun, Y., Bengio, Y., & Hinton, G. (2015).
Deep learning. Nature.
Kaplan, J. et al. (2020).
Scaling laws for neural language models.
Hoffmann, J. et al. (2022).
Training compute-optimal large language models.
Bommasani, R. et al. (2021).
On the opportunities and risks of foundation models.
Agrawal, A., Gans, J., & Goldfarb, A. (2018).
Prediction Machines: The Simple Economics of Artificial Intelligence.
Brynjolfsson, E., Li, D., & Raymond, L. (2023).
Generative AI at Work.
Cusumano, M., Gawer, A., & Yoffie, D. (2019).
The Business of Platforms.
Demirer, M., Fradkin, A., & Peng, S. (2025).
The Emerging Market for Intelligence.
Computação em Nuvem; Engenharia de Software; Sistemas Distribuídos; Cloud Native.
Analisar criticamente os algoritmos de escalonamento otimizados propostos na literatura para Kubernetes, com foco em sua aplicabilidade, benefícios e desafios em diferentes contextos de uso, como computação geral, inteligência artificial e edge computing.
Eficiência de algoritmos otimizados em ambientes reais
Problema: Como os algoritmos de escalonamento otimizados se comportam em ambientes de produção em comparação com os testes experimentais descritos na literatura?
Justificativa: A maioria dos estudos analisados foi conduzida em ambientes controlados, e há lacuna quanto à aplicabilidade prática e à escalabilidade dos algoritmos.
Escalonamento multicritério para ambientes heterogêneos
Problema: De que forma algoritmos multicritério podem melhorar a alocação de recursos em clusters heterogêneos (CPU/GPU, edge/cloud)?
Justificativa: Mapeamento de abordagens que incluem variáveis como uso de GPU, latência de rede e consumo energético, mas a eficácia combinada ainda é incerta.
Integração de técnicas de aprendizado de máquina em algoritmos de escalonamento
Problema: Quais modelos de aprendizado de máquina são mais eficazes na previsão de demanda e na adaptação dinâmica de escalonamento em clusters Kubernetes?
Justificativa: Muitos estudos usam LSTM, PSO ou modelos genéticos, mas faltam comparações sistemáticas sobre qual abordagem entrega melhor QoS e custo-benefício.
Ahmed, G. et al. (2021).
KubCG: A dynamic Kubernetes scheduler for heterogeneous clusters.
Software: Practice and Experience, 51(2), 213–234.
https://onlinelibrary.wiley.com/doi/abs/10.1002/spe.2898
Harichane, I.; Makhlouf, S. A.; Belalem, G. (2022).
KubeSC-RTP: Smart scheduler for Kubernetes platform on CPU-GPU heterogeneous systems.
Concurrency and Computation: Practice and Experience, 34(21), e7108.
https://doi.org/10.1002/cpe.7108
Carvalho, M.; Macedo, D. F. (2023).
Container Scheduling in Co-Located Environments Using QoE Awareness.
IEEE Transactions on Network and Service Management, 20(3), 3247–3260.
https://doi.org/10.1109/TNSM.2023.3244090
Chiang, M.-C. et al. (2023).
Dynamic Resource Management for Machine Learning Pipeline Workloads.
SN Computer Science, 4(5).
https://doi.org/10.1007/s42979-023-02101-8
Menouer, T. (2021).
KCSS: Kubernetes container scheduling strategy.
Journal of Supercomputing, 77(8), 4267–4293.
https://doi.org/10.1007/s11227-020-03427-3