Engenharia Elétrica e Computação - Teses - EE Higienópolis
URI Permanente para esta coleção
Navegar
Navegando Engenharia Elétrica e Computação - Teses - EE Higienópolis por Título
Agora exibindo 1 - 20 de 81
Resultados por página
Opções de Ordenação
- TeseAferição da disponibilidade de conexão e da audiência de Stream de vídeo em redes IPOliveira, Vitor Chaves de (2017-08-11)
Faculdade de Computação e Informática (FCI)
In the current IP video scenario, the lack of mechanisms that record two technical parameters that influence the commercial chain that sustains this ecosystem related to the Internet, are: availability and audience. And the expressive growth of this type of transmission, continually rivals it with TV. Thus, with the objective of measuring this new medium of audiovisual offer, this work has developed methodologies to acquire such information at this consumer's point and to compare the viability of transitioning from traditional TV to IP Stream. And, this was accomplished through a technical-mathematical comparison and by the construction of two softwares each with a purpose, with their respective requirements analysis, as well as the method of how to interpret the results and infer how these parameters are related. One was programmed to verify the availability of any IP connections through an application that can be used on any browser platform. And the other, implemented as an extension to one of the most used browsers, Google Chrome, to capture the audience of Internet videos on the leading supplier of videos exists today, Google's YouTube. In this work, the abstractions of considerations around the Quality of Service (QoS) concept, is proposed to be interpreted as a measure of Quality of Experience (QoE) assimilated from the quantities of times and interactions with a video. This justification is founded on the concept that quality translates into a particular subjectivity for each user and their individual expectations, so a measure of time is shown to be an effective valuation. Such effectiveness is justified by a principle consolidated within TV broadcast for decades, audience measurement. That is, building something analogous to the People's meter, similar to the Television Rating Points, TRP, running to capture information that brings assertiveness to all stakeholders in this new delivery method. In this way, we can measure the reliability of the content for the Customer, the Content Producer, the Advertiser, the Platform holder, the Content Delivery Network owner (CDN) and the Internet Service Provider (ISP)). - TeseAgrupamento nebuloso de dados baseado em enxame de partículas: seleção por métodos evolutivos e combinação via relação nebulosa do tipo-2Szabo, Alexandre (2014-10-29)
Engenharia Elétrica
Clustering usually treats objects as belonging to mutually exclusive clusters, what is usually im-precise, because an object may belong to more than one cluster simultaneously with different membership degrees. The clustering algorithms, both crisp and fuzzy, have a number of parameters to be adjusted so that they present the best performance for a given database. Furthermore, it is known that no single algorithm is better than all the others for all problem classes, and the combi-nation of solutions found by various algorithms (or the same algorithm with different parameters) may lead to a global solution that is better than those found by individual algorithms, including the best one. It is within this context that the present thesis proposes a new fuzzy clustering algo-rithm inspired by the behavior of particle swarms and, then, introduces a new form of combining the clustering algorithms using concepts from Type-2 fuzzy sets. - TeseAlgoritmo de árvore de decisão baseado em mapas auto-organizáveis: um estudo de caso em hemogramas de pacientes com COVID-19Sargiani, Vagner (2022-08-12)
Escola de Engenharia Mackenzie (EE)
A classificação de dados é um processo automático ou semi-automático que, utilizando Inteligência Artificial (IA), a relação das variáveis descritivas e de classificação de um conjunto de dados é aprendida por um algoritmo para uso a posteriori em situações onde o resultado da classe é desconhecido. Por muitos anos, o trabalho neste tópico tem tido como objetivo aumentar a taxa de acerto dos algoritmos. Entretanto, em aplicações no contexto da saúde, além da preocupação com o desempenho, também é necessário projetar algoritmos com resultado compreensível para o especialista responsável pela tomada de decisão. Dentre os problemas da medicina, um dos grandes focos de pesquisa neste período está relacionado a COVID. E o uso de IA pode auxiliar no diagnóstico precoce. Dentre os dados disponíveis de COVID-19, o exame de sangue é um procedimento típico realizado quando o paciente procura o hospital e o seu uso no diagnóstico permite, entre outras coisas, a reduzir a realização de outros exames de diagnóstico que pode impactar no tempo da detecção e nos gastos dos exames. Neste trabalho propõe-se o uso de redes neurais do tipo Self-Organizing Maps (SOM) como base para descobrir os fatores do exame de sangue que são mais relevantes no diagnóstico de COVID-19. O trabalho propões usar SOM e cálculo de entropia para criação de um modelo hierárquico semi supervisionado explicável, chamado TESSOM (de Tree-based Entropy Structured Self-Organizing Maps), o qual tem como característica ampliar a investigação de grupos de casos em que há maior sobreposição de classes (diagnóstico). Enquadrar o algoritmo TESSOM no contexto de Inteligência Artificial Explicável (XAI) permite que seja possível explicar os resultados ao especialista de uma forma simplificada. É demonstrado no trabalho que o uso do algoritmo TESSOM para identificação de atributos de exames de sangue pode auxiliar nas pesquisas sobre identificação de casos de COVID-19, além de possuir o desempenho 1,489% melhor em multicenários ao analisar uma base de 2207 casos de 3 hospitais no estado de São Paulo, Brasil. Este trabalho é um ponto de partida importante para que pesquisadores possam identificar atributos relevantes de exames de sangue não apenas para COVID-19, mas como apoio para diagnóstico de outras doenças. - TeseAmbiente para aquisição de conhecimento por agentes em domínios restritos na infraestrutura da internetBraga Filho, Luiz Julião (2019-12-07)
Escola de Engenharia Mackenzie (EE)
Esta tese propõe a criação de um ambiente que disponibiliza recursos e facilidades para permitir autonomia a agentes distribuídos e hospedados nos sistemas autônomos que formam a Internet. Este ambiente contem recursos para que os agentes possam colaborar entre si e com humanos usando técnicas associadas à uma estrutura de dados conhecida como blockchain. O ambiente disponibiliza uma base de conhecimento que armazena conhecimento explícito e mecanismos que inferem conhecimento implícito. O conhecimento explicito é obtido de bases de dados muti-modais e não estruturadas, disponíveis fora do ambiente desenvolvido e apropriadamente transformadas em bases estruturadas denominadas corpus. Complementarmente, um outro ambiente de testes é proposto, para exercitar algoritmos que permitem consolidar as ideias propostas. Bases estruturadas e intermediárias são construídas e propostas para favorecer algoritmos de aprendizagem de máquinas que irão adicionar conhecimento na base correspondente. Todos os componentes do ambiente proposto atuam em conjunto e/ou separadamente para municiar um mecanismo de retroalimentação e preservação do conhecimento adquirido mantendo-o persistente. - TeseAnálise de competição familiar por algoritmos genéticos inspirados em modelos cinéticos de mercadoLuquini, Evandro (2019-08-27)
Escola de Engenharia Mackenzie (EE)
Family competition genetic algorithms are a variant of classical genetic algorithms that evolveapopulationbyonlyemphasizingthesubstitutionrules.Inthisversion,selectionfor reproductionfavoringthebestindividualsisreplacedbyastrategythatgivesequalchances to all members of the population. The individuals selected to remain in the population consist solely of those within the family, which is formed by the pair of individuals selected for reproduction and their descendants, without considering the general state of the simulation. Over time, several studies have been done to find new substitution rules to improve population diversity and the effectiveness of this approach. Our study aligns with this goal and introduces new substitution rules inspired by the kinetic market models of econophysics. These models have many similarities with family competition genetic algorithms, but, differing from them, kinetic market models were designed so that the simulation results in a stationary distribution. The dynamics of a kinetic market model resemble a minimization procedure because all the agents are progressively shifted to lower energy states, independent of the initial distribution. However, these models are capable of preventingcondensation:thesituationinwhichallagentsinthepopulationconvergetothe samestateorwhenoneagenthijacksallthesystemenergy.Thesepropertiesareusedinthis work to increase the diversity and effectiveness of family competition genetic algorithms. Through a statistical protocol, the new substitution rules were tested and analyzed against others in the literature. The results were positive for experiments with combinatorial problems. In addition, the introduction of evolutionary computing individuals into the kinetic market also produces results for econophysics. The new non-conservative kinetic market model that results from the proposed merging differs from its peers by displaying random walks for the sum of all agents’ money and simultaneously a scaling behavior for their distribution in the population - TeseAnálise do espaço elementar de autômatos celulares com atualização por prioridade de vizinhançaMattos, Thiago de (2021-08-11)
Escola de Engenharia Mackenzie (EE)
Autômatos celulares são sistemas dinâmicos que podem ser utilizados como modelo para diversos sistemas complexos encontrados na natureza. De caráter discreto, são representados por reticulados compostos de células que podem assumir diferentes estados, cuja dinâmica está condicionada a regras de transição local e relações de vizinhança entre as células. Em um autômato celular tradicional, a regra de transição local é aplicada a todas as células em um único passo de tempo. Em outras palavras, a regra local é aplicada de forma síncrona. A literatura mostra que tal abordagem apresenta algumas limitações, principalmente quando utilizada em autômatos celulares que representam modelos de sistemas do mundo real. Devido à isso, há muito interesse pelo estudo de sua contraparte, a abordagem assíncrona, tanto probabilística como determinística, que pode proporcionar um grau extra de liberdade em tais modelos. A maneira padrão de definir o assincronismo determinístico é por meio da priorização de cada célula, no qual o assincronismo fica totalmente condicionado à posição de cada uma das células no reticulado. Como inovação, propõe-se uma nova maneira de olhar tal assincronismo, no qual a prioridade recai sobre as configurações de vizinhança das células, ao invés da posição da célula no reticulado. Todavia, durante o desenvolvimento deste trabalho, descobre-se que tal modelo é essencialmente síncrono ao invés de assíncrono. Mesmo não sendo um modelo assíncrono como se pensava inicialmente, o autômato celular com priorização de configurações de vizinhança demonstra certo grau de liberdade quanto à sua dinâmica, sendo assim adequado para representar diversos sistemas. Por isso, apresentase de maneira inédita o estudo de tal modelo sob duas distintas condições: a primeira, permitindo irrestritamente que células sejam atualizadas diversas vezes durante a execução de um passo de tempo do autômato celular, denominado como esquema de atualização múltipla; e a segunda, permitindo que as células sejam atualizadas apenas uma única vez durante o mesmo passo de tempo, denominado como esquema de atualização única. Tomando o espaço dos autômatos celulares elementares como base, realiza-se um estudo completo de sua dinâmica usando o modelo de atualização baseado em prioridades de configurações de vizinhança. - TeseAnálise teórica de sistemas baseados na condição de ressonância de plásmons de superfície para aplicações em sensoriamento no visível e infravermelho médioAlmeida, Aline dos Santos (2022-02-02)
Escola de Engenharia Mackenzie (EE)
Esta tese apresenta uma análise teórica utilizando simulações numéricas no software Matlab de sistemas baseados na condição de ressonância de plásmons de superfície (em inglês, Surface Plasmon Resonance, SPR) no visível, tendo como material plasmônico o ouro, e no infravermelho médio, explorando o óxido metálico transparente ITO (em inglês, Indium Tin Oxide), para sensoriamento químico e biossensoriamento. Para os estudos no visível será considerado o analito (substância de interesse) em meio aquoso. Já no infravermelho, o analito em estudo será a concentração de água presente no biocombustível etanol A principal motivação deste trabalho foi a recente necessidade de desenvolvimento de novos biossensores para detecção de compostos químicos e biológicos prejudiciais ao ser humano. Um sensor químico, ou biossensor, convencional baseado em SPR é composto por um sistema multicamadas Prisma/Condutor/Analito. O analito é responsável por mudar o índice de refração próximo à superfície detectora, alterando a condição de SPR. O condutor comumente utilizado é um filme de ouro. Porém, no infravermelho, o ouro sofre perdas ópticas, e, neste caso, o ITO mostra-se mais adequado para geração de plásmons poláritons de superfície. A respeito do desempenho de sensores, a literatura reporta que, além de melhorar a fixação de biorreceptores e proteger contra oxidação, a adição de camadas de grafeno é capaz de aumentar a sensibilidade de sistemas baseados na condição de SPR do ouro. Um dos desafios desse trabalho foi, portanto, desenvolver um modelo teórico para um sistema multicamadas utilizando os coeficientes de Fresnel e as equações resultantes do método da matriz de transferência para o estudo da sensibilidade, bem como compreender a real influência do grafeno no desempenho de sistemas baseados na condição de SPR do ouro reportados na literatura. Neste estudo, o grafeno foi modelado de três maneiras distintas: como condutividade superficial (modelo 2D), como filme fino isotrópico e anisotrópico (modelos 3D). Os resultados mostraram que o aumento de sensibilidade utilizando o modelo 3D isotrópico reportado na literatura não é real, pois o grafeno deve ser modelado como uma condutividade superficial, ou como um filme fino anisotrópico, sendo que utilizando qualquer um desses dois tipos de modelamento não é possível obter aumento significativo de sensibilidade. Já no infravermelho, os resultados obtidos demonstraram que a sensibilidade em termos de unidade de índice de refração por concentração de água em etanol (RIU/%) é ~ 5 vezes maior que no visível, tornando sistemas baseados na condição de SPR do ITO muito atrativos para construção de sensores químicos e biossensores. - TeseApplication of a swarm intelligence algorithm in the selection of bible passages to compose a sermonLima, Bruno Cesar Dos Santos (2024-02-16)
Escola de Engenharia Mackenzie (EE)
A literatura religiosa é, sem dúvida, um dos tipos de literatura mais amplamente lidos pela humanidade, independentemente do espectro confessional (cristãos, judeus, muçulmanos, etc.). E por meio da literatura religiosa que líderes religiosos comunicam seus valores e ideias, e essa comunicação é geralmente referida como sermões ou homilias. No contexto cristão, a Bíblia Sagrada constitui esse corpus normativo. No entanto, a Bíblia Sagrada não é uma literatura trivial do ponto de vista hermenêutico, devido ao seu alto grau de variabilidade literária e linguística. Portanto, a construção de sermões pode se tornar uma atividade laboriosa. Diante desse desafio, esta tese teve como objetivo implementar uma metodologia de otimização combinatória para a seleção de passagens bíblicas que comporão sermões pastorais. Essa metodologia utiliza uma abordagem híbrida, ou seja, a combinação de processamento de linguagem natural e inteligência de enxames. A tese propõe a implementação de um algoritmo SwarmaBle que simula uma colônia de formigas artificiais percorrendo um grafo bíblico para encontrar a melhor solução. Essa solução envolve retornar um número específico de passagens bíblicas para a composição de um sermão, dado uma sentença de entrada ou tema. O sucesso desse método poderia facilitar sua aplicação a outros corpora textuais complexos para recuperação de informação otimizada e eficiente. A metodologia é inovadora, e os resultados obtidos são robustos e promissores. Isso significa que foi conduzida uma bateria de testes experimental, na qual foi observada uma convergência média acima de 70% da função fitness. Nesse processo de otimização do SwarmaBle, os versículos resgatados mostraram-se compatíveis com a sentença de busca. Essa correspondência entre os versículos e a sentença de busca foi validada por especialistas de domínio (teólogos), os quais atribuíram um desempenho acima da média para o SwarmaBle. - TeseAspectos tecnológicos, culturais e legais no compartilhamento de recursos abertos: uma caracterização da realidade latino-americanaKnihs, Everton (2016-11-10)
Escola de Engenharia Mackenzie (EE)
A produção de conteúdos intelectuais por meio de sistemas informáticos é um tema de interesse geral que não possui definições precisas ou consensuais nas questões de recursos abertos, licenças abertas, recursos educacionais abertos, livros abertos e autoria colaborativa. Quando se investiga a criação de obras colaborativas a discussão evolui para questionamentos sobre o próprio conceito de autoria e a ausência de marcos regulatórios claros que sirvam de subsídio para construção e arquitetura computacional. O estudo sobre licenças abertas e propriedade intelectual tem como intuito possibilitar a criação, edição, reutilização, modificação e disseminação de obras colaborativas abertas. Já a produção autoral colaborativa em recursos computacionais remete ao estudo mais abrangente dos conceitos de autoria, obra original e seus versionamentos, licenças livres, software livre e openness. A compreensão do processo de criação de uma obra colaborativa envolve os aspectos relevantes envolvidos no aspecto regional, como os legais e culturais, na conjuntura formada por recursos computacionais. Este trabalho apresenta a definição de um framework conceitual, computacional e legal de suporte aos processos de autoria colaborativa em livros abertos, como estudo de caso. O modelo proporciona a indicação das licenças que possuem um suporte que privilegia os processos de criação de recursos abertos reutilizáveis em contextos extraterritoriais. Além disso, a especificação para construção e arquitetura computacional que se enquadre no conceito legal de autoria e licenças, serve como uma diretriz para a elaboração de sistemas de suporte à criação, publicação e compartilhamento de recursos abertos. - TeseAvaliação de latência e escalabilidade de vídeo por broadband e broadcast utilizando-se o sistema ATSC3.0Vaz, Rodrigo Admir (2024-04-25)
Escola de Engenharia Mackenzie (EE)
O surgimento das modernas tecnologias de comunicação e informação multimídia vem impactando e transformando a vida da sociedade atual, alterando hábitos e costumes de seus usuários. A visualização destes efeitos não tem sido diferente no universo da TV (Television - Televisão) Digital. A sua inovadora proposta de entrega de conteúdos de vídeo ao usuário através de diferentes recursos, como a Internet, promete revolucionar hábitos e costumes dos usuários. A utilização do recurso de vídeo escalável volta à cena, de acordo com a publicação das modernos padrões de codificação de vídeo e de acordo com os recentes sistemas de TV digital, como o sistema ATSC (Advanced Television System Committee - Comitê de Sistema de Televisão Avançada) 3.0. Esta tese tem por objetivo a avaliação das características de escalabilidade de vídeo do padrão de codificação MPEG (Motion Picture Experts Group - Grupo de Especialistas em Quadros de Movimento) H - Parte 2/H.265 SHVC (Scalable High Video Coding - Codificação de Alta Eficiência de Vídeo Escalável), transmitindo suas camadas de forma híbrida: a camada base por RF (Radio Frequency - Radiofrequência) e a camada de enriquecimento pela Internet para utilização no próximo padrão de sistema de TV digital terrestre brasileiro. Para tal, é feita uma revisão da literatura dos padrões de codificação de vídeo existentes e em desenvolvimento, assim como dos diferentes padrões de multiplexação de A/V (Audio and Video - Áudio e Vídeo) atuais e em desenvolvimento. O ambiente experimental reproduz a cadeia de transmissão e recepção de TV digital terrestre, através do sistema ATSC 3.0, onde são feitos os procedimentos experimentais para transmissão híbrida do conteúdo de vídeo escalável. Desta maneira é feita uma avaliação a respeito da mudança da resolução espacial na transmissão e recepção, onde alcançou-se o êxito na recepção híbrida do conteúdo de vídeo fazendo o enriquecimento do vídeo de resolução FHD (Full High Definition - Alta Definição Completa) 2K para resolução UHD (Ulta High Definition - Definição Ultra Alta) 4K. Através da recepção híbrida, avaliou-se a latência de recepção entre os conteúdos recebidos por RF e pela Internet, medindo-se um valor médio máximo menor que 1500 ms, permitindo-se recomendar um buffer temporal mínimo de 2000 ms aos receptores da nova geração de TV digital com suporte ao vídeo escalável e à recepção híbrida para enfrentar as instabilidades da rede e oferecer uma boa experiência de uso ao usuário final. - TeseAvaliação do sistema de comunicação de cursos EAD e de sua contribuição no desempenho educacionalIchihara, Ana Travassos (2018-12-18)
Faculdade de Computação e Informática (FCI)
No Brasil, por suas características de extensão geográfica e diferenças sociais e econômicas, a expansão da educação a distância envolve vários aspectos de inclusão social, democratização e formação personalizada. Isso traz vários desafios, entre eles o da gestão, o de poder avaliar, compreender e medir os fatores críticos de um curso a distância – como seu sistema de comunicação, essencial nessa modalidade de ensino – de forma a apoiar as ações dos tomadores de decisão e contribuir para a melhoria da qualidade da gestão educacional. Este trabalho apresenta uma avaliação dos sistemas de comunicação de cursos ministrados em Ambientes Virtuais de Aprendizagem (AVA), na modalidade semipresencial e a distância, usando um modelo de suporte à avaliação baseado no documento “Referenciais de Qualidade para a Educação Superior a Distância” do Ministério da Educação (MEC) e técnicas de Business Intelligence (BI). Esse modelo buscou, nesses Referenciais de Qualidade, os Fatores Críticos de Sucesso do Sistema de Comunicação (FCSSC), métricas mensuráveis e realizáveis e engloba técnicas de BI que estruturam essas métricas em modelos dimensionais que são carregados por processos de extração e transformação dos dados provenientes das bases operacionais AVAs e que, analisados por ferramentas analíticas, flexibilizam resultados e visualizações. São apresentados dois estudos de caso. O primeiro exemplifica o modelo proposto e habilita análises quantitativas que caracterizam FCSSC de cursos semipresenciais de uma universidade pública brasileira; já o segundo usa o modelo proposto para analisar fatores de “Interatividade e Interação” que influenciam o desempenho do aluno iniciante de curso a distância de universidade privada brasileira, sobre os quais são aplicadas análises estatísticas, Mapa de Kohonen, árvores de decisão e técnicas de agrupamento para descrever os dados, descobrir as relações, estabelecer as variáveis mais relevantes e descobrir padrões que possam apoiar a conclusão. - TeseBusca e compartilhamento de recursos multimídia em redes sociais ontológicasNatale, Leandro Pupo (2017-02-23)
Escola de Engenharia Mackenzie (EE)
As novas Tecnologias de Informação e Comunicação (TIC) estão tornando o relacionamento entre as pessoas mais dinâmico, estabelecendo novas formas de compartilhamento de Informação e Conhecimento. Estes novos relacionamentos permitem a construção de diferentes tipos de Redes Sociais com a finalidade de compartilhamento de informações, experiências e recursos multimídia como, por exemplo: Facebook, Twitter, Whatsapp, LinkedIn, Instagram, Researchgate, Mendeley, etc., específicas para ofertas de serviços como Carona (Uber, Cabify, EasyGo); Moradia (Airbnb, HouseTrip), Assistentes pessoais (Google Now), entre outros tipos de aplicativos. Para que este processo de compartilhamento possa ser efetuado de forma eficiente, as tarefas de busca, localização e integração devem ser realizadas com base no significado do conteúdo que armazenam, levando-se em consideração a particularidade do significado estabelecido pelos usuários. Este conhecimento deve ser processado e representado de forma a permitir a integração de maneira uniforme e automática, segura e com o significado negociado entre os usuários. Esta Tese apresenta um modelo de Compartilhamento de Informações e Conhecimento entre pares, através de uma negociação ponto a ponto, utilizando Alinhamento de Ontologias estabelecido através de uma interlíngua, criada a partir do método WKI. Este método é integrado à plataforma colaborativa WProfile viabilizando aos usuários do ambiente a gestão do conhecimento de seu repositório de recursos multimídia. A partir da interação entre os usuários do ambiente é estabelecida uma rede social ontológica, em que os laços sociais são criados a partir do laço das interlínguas semânticas entre as ontologias locais, alinhando os significados comuns entre os pares. - TeseCaracterização de eventos de ondas de gravidade na base da ionosfera detectados na estação comandante Ferraz utilizando a técnica VLFRaunheitte, Luís Tiago Medeiros (2024-08-02)
Escola de Engenharia Mackenzie (EE)
As investigações de Ondas de Gravidade (OGs) na base da ionosfera vêm sendo comumente realizadas através de observações do airglow, especialmente nas bandas do OH em altitudes de ~90 km, utilizando principalmente imageadores all-sky, no entanto, esta técnica tem vantagens e também limitações, visto que operando no óptico necessita de condições de céu adequadas para que seja possível a observação, que só pode ser feita durante a noite. Aqui a investigação de OGs na base da ionosfera é feita por meio da técnica VLF (do inglês, Very Low Frequency, frequência muito baixa), que permite observações ao longo de todo o ano, independente da hora do dia e das condições de céu. Este estudo foi conduzido utilizando-se dados obtidos por receptores de sinal VLF instalados na Estação Antártica Comandante Ferraz (EACF), localizada na ilha Rei George. A caracterização das OGs se dá pela aplicação da análise wavelet (de base Morlet) na amplitude e fase do sinal VLF, que apresenta flutuações devido à passagem das OGs alterando a densidade de elétrons. A caracterização de duração e período das OGs obtidas com a técnica VLF mostraram boa concordância em diversos estudos de caso, quando comparados às observações airglow das mesmas ondas observadas por um imageador all-sky colocalizado. A atividade detectada na base da ionosfera, associada ao evento tipo banda, apresentou período de ~12 min versus 13 min do imageador, com mesmo pico de intensidade, pouco antes das 05:00 UT, bem como duração de 4 horas. A detecção da onda ripple mostrou o mesmo período de onda, de 8 min, e duração similar de ~20 min. O primeiro evento de frente mesosférica mostra o uso da fase na detecção da OG, apresentando o mesmo período de onda de 8 min visto no airglow. No último caso, a segunda frente mesosférica, mostra o potencial da técnica VLF quando associados os estudos de diferentes trajetos de propagação VLF, possibilitando não só a detecção do evento e a visualização de sua morfologia na amplitude residual do sinal VLF com a frente de onda e suas 4 cristas, mas também a determinação de sua direção de propagação de Oeste para Leste, coincidente a direção Nordeste reportada por airglow, e o cálculo da velocidade de propagação da onda de aproximadamente 96 (±4,8) m/s concorda com a velocidade de fase de 92 m/s das observações feitas com imageador. A análise estatística da distribuição de períodos predominantes, de ondas acústicas (períodos de 1 a 5 min) e OGs de pequena escala (entre 5 e 32 min), para os dias dos anos 2007 e 2011 mostraram potencial correlação com o ciclo solar, onde 2011 (máximo solar) apresentou um aumento na predominância de ondas com períodos menores. O período noturno apresentou majoritariamente predominância na faixa de 10 a 15 min enquanto o período diurno mostrou uma grande presença de ondas acústicas, predominantes em 2011. - TeseClassificação automática do comportamento dinâmico automato celulares binários unidimensionaisNogueira, Marcelo Arbori (2019-10-02)
Escola de Engenharia Mackenzie (EE)
The variability of temporal evolution generated by cellular automata comes from the large number of possible rules, their initial con guration, the number of states, the number of cells in the neighborhood and the dimension of the lattice. Even for the simplest cases, the number of rules in the space can easily reach billions, and even if the lattice is one-dimensional, the number of possible temporal evolutions grows exponentially as the lattice size grows. Therefore, to classify the typical dynamics of the temporal evolutions is a dauting endeavour, so that any automated process for the task is clearly useful. We report here the development of two classi ers of the dynamics presented by the temporal evolutions, according to Wolfram's 4-class classi cation scheme, based on the elementary space, but also aiming to apply it to a larger space, whose classi cation is unknown, namely, the one with 4 cells in the neighbourhood and 2 possible states. At rst, a review was made of the classi cation method developed byWuensche (1998), in which, at each time step of the cellular automaton, the entropy variation observed in the temporal evolution was associated with the generating rule classes. The results obtained served as a reference for the classi ers developed further on. One of the two classi ers relied on a convolutional neural network, trained to predict the rule class that generated a temporal evolution. Since the 4 classes do not have the same amount of rules, which a ects the network training, the rules were chosen randomly, while keeping the same proportion for each class. The second classi er used texture analysis to extract, from the temporal evolutions, information of the neighborhood con gurations of the cells, which allowed for the construction of a frequency spectrum of these con gurations. A single spectrum, with the average frequency of each possible con guration associated with the generating rule was then included in a dataset, and used in the k-NN algorithm to obtain the prediction of the class at issue. The classi ers were evaluated in two ways: at rst, to de ne the classes of the elementary space, according to their typical behaviors, which are the most common ones displayed in a set of temporal evolutions. The predicted classes could be compared with the known classi cation of elementary space and total accuracy was observed for both. For the space with 4 cells in the neighbourhood, a visual classi cation of the entire space was performed. In this case, none of the classi ers achieved high accuracy. Still, they were able to extract information from that space, which is larger than the elementary space. Finally, confusion matrices were used to evaluate the quality of the classi ers with data from both spaces, with both classi ers having di culties in classifying the space with 4 cells in the vicinity. - TeseCodificação de imagens em sinais táteis através de redes neurais convolucionaisRibani, Ricardo (2020-02-06)
Escola de Engenharia Mackenzie (EE)
Este trabalho apresenta a criação de um sistema de substituição sensorial de visão através de um colete com atuadores vibrotáteis posicionados nas costas do usuário. Foi realizada uma pesquisa sobre substituição sensorial e teoria da plasticidade, visando entender melhor a capacidade adaptativa do cérebro e como, na ausência da visão, as informações normalmente processadas por esse sentido podem ser codificadas por meio do tato. Em complemento ao hardware desenvolvido, também foi criado um sistema para codificação de imagens em sinais táteis utilizando redes convolucionais. Além de testes iniciais com modelos de classificação e detecção de objetos, foram avaliados dois métodos novos para codificação de imagens em sinais táteis por meio de redes neurais convolucionais, um bag of convolutional features (BoF) eum vector of locally aggregated descriptors (VLAD). Nesse trabalho, também é apresentado um método totalmente novo para avaliar a propriedade semântica do sinal codificado, baseando-se na ideia de que objetos parecidos devem gerar sinais parecidos na interface tátil. Foi criada a métrica de semantic property evaluation (SPE). Utilizando essa métrica,foi demonstrada a vantagem de utilizar os algoritmos de BoF e VLAD, com valores de SPE de 70,7% e 64,5%, respectivamente, o que é uma melhoria considerável em relação ao método de redução de escala de imagens utilizado por diversos sistemas até então, como o BrainPort, com 56,2% de SPE. - TeseComposição de um indicador de qualidade para classificações binárias com base na qualidade e na complexidade dos dadosMendes, Renê de Ávila (2021-12-10)
Escola de Engenharia Mackenzie (EE)
A classificação de dados é uma tarefa de mineração de dados que consiste na aplicação de um algoritmo a conjunto de dados de treinamento com a finalidade de inferir a classe de um objeto (não classificado) em análise. Uma parte significa tiva do desempenho do algoritmo de classificação depende da complexidade e da qualidade do conjunto de dados. A Complexidade dos Dados envolve a investigação dos efeitos da dimensionalidade, da sobreposição de atributos e da separabilidade das classes. A Qualidade dos Dados, no que lhe concerne, se concentra em aspectos como ruídos e valores ausentes. Na literatura são poucos os estudos que debatem a relação entre os fatores, complexidade e qualidade, visando ponderar a influência de cada um na qualidade do desempenho de um algoritmo. Esta pesquisa aplica a Modelagem de Equações Estruturais (SEM) e o algoritmo Partial Least Squa res Structural Equation Modeling (PLS-SEM) e, de forma inovadora, apresenta um indicador composto, chamado de Indicador de Qualidade de Classificação para con juntos de dados binários (IQCb), que associa as contribuições da Complexidade dos Dados e da Qualidade dos Dados para a Qualidade da Classificação. A mode lagem experimental com 178 conjuntos de dados obtidos do repositório OpenML mostrou que o controle da complexidade melhora os resultados da classificação mais do que a qualidade dos dados. Adicionalmente, esta tese também apresenta uma ferramenta visual para a avaliação de conjuntos de dados quanto ao desempenho de classificação. - TeseComputação natural metateórica: um arcabouço conceitual para o estudo da computação na naturezaXavier, Rafael Silveira (2015-09-16)
Engenharia Elétrica
Atualmente, as ciências naturais estão se valendo de conceitos de informação e computação para investigar a estrutura da natureza e as inter-relações entre os diversos sistemas naturais. Além disso, cientistas de diversas áreas estão argumentando que a natureza realiza computações e outros defendem que a estrutura básica do mundo físico está fundamentada em processos informacionais e computacionais. Dentro deste cenário, existe a Computação Natural, cuja principal premissa é assumir que os fenômenos naturais podem ser interpretados sob uma perspectiva computacional e que esses fenômenos podem ser modelados computacionalmente e aplicados em diferentes contextos científicos. Embora a Computação Natural se comprometa com a interpretação computacional da natureza não existe um corpo teórico que permita explicar os sistemas naturais sob uma perspectiva computacional. Neste contexto, esta tese propõe uma Estrutura Conceitual, que explica computacionalmente as estruturas e processos presentes nos sistemas naturais. A Estrutura Conceitual é embasada em um conjunto de conceitos e macroconceitos e sua formalização consiste em dois conjuntos de ferramentas: um mapa conceitual que representa uma visualização gráfica dos macroconceitos e conceitos e suas relações; e um conjunto de diagramas UML para modelar computacionalmente as estruturas, processos e subprocessos presentes nos sistemas naturais. Desta forma, a Estrutura Conceitual proposta traz consigo uma forma intuitiva e visual de entender os sistemas naturais sob uma perspectiva computacional e de guiar a modelagem de algoritmos bioinspirados. Da perspectiva da análise de algoritmos bioinspirados, as ferramentas de modelagem permitem visualizar lacunas conceituais na engenharia dos algoritmos estudados. Por fim, a Estrutura Conceitual proposta é utilizada como ferramenta para o projeto e desenvolvimento (síntese) de algoritmos bioinspirados, mais especificamente para o desenvolvimento de algoritmos inspirados no comportamento das bactérias. Desta forma, a Estrutura Conceitual proposta visa a construção de um ferramental de análise e síntese que colabore para o amadurecimento teórico e interdisciplinar da Computação Natural. - TeseConstrução iterativa de uma ontologia com integração semântica para o observatório solar virtual do CRAAMSantos, Israel Florentino dos (2017-02-07)
Escola de Engenharia Mackenzie (EE)
The signi cant increase of data requires a new research model, which must integrate theory, experimentation and simulation. This new paradigm, called e-Science, considers that the evolution of science depends on the union of scientists from di erent areas with professionals from Information Technology. Consistent with this new view of science, the present study aims to construct a semantic layer that allows an elaborated ontology to enable the coupling of programming language, web service, and inference. The Virtual Solar Observatory of the Center for Radio Astronomy and Astrophysics Mackenzie, responsible for the collection and management of data, with a view to promoting its integration with the other members of the International Virtual Observatory Alliance (IVOA). To support the semantic construction, a framework was used that integrated the JAVA and Python languages to process and analyze the data allowing full integration between the various observatories. The need of the present study was necessary due to the de ciencies in many ontologies with regard to expansion and integration. This study was based on Computational Ontology, Semantic Web and the characteristics of the e-Science paradigm. For an ontology construction, a methodology was used for the characterization of the Methontology and Enterprise, predicting iterative constructions and continuous revisions and documentation during the process. The results showed that, through the construction of the SST module in the Python programming language and the elaboration of a database view in RDF, it was possible to favor the integration of the elaborated ontology for other members of the IVOA. Thus, this study aims to provide scientists, students and researchers in the eld of Astronomy a reliable environment for the sharing of solar data. - TeseContribuições para a camada física de TV digitalAlmeida, Jefferson Jesus Hengles (2021-08-05)
Escola de Engenharia Mackenzie (EE)
Este trabalho apresenta contribuições para a camada física de um Sistema de Televisão (TV) digital, a partir da implementação completa de um modelo de sistema baseado em Filter Bank Multi Carrier (FBMC) com estágios de estimação de canal e sincronismo em frequência. Embora o Orthogonal Frequency Division Multiplexing (OFDM) seja a modulação mais utilizada nos sistemas de comunicação digital atuais, a técnica FBMC oferece vantagens quanto à robustez e eficiência espectral. Isto porque o FBMC realiza o uso de filtros de faixa estreita associados à modulação Offset Quadrature Amplitude Modulation (OQAM), descartando a necessidade do Cyclic Prefix (CP) e minimizando os efeitos da interferência entre subportadoras. Ainda que exista maior grau de dificuldade no processo de estimação de canal nos sistemas FBMC, devido ao modelo de transmissão, a utilização de uma estrutura de quadro que contenha pilotos espalhadas associada a estimadores de canal baseados em interpolação e Discrete Fourier Transform (DFT) e com equalização por etapas, pode manter os ganhos observados mesmo em canais mais agressivos. Além disso, uma estrutura de preâmbulo associada a algoritmos de detecção e sincronização pode ser aplicada ao sistema, de forma a corrigir desvios de frequência causados, por exemplo, pelo efeito Doppler. O modelo computacional completo para o FBMC foi desenvolvido no ambiente GNU Radio Companion (GRC) tendo como base as deduções teóricas realizadas e seu desempenho foi comparado com o modelo do OFDM utilizado para TV digital. Assim, houve a análise das curvas de erro de bit, em diversos cenários com ruído e multipercurso, observações do espectro e cálculo da capacidade de transmissão. Os resultados obtidos revelam que o sistema proposto apresenta vantagens em relação ao paradigma OFDM analisado e demonstram que a estrutura de pilotos construída, atrelada aos estimadores e equalizadores desenvolvidos, possibilita a estimação de canal adequada, enquanto o emprego do preâmbulo somado aos algoritmos para sincronismo permitem a minimização de interferências causadas devido aos desvios de frequência. - TeseDeep learning contributions for the next generation of wireless systems = Contribuições de aprendizado profundo para as próximas gerações de sistemas de comunicação sem fioBarragam, Vinicius Piro (2024-02-16)
Escola de Engenharia Mackenzie (EE)
Os avanços tradicionais na camada física dos sistemas de comunicação têm sido impulsionados, normalmente, considerando cada etapa do processamento do sinal como um bloco isolado de processamento, cada um otimizado separadamente usando métodos matemáticos em uma abordagem descentralizada. No entanto, essa estratégia está sendo desafiada pelas crescentes demandas por conectividade sem fio e pela diversidade crescente de dispositivos e aplicações. Em contraste, sistemas baseados em Aprendizado Profundo (DL, do inglês Deep Learning) têm a capacidade de gerenciar tarefas complexas para as quais modelos bem definidos podem não existir. Esses sistemas, aprendendo diretamente dos dados, têm o potencial de se adaptar e até mesmo aproveitar os efeitos não intencionais das condições reais de hardware e canais, em vez de tentar eliminá-los. O objetivo da pesquisa apresentada nesta tese é explorar e contrastar diferentes metodologias para maximizar a eficácia de DL para estimação de canal em sistemas que utilizam Multiplexização por Divisão em Frequências Ortogonais (OFDM, do inglês Orthogonal Frequency Division Multiplexing). Nesta tese, duas abordagens distintas para a estimativa de canal em sistemas de comunicação são investigadas. A primeira emprega Redes Neurais Profundas Totalmente Conectadas (FC-DNNs, do inglês Fully-Connected Deep Neural Networks), começando com o treinamento de neurônios para reter informações de canal usando estimativas de Mínimos Quadrados (LS, do inglês Least Squares) como entradas, tendo canais reais como alvos. Este método se assemelha à arquitetura do autoencoder e mostra eficácia na redução de ruído em cenários de Ruído Branco Gaussiano Aditivo (AWGN, do inglês Additive White Gaussian Noise) e canais Rayleigh. No caso AWGN, seu comportamente corresponde ao desempenho teórico, permitindo a redução do número de pilotos e melhoria da eficiência espectral. Para o caso do canal Rayleigh, ele corresponde ao desempenho do estimador de Erro Quadrático Médio Mínimo (MMSE, do inglês Minimum Mean Square Error ). A segunda abordagem explora Redes Neurais Convolucionais (CNNs, do inglˆes Convolutional Neural Networks) tratando canais sem fio de maneira semelhante a imagens, utilizando assim as propriedades de invariância a translação de características e detecção de bordas. Este método foi treinado a partir de dados de canais seletivos com desvanecimento rápido em frequência, e 22 dB de Relação Sinal-Ruído (SNR, do inglês Signal-to-Noise Ratio) usando o modelo Vehicular A (VehA) a 50 km/h, compara CNNs, Redes Convolucionais Densas (abreviado em inglês, DenseNets) e Redes Residuais (abreviado em inglês, ResNets). As últimas redes, com suas conexões saltadas entre blocos, demonstram desempenho superior em níveis mais baixos de SNR, extraindo efetivamente informações de canais ruidosos.