Fractal sounds
Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales
Resumen:
El siguiente proyecto introduce un sistema integrado que combina música, movimiento corporal y generación de elementos visuales en tiempo real, haciendo uso de técnicas avanzadas de aprendizaje automático, visión por computadora y generación de imágenes basadas en fractales. Su principal innovación es ofrecer una experiencia multisensorial envolvente, diseñada no solo para entretener sino también para impulsar la expresión creativa y personal de los usuarios mediante una interacción intuitiva con la música y las visualizaciones generadas. Mediante la captura de movimientos del usuario, se facilita una interacción dinámica con los elementos visuales, lo que resulta en la creación de composiciones musicales únicas. Este proceso se apoya en una metodología que integra el aprendizaje automático (machine learning) para capturar movimiento y generar música a través del protocolo MIDI, junto con la producción de audio utilizando REAPER. Este proyecto destaca por su accesibilidad, ya que está diseñado para funcionar en computadoras personales con sistema operativo Windows, utilizando cámaras web estándar para la captura de movimiento. Esto facilita su implementación en una amplia variedad de entornos domésticos. Al explorar la relación dinámica entre música, imagen y movimiento, este proyecto no solo avanza las fronteras de la creación artística tecnológica sino que también ofrece una plataforma para la expresión personal y la experimentación creativa. De esta manera, promueve la integración entre la tecnología musical y visual para enriquecer la experiencia humana a través del movimiento. Estas características introducen componentes de HIC y UX design que guiaron este producto a su destino final.
2024 | |
PROYECTOS-YI APRENDIZAJE AUTOMÁTICO MÚSICA MIDI FRACTALES EXPERIENCIA DE USUARIO |
|
Español | |
Universidad ORT Uruguay | |
RAD | |
https://hdl.handle.net/20.500.11968/6968
http://hdl.handle.net/20.500.11968/6968 |
|
Acceso abierto | |
Acceso abierto |
_version_ | 1807261359614722048 |
---|---|
author | Lanzani Lagomarsino, Ignacio |
author2 | Rodríguez Barreto, Gabriel |
author2_role | author |
author_facet | Lanzani Lagomarsino, Ignacio Rodríguez Barreto, Gabriel |
author_role | author |
bitstream.checksum.fl_str_mv | a5cc2038f68b0ada0d30e3c9289c1634 9cff43f1aa07b0d9beb93488a6f68ea8 |
bitstream.checksumAlgorithm.fl_str_mv | MD5 MD5 |
bitstream.url.fl_str_mv | https://rad.ort.edu.uy/bitstreams/0bad5e66-f1f7-470a-a2a2-e44f487a1ea4/download https://rad.ort.edu.uy/bitstreams/1d7f30e5-792c-4042-9f2b-dc5e2cafd645/download |
collection | RAD |
dc.contributor.advisor.none.fl_str_mv | Fonseca De Oliveira, André Luiz Barros Andrade, Fabián |
dc.contributor.tribunal.none.fl_str_mv | Cohn Noachas, Ilan Zapata, Emiliano |
dc.creator.none.fl_str_mv | Lanzani Lagomarsino, Ignacio Rodríguez Barreto, Gabriel Rodríguez Barreto, Gabriel |
dc.date.accessioned.none.fl_str_mv | 2024-06-07T13:51:13Z |
dc.date.available.none.fl_str_mv | 2024-06-07T13:51:13Z |
dc.date.issued.none.fl_str_mv | 2024 |
dc.description.abstract.none.fl_txt_mv | El siguiente proyecto introduce un sistema integrado que combina música, movimiento corporal y generación de elementos visuales en tiempo real, haciendo uso de técnicas avanzadas de aprendizaje automático, visión por computadora y generación de imágenes basadas en fractales. Su principal innovación es ofrecer una experiencia multisensorial envolvente, diseñada no solo para entretener sino también para impulsar la expresión creativa y personal de los usuarios mediante una interacción intuitiva con la música y las visualizaciones generadas. Mediante la captura de movimientos del usuario, se facilita una interacción dinámica con los elementos visuales, lo que resulta en la creación de composiciones musicales únicas. Este proceso se apoya en una metodología que integra el aprendizaje automático (machine learning) para capturar movimiento y generar música a través del protocolo MIDI, junto con la producción de audio utilizando REAPER. Este proyecto destaca por su accesibilidad, ya que está diseñado para funcionar en computadoras personales con sistema operativo Windows, utilizando cámaras web estándar para la captura de movimiento. Esto facilita su implementación en una amplia variedad de entornos domésticos. Al explorar la relación dinámica entre música, imagen y movimiento, este proyecto no solo avanza las fronteras de la creación artística tecnológica sino que también ofrece una plataforma para la expresión personal y la experimentación creativa. De esta manera, promueve la integración entre la tecnología musical y visual para enriquecer la experiencia humana a través del movimiento. Estas características introducen componentes de HIC y UX design que guiaron este producto a su destino final. |
dc.description.none.fl_txt_mv | Incluye bibliografía y anexos. |
dc.format.extent.none.fl_str_mv | 133 p. il., diagrs., tbls. |
dc.format.mimetype.none.fl_str_mv | PDF |
dc.identifier.citation.none.fl_str_mv | Lanzani Lagomarsino, I., Rodríguez Barreto, G., Carbajal Otton, M. J. (2024). Fractal sounds Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales (Proyecto). Universidad ORT Uruguay, Facultad de Ingeniería. Recuperado de https://rad.ort.edu.uy/handle/20.500.11968/6968 |
dc.identifier.uri.none.fl_str_mv | https://hdl.handle.net/20.500.11968/6968 http://hdl.handle.net/20.500.11968/6968 |
dc.language.iso.none.fl_str_mv | spa |
dc.publisher.none.fl_str_mv | Universidad ORT Uruguay |
dc.relation.other.none.fl_str_mv | https://sisbibliotecas.ort.edu.uy/bib/95684 |
dc.rights.license.none.fl_str_mv | Acceso abierto |
dc.rights.none.fl_str_mv | info:eu-repo/semantics/openAccess |
dc.source.none.fl_str_mv | reponame:RAD instname:Universidad ORT Uruguay instacron:Universidad ORT |
dc.subject.none.fl_str_mv | PROYECTOS-YI APRENDIZAJE AUTOMÁTICO MÚSICA MIDI FRACTALES EXPERIENCIA DE USUARIO |
dc.title.none.fl_str_mv | Fractal sounds Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales |
dc.type.none.fl_str_mv | Trabajo final de carrera info:eu-repo/semantics/bachelorThesis |
dc.type.version.none.fl_str_mv | info:eu-repo/semantics/publishedVersion |
description | Incluye bibliografía y anexos. |
eu_rights_str_mv | openAccess |
format | bachelorThesis |
id | RAD_7e28ec1bce718ed5d5d39e747f16eadc |
identifier_str_mv | Lanzani Lagomarsino, I., Rodríguez Barreto, G., Carbajal Otton, M. J. (2024). Fractal sounds Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales (Proyecto). Universidad ORT Uruguay, Facultad de Ingeniería. Recuperado de https://rad.ort.edu.uy/handle/20.500.11968/6968 |
instacron_str | Universidad ORT |
institution | Universidad ORT |
instname_str | Universidad ORT Uruguay |
language | spa |
network_acronym_str | RAD |
network_name_str | RAD |
oai_identifier_str | oai:rad.ort.edu.uy:20.500.11968/6968 |
publishDate | 2024 |
publisher.none.fl_str_mv | Universidad ORT Uruguay |
reponame_str | RAD |
repository.mail.fl_str_mv | rodriguez_v@ort.edu.uy |
repository.name.fl_str_mv | RAD - Universidad ORT Uruguay |
repository_id_str | 3927 |
rights_invalid_str_mv | Acceso abierto |
spelling | Fonseca De Oliveira, André LuizBarros Andrade, FabiánCohn Noachas, IlanZapata, EmilianoLanzani Lagomarsino, IgnacioRodríguez Barreto, GabrielRodríguez Barreto, Gabriel2024-06-07T13:51:13Z2024-06-07T13:51:13Z2024Incluye bibliografía y anexos.El siguiente proyecto introduce un sistema integrado que combina música, movimiento corporal y generación de elementos visuales en tiempo real, haciendo uso de técnicas avanzadas de aprendizaje automático, visión por computadora y generación de imágenes basadas en fractales. Su principal innovación es ofrecer una experiencia multisensorial envolvente, diseñada no solo para entretener sino también para impulsar la expresión creativa y personal de los usuarios mediante una interacción intuitiva con la música y las visualizaciones generadas. Mediante la captura de movimientos del usuario, se facilita una interacción dinámica con los elementos visuales, lo que resulta en la creación de composiciones musicales únicas. Este proceso se apoya en una metodología que integra el aprendizaje automático (machine learning) para capturar movimiento y generar música a través del protocolo MIDI, junto con la producción de audio utilizando REAPER. Este proyecto destaca por su accesibilidad, ya que está diseñado para funcionar en computadoras personales con sistema operativo Windows, utilizando cámaras web estándar para la captura de movimiento. Esto facilita su implementación en una amplia variedad de entornos domésticos. Al explorar la relación dinámica entre música, imagen y movimiento, este proyecto no solo avanza las fronteras de la creación artística tecnológica sino que también ofrece una plataforma para la expresión personal y la experimentación creativa. De esta manera, promueve la integración entre la tecnología musical y visual para enriquecer la experiencia humana a través del movimiento. Estas características introducen componentes de HIC y UX design que guiaron este producto a su destino final.133 p. il., diagrs., tbls.PDFLanzani Lagomarsino, I., Rodríguez Barreto, G., Carbajal Otton, M. J. (2024). Fractal sounds Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales (Proyecto). Universidad ORT Uruguay, Facultad de Ingeniería. Recuperado de https://rad.ort.edu.uy/handle/20.500.11968/6968https://hdl.handle.net/20.500.11968/6968http://hdl.handle.net/20.500.11968/6968spaUniversidad ORT Uruguayhttps://sisbibliotecas.ort.edu.uy/bib/95684info:eu-repo/semantics/openAccessAcceso abiertoPROYECTOS-YIAPRENDIZAJE AUTOMÁTICOMÚSICAMIDIFRACTALESEXPERIENCIA DE USUARIOFractal soundsGeneración musical e interactiva por medio de machine learning y sampling aplicado a fractalesTrabajo final de carrerainfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/publishedVersionreponame:RADinstname:Universidad ORT Uruguayinstacron:Universidad ORTFI - Ingeniería en Electrónica - IZFacultad de IngenieríaCarrera universitariaIngeniero en ElectrónicaProyectoProyecto (Carrera Universitaria). Universidad ORT Uruguay, Facultad de IngenieríaORIGINALMaterial completo.pdfapplication/pdf30407170https://rad.ort.edu.uy/bitstreams/0bad5e66-f1f7-470a-a2a2-e44f487a1ea4/downloada5cc2038f68b0ada0d30e3c9289c1634MD51THUMBNAILMaterial completo.pdf.jpgMaterial completo.pdf.jpgGenerated Thumbnailimage/jpeg3724https://rad.ort.edu.uy/bitstreams/1d7f30e5-792c-4042-9f2b-dc5e2cafd645/download9cff43f1aa07b0d9beb93488a6f68ea8MD5220.500.11968/69682024-07-22 16:10:33.922oai:rad.ort.edu.uy:20.500.11968/6968https://rad.ort.edu.uyUniversidadhttps://www.ort.edu.uy/https://rad.ort.edu.uy/server/oai/requestrodriguez_v@ort.edu.uyUruguayopendoar:39272024-07-22T16:10:33RAD - Universidad ORT Uruguayfalse |
spellingShingle | Fractal sounds Lanzani Lagomarsino, Ignacio PROYECTOS-YI APRENDIZAJE AUTOMÁTICO MÚSICA MIDI FRACTALES EXPERIENCIA DE USUARIO |
status_str | publishedVersion |
title | Fractal sounds |
title_full | Fractal sounds |
title_fullStr | Fractal sounds |
title_full_unstemmed | Fractal sounds |
title_short | Fractal sounds |
title_sort | Fractal sounds |
topic | PROYECTOS-YI APRENDIZAJE AUTOMÁTICO MÚSICA MIDI FRACTALES EXPERIENCIA DE USUARIO |
url | https://hdl.handle.net/20.500.11968/6968 http://hdl.handle.net/20.500.11968/6968 |