Fractal sounds

Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales

Lanzani Lagomarsino, Ignacio - Rodríguez Barreto, Gabriel

Resumen:

El siguiente proyecto introduce un sistema integrado que combina música, movimiento corporal y generación de elementos visuales en tiempo real, haciendo uso de técnicas avanzadas de aprendizaje automático, visión por computadora y generación de imágenes basadas en fractales. Su principal innovación es ofrecer una experiencia multisensorial envolvente, diseñada no solo para entretener sino también para impulsar la expresión creativa y personal de los usuarios mediante una interacción intuitiva con la música y las visualizaciones generadas. Mediante la captura de movimientos del usuario, se facilita una interacción dinámica con los elementos visuales, lo que resulta en la creación de composiciones musicales únicas. Este proceso se apoya en una metodología que integra el aprendizaje automático (machine learning) para capturar movimiento y generar música a través del protocolo MIDI, junto con la producción de audio utilizando REAPER. Este proyecto destaca por su accesibilidad, ya que está diseñado para funcionar en computadoras personales con sistema operativo Windows, utilizando cámaras web estándar para la captura de movimiento. Esto facilita su implementación en una amplia variedad de entornos domésticos. Al explorar la relación dinámica entre música, imagen y movimiento, este proyecto no solo avanza las fronteras de la creación artística tecnológica sino que también ofrece una plataforma para la expresión personal y la experimentación creativa. De esta manera, promueve la integración entre la tecnología musical y visual para enriquecer la experiencia humana a través del movimiento. Estas características introducen componentes de HIC y UX design que guiaron este producto a su destino final.


Detalles Bibliográficos
2024
PROYECTOS-YI
APRENDIZAJE AUTOMÁTICO
MÚSICA
MIDI
FRACTALES
EXPERIENCIA DE USUARIO
Español
Universidad ORT Uruguay
RAD
https://hdl.handle.net/20.500.11968/6968
http://hdl.handle.net/20.500.11968/6968
Acceso abierto
Acceso abierto
_version_ 1807261359614722048
author Lanzani Lagomarsino, Ignacio
author2 Rodríguez Barreto, Gabriel
author2_role author
author_facet Lanzani Lagomarsino, Ignacio
Rodríguez Barreto, Gabriel
author_role author
bitstream.checksum.fl_str_mv a5cc2038f68b0ada0d30e3c9289c1634
9cff43f1aa07b0d9beb93488a6f68ea8
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
bitstream.url.fl_str_mv https://rad.ort.edu.uy/bitstreams/0bad5e66-f1f7-470a-a2a2-e44f487a1ea4/download
https://rad.ort.edu.uy/bitstreams/1d7f30e5-792c-4042-9f2b-dc5e2cafd645/download
collection RAD
dc.contributor.advisor.none.fl_str_mv Fonseca De Oliveira, André Luiz
Barros Andrade, Fabián
dc.contributor.tribunal.none.fl_str_mv Cohn Noachas, Ilan
Zapata, Emiliano
dc.creator.none.fl_str_mv Lanzani Lagomarsino, Ignacio
Rodríguez Barreto, Gabriel
Rodríguez Barreto, Gabriel
dc.date.accessioned.none.fl_str_mv 2024-06-07T13:51:13Z
dc.date.available.none.fl_str_mv 2024-06-07T13:51:13Z
dc.date.issued.none.fl_str_mv 2024
dc.description.abstract.none.fl_txt_mv El siguiente proyecto introduce un sistema integrado que combina música, movimiento corporal y generación de elementos visuales en tiempo real, haciendo uso de técnicas avanzadas de aprendizaje automático, visión por computadora y generación de imágenes basadas en fractales. Su principal innovación es ofrecer una experiencia multisensorial envolvente, diseñada no solo para entretener sino también para impulsar la expresión creativa y personal de los usuarios mediante una interacción intuitiva con la música y las visualizaciones generadas. Mediante la captura de movimientos del usuario, se facilita una interacción dinámica con los elementos visuales, lo que resulta en la creación de composiciones musicales únicas. Este proceso se apoya en una metodología que integra el aprendizaje automático (machine learning) para capturar movimiento y generar música a través del protocolo MIDI, junto con la producción de audio utilizando REAPER. Este proyecto destaca por su accesibilidad, ya que está diseñado para funcionar en computadoras personales con sistema operativo Windows, utilizando cámaras web estándar para la captura de movimiento. Esto facilita su implementación en una amplia variedad de entornos domésticos. Al explorar la relación dinámica entre música, imagen y movimiento, este proyecto no solo avanza las fronteras de la creación artística tecnológica sino que también ofrece una plataforma para la expresión personal y la experimentación creativa. De esta manera, promueve la integración entre la tecnología musical y visual para enriquecer la experiencia humana a través del movimiento. Estas características introducen componentes de HIC y UX design que guiaron este producto a su destino final.
dc.description.none.fl_txt_mv Incluye bibliografía y anexos.
dc.format.extent.none.fl_str_mv 133 p. il., diagrs., tbls.
dc.format.mimetype.none.fl_str_mv PDF
dc.identifier.citation.none.fl_str_mv Lanzani Lagomarsino, I., Rodríguez Barreto, G., Carbajal Otton, M. J. (2024). Fractal sounds Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales (Proyecto). Universidad ORT Uruguay, Facultad de Ingeniería. Recuperado de https://rad.ort.edu.uy/handle/20.500.11968/6968
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.11968/6968
http://hdl.handle.net/20.500.11968/6968
dc.language.iso.none.fl_str_mv spa
dc.publisher.none.fl_str_mv Universidad ORT Uruguay
dc.relation.other.none.fl_str_mv https://sisbibliotecas.ort.edu.uy/bib/95684
dc.rights.license.none.fl_str_mv Acceso abierto
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:RAD
instname:Universidad ORT Uruguay
instacron:Universidad ORT
dc.subject.none.fl_str_mv PROYECTOS-YI
APRENDIZAJE AUTOMÁTICO
MÚSICA
MIDI
FRACTALES
EXPERIENCIA DE USUARIO
dc.title.none.fl_str_mv Fractal sounds
Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales
dc.type.none.fl_str_mv Trabajo final de carrera
info:eu-repo/semantics/bachelorThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/publishedVersion
description Incluye bibliografía y anexos.
eu_rights_str_mv openAccess
format bachelorThesis
id RAD_7e28ec1bce718ed5d5d39e747f16eadc
identifier_str_mv Lanzani Lagomarsino, I., Rodríguez Barreto, G., Carbajal Otton, M. J. (2024). Fractal sounds Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales (Proyecto). Universidad ORT Uruguay, Facultad de Ingeniería. Recuperado de https://rad.ort.edu.uy/handle/20.500.11968/6968
instacron_str Universidad ORT
institution Universidad ORT
instname_str Universidad ORT Uruguay
language spa
network_acronym_str RAD
network_name_str RAD
oai_identifier_str oai:rad.ort.edu.uy:20.500.11968/6968
publishDate 2024
publisher.none.fl_str_mv Universidad ORT Uruguay
reponame_str RAD
repository.mail.fl_str_mv rodriguez_v@ort.edu.uy
repository.name.fl_str_mv RAD - Universidad ORT Uruguay
repository_id_str 3927
rights_invalid_str_mv Acceso abierto
spelling Fonseca De Oliveira, André LuizBarros Andrade, FabiánCohn Noachas, IlanZapata, EmilianoLanzani Lagomarsino, IgnacioRodríguez Barreto, GabrielRodríguez Barreto, Gabriel2024-06-07T13:51:13Z2024-06-07T13:51:13Z2024Incluye bibliografía y anexos.El siguiente proyecto introduce un sistema integrado que combina música, movimiento corporal y generación de elementos visuales en tiempo real, haciendo uso de técnicas avanzadas de aprendizaje automático, visión por computadora y generación de imágenes basadas en fractales. Su principal innovación es ofrecer una experiencia multisensorial envolvente, diseñada no solo para entretener sino también para impulsar la expresión creativa y personal de los usuarios mediante una interacción intuitiva con la música y las visualizaciones generadas. Mediante la captura de movimientos del usuario, se facilita una interacción dinámica con los elementos visuales, lo que resulta en la creación de composiciones musicales únicas. Este proceso se apoya en una metodología que integra el aprendizaje automático (machine learning) para capturar movimiento y generar música a través del protocolo MIDI, junto con la producción de audio utilizando REAPER. Este proyecto destaca por su accesibilidad, ya que está diseñado para funcionar en computadoras personales con sistema operativo Windows, utilizando cámaras web estándar para la captura de movimiento. Esto facilita su implementación en una amplia variedad de entornos domésticos. Al explorar la relación dinámica entre música, imagen y movimiento, este proyecto no solo avanza las fronteras de la creación artística tecnológica sino que también ofrece una plataforma para la expresión personal y la experimentación creativa. De esta manera, promueve la integración entre la tecnología musical y visual para enriquecer la experiencia humana a través del movimiento. Estas características introducen componentes de HIC y UX design que guiaron este producto a su destino final.133 p. il., diagrs., tbls.PDFLanzani Lagomarsino, I., Rodríguez Barreto, G., Carbajal Otton, M. J. (2024). Fractal sounds Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales (Proyecto). Universidad ORT Uruguay, Facultad de Ingeniería. Recuperado de https://rad.ort.edu.uy/handle/20.500.11968/6968https://hdl.handle.net/20.500.11968/6968http://hdl.handle.net/20.500.11968/6968spaUniversidad ORT Uruguayhttps://sisbibliotecas.ort.edu.uy/bib/95684info:eu-repo/semantics/openAccessAcceso abiertoPROYECTOS-YIAPRENDIZAJE AUTOMÁTICOMÚSICAMIDIFRACTALESEXPERIENCIA DE USUARIOFractal soundsGeneración musical e interactiva por medio de machine learning y sampling aplicado a fractalesTrabajo final de carrerainfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/publishedVersionreponame:RADinstname:Universidad ORT Uruguayinstacron:Universidad ORTFI - Ingeniería en Electrónica - IZFacultad de IngenieríaCarrera universitariaIngeniero en ElectrónicaProyectoProyecto (Carrera Universitaria). Universidad ORT Uruguay, Facultad de IngenieríaORIGINALMaterial completo.pdfapplication/pdf30407170https://rad.ort.edu.uy/bitstreams/0bad5e66-f1f7-470a-a2a2-e44f487a1ea4/downloada5cc2038f68b0ada0d30e3c9289c1634MD51THUMBNAILMaterial completo.pdf.jpgMaterial completo.pdf.jpgGenerated Thumbnailimage/jpeg3724https://rad.ort.edu.uy/bitstreams/1d7f30e5-792c-4042-9f2b-dc5e2cafd645/download9cff43f1aa07b0d9beb93488a6f68ea8MD5220.500.11968/69682024-07-22 16:10:33.922oai:rad.ort.edu.uy:20.500.11968/6968https://rad.ort.edu.uyUniversidadhttps://www.ort.edu.uy/https://rad.ort.edu.uy/server/oai/requestrodriguez_v@ort.edu.uyUruguayopendoar:39272024-07-22T16:10:33RAD - Universidad ORT Uruguayfalse
spellingShingle Fractal sounds
Lanzani Lagomarsino, Ignacio
PROYECTOS-YI
APRENDIZAJE AUTOMÁTICO
MÚSICA
MIDI
FRACTALES
EXPERIENCIA DE USUARIO
status_str publishedVersion
title Fractal sounds
title_full Fractal sounds
title_fullStr Fractal sounds
title_full_unstemmed Fractal sounds
title_short Fractal sounds
title_sort Fractal sounds
topic PROYECTOS-YI
APRENDIZAJE AUTOMÁTICO
MÚSICA
MIDI
FRACTALES
EXPERIENCIA DE USUARIO
url https://hdl.handle.net/20.500.11968/6968
http://hdl.handle.net/20.500.11968/6968