Optimización del almacenamiento de energía en redes eléctricas
Supervisor(es): Bazerque, Juan Andrés
Resumen:
Storage technologies are a fundamental component of electric power systems, ranging from slow, high capacity systems (such as hydro reservoirs) to fast, high ramping, low capacity systems (such as utility-scale batteries). In this thesis we deal with optimizing the operation of energy storage systems from a broad perspective, focusing on both the large- and low-scale systems. Operating a grid with storage is a difficult task, in the sense that i) there is inherent uncertainty from the stochastic variables involved (such as the demand and renewable energy available), and ii) storage dynamics couple decisions across time, implying that actions must be taken with respect to some global goal. Accordingly, we formulate the optimal dispatch problem as a multi-stage dynamic programming problem, subject to various control and state constraints. We study both these cases and consider their applications on the Uruguayan grid. In the case of hydro-reservoirs, we model the cost-to-go functions as convexquadratic in the reservoirs. This leads to an approximate dynamic programming algorithm which at each stage samples state-cost pairs and fits convex-quadratic functions in a recursive manner. We implement this efficiently via modern optimization solvers, and our results show that the control policy learned in this fashion exceeds the performance of a naïve myopic policy. We also consider the operation of a bulk battery storage system in a single-bus model of the Uruguayan grid. In this regard, we consider learning the controller via Q-learning, the quintessential algorithm in the field of Reinforcement Learning. With no prior information on the transition model and on the stochastic variables involved, we obtain an agent that makes hourly decisions based on the state of the system, namely the state of charge of the battery, the time of day and the forecasted wind and demand. We train the controller with real data of three winters, and obtain a policy that operates the system with good performance, charging the battery —even at expenses of fuel generation— when generation is cheap and renewable energies abundant, and turning that surplus back to the grid when demand peaks.
Las tecnologías de almacenamiento energético son un componente fundamental de los sistemas eléctricos de potencia. Entre ellas se comprenden los sistemas lentos, de alta capacidad (como las represas hidroeléctricas), hasta los rápidos, de menor capacidad y con alta rampa de carga (tales como las baterías). Esta tesis versa sobre la optimización de la operación de estos sistemas desde una perspectiva amplia, abocándonos a los sistemas de gran y pequeño porte. Operar una red eléctrica con almacenamiento es una tarea compleja, en el sentido que i) existe incertidumbre inherente al problema debido a las variables estocásticas involucradas (como la demanda y la energía renovable disponible), y ii) la dinámica del almacenamiento acopla las decisiones en el tiempo, implicando que las acciones deben ser tomadas con respecto a algún objetivo global. En concordancia con esto, formulamos el problema de despacho óptimo en el marco de la programación dinámica en varias etapas, sujeto a variadas restricciones de control y estado. Estudiamos ambos escenarios y consideramos su aplicación en el sistema eléctrico uruguayo. Para el caso de las represas, modelamos las funciones de valor del problema como cuadráticas convexas en el nivel de los embalses. Esto da lugar a un algoritmo de programación dinámica aproximada, que en cada etapa toma muestras de parejas estado-costo y ajusta las cuadráticas de manera recursiva. Implementamos este algoritmo de manera eficiente usando solvers de optimización modernos, y nuestros resultados muestran que la política de control aprendida supera en desempeño a una política miope. Asimismo consideramos la operación de un banco de baterías en un modelo uninodal de la red uruguaya. El controlador se aprende a partir de Q-learning, uno de los algoritmos más conocidos del campo de Reinforcement Learning. Este controlador aprende a tomar decisiones de forma horaria, sin información previa de la dinámica de transición del sistema o de la estadística de las variables aleatorias involucradas, teniendo acceso únicamente al estado del sistema, a saber, el estado de carga de la batería, la hora del día y el pronóstico de demanda y energía renovable para la hora siguiente. Entrenamos a este controlador usando datos reales de tres inviernos uruguayos, y obtenemos una política que opera al sistema con buen desempeño, cargando la batería -incluso a expensas de generación térmica- cuando el costo de generación es barato y la energía renovable abundante, y que vuelca este excedente a la red cuando la demanda es alta.
2021 | |
Redes eléctricas Optimización Programación dinámica Aprendizaje por refuerzo |
|
Español | |
Universidad de la República | |
COLIBRI | |
https://hdl.handle.net/20.500.12008/30024 | |
Acceso abierto | |
Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |
_version_ | 1807523179325816832 |
---|---|
author | Castellano, Agustin |
author_facet | Castellano, Agustin |
author_role | author |
bitstream.checksum.fl_str_mv | 6429389a7df7277b72b7924fdc7d47a9 a006180e3f5b2ad0b88185d14284c0e0 36c32e9c6da50e6d55578c16944ef7f6 1996b8461bc290aef6a27d78c67b6b52 08491beb581acb6fd173c3a45724743f |
bitstream.checksumAlgorithm.fl_str_mv | MD5 MD5 MD5 MD5 MD5 |
bitstream.url.fl_str_mv | http://localhost:8080/xmlui/bitstream/20.500.12008/30024/5/license.txt http://localhost:8080/xmlui/bitstream/20.500.12008/30024/2/license_url http://localhost:8080/xmlui/bitstream/20.500.12008/30024/3/license_text http://localhost:8080/xmlui/bitstream/20.500.12008/30024/4/license_rdf http://localhost:8080/xmlui/bitstream/20.500.12008/30024/1/Cas21a.pdf |
collection | COLIBRI |
dc.contributor.filiacion.none.fl_str_mv | Castellano Agustin, Universidad de la República (Uruguay). Facultad de Ingeniería. |
dc.creator.advisor.none.fl_str_mv | Bazerque, Juan Andrés |
dc.creator.none.fl_str_mv | Castellano, Agustin |
dc.date.accessioned.none.fl_str_mv | 2021-11-01T17:49:36Z |
dc.date.available.none.fl_str_mv | 2021-11-01T17:49:36Z |
dc.date.issued.none.fl_str_mv | 2021 |
dc.description.abstract.none.fl_txt_mv | Storage technologies are a fundamental component of electric power systems, ranging from slow, high capacity systems (such as hydro reservoirs) to fast, high ramping, low capacity systems (such as utility-scale batteries). In this thesis we deal with optimizing the operation of energy storage systems from a broad perspective, focusing on both the large- and low-scale systems. Operating a grid with storage is a difficult task, in the sense that i) there is inherent uncertainty from the stochastic variables involved (such as the demand and renewable energy available), and ii) storage dynamics couple decisions across time, implying that actions must be taken with respect to some global goal. Accordingly, we formulate the optimal dispatch problem as a multi-stage dynamic programming problem, subject to various control and state constraints. We study both these cases and consider their applications on the Uruguayan grid. In the case of hydro-reservoirs, we model the cost-to-go functions as convexquadratic in the reservoirs. This leads to an approximate dynamic programming algorithm which at each stage samples state-cost pairs and fits convex-quadratic functions in a recursive manner. We implement this efficiently via modern optimization solvers, and our results show that the control policy learned in this fashion exceeds the performance of a naïve myopic policy. We also consider the operation of a bulk battery storage system in a single-bus model of the Uruguayan grid. In this regard, we consider learning the controller via Q-learning, the quintessential algorithm in the field of Reinforcement Learning. With no prior information on the transition model and on the stochastic variables involved, we obtain an agent that makes hourly decisions based on the state of the system, namely the state of charge of the battery, the time of day and the forecasted wind and demand. We train the controller with real data of three winters, and obtain a policy that operates the system with good performance, charging the battery —even at expenses of fuel generation— when generation is cheap and renewable energies abundant, and turning that surplus back to the grid when demand peaks. Las tecnologías de almacenamiento energético son un componente fundamental de los sistemas eléctricos de potencia. Entre ellas se comprenden los sistemas lentos, de alta capacidad (como las represas hidroeléctricas), hasta los rápidos, de menor capacidad y con alta rampa de carga (tales como las baterías). Esta tesis versa sobre la optimización de la operación de estos sistemas desde una perspectiva amplia, abocándonos a los sistemas de gran y pequeño porte. Operar una red eléctrica con almacenamiento es una tarea compleja, en el sentido que i) existe incertidumbre inherente al problema debido a las variables estocásticas involucradas (como la demanda y la energía renovable disponible), y ii) la dinámica del almacenamiento acopla las decisiones en el tiempo, implicando que las acciones deben ser tomadas con respecto a algún objetivo global. En concordancia con esto, formulamos el problema de despacho óptimo en el marco de la programación dinámica en varias etapas, sujeto a variadas restricciones de control y estado. Estudiamos ambos escenarios y consideramos su aplicación en el sistema eléctrico uruguayo. Para el caso de las represas, modelamos las funciones de valor del problema como cuadráticas convexas en el nivel de los embalses. Esto da lugar a un algoritmo de programación dinámica aproximada, que en cada etapa toma muestras de parejas estado-costo y ajusta las cuadráticas de manera recursiva. Implementamos este algoritmo de manera eficiente usando solvers de optimización modernos, y nuestros resultados muestran que la política de control aprendida supera en desempeño a una política miope. Asimismo consideramos la operación de un banco de baterías en un modelo uninodal de la red uruguaya. El controlador se aprende a partir de Q-learning, uno de los algoritmos más conocidos del campo de Reinforcement Learning. Este controlador aprende a tomar decisiones de forma horaria, sin información previa de la dinámica de transición del sistema o de la estadística de las variables aleatorias involucradas, teniendo acceso únicamente al estado del sistema, a saber, el estado de carga de la batería, la hora del día y el pronóstico de demanda y energía renovable para la hora siguiente. Entrenamos a este controlador usando datos reales de tres inviernos uruguayos, y obtenemos una política que opera al sistema con buen desempeño, cargando la batería -incluso a expensas de generación térmica- cuando el costo de generación es barato y la energía renovable abundante, y que vuelca este excedente a la red cuando la demanda es alta. |
dc.format.extent.es.fl_str_mv | 62 p. |
dc.format.mimetype.es.fl_str_mv | application/pdf |
dc.identifier.citation.es.fl_str_mv | Castellano, A. Optimización del almacenamiento de energía en redes eléctricas [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2021. |
dc.identifier.issn.none.fl_str_mv | 1688-2806 |
dc.identifier.uri.none.fl_str_mv | https://hdl.handle.net/20.500.12008/30024 |
dc.language.iso.none.fl_str_mv | es spa |
dc.publisher.es.fl_str_mv | Udelar.FI. |
dc.rights.license.none.fl_str_mv | Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |
dc.rights.none.fl_str_mv | info:eu-repo/semantics/openAccess |
dc.source.none.fl_str_mv | reponame:COLIBRI instname:Universidad de la República instacron:Universidad de la República |
dc.subject.es.fl_str_mv | Redes eléctricas Optimización Programación dinámica Aprendizaje por refuerzo |
dc.title.none.fl_str_mv | Optimización del almacenamiento de energía en redes eléctricas |
dc.type.es.fl_str_mv | Tesis de maestría |
dc.type.none.fl_str_mv | info:eu-repo/semantics/masterThesis |
dc.type.version.none.fl_str_mv | info:eu-repo/semantics/acceptedVersion |
description | Storage technologies are a fundamental component of electric power systems, ranging from slow, high capacity systems (such as hydro reservoirs) to fast, high ramping, low capacity systems (such as utility-scale batteries). In this thesis we deal with optimizing the operation of energy storage systems from a broad perspective, focusing on both the large- and low-scale systems. Operating a grid with storage is a difficult task, in the sense that i) there is inherent uncertainty from the stochastic variables involved (such as the demand and renewable energy available), and ii) storage dynamics couple decisions across time, implying that actions must be taken with respect to some global goal. Accordingly, we formulate the optimal dispatch problem as a multi-stage dynamic programming problem, subject to various control and state constraints. We study both these cases and consider their applications on the Uruguayan grid. In the case of hydro-reservoirs, we model the cost-to-go functions as convexquadratic in the reservoirs. This leads to an approximate dynamic programming algorithm which at each stage samples state-cost pairs and fits convex-quadratic functions in a recursive manner. We implement this efficiently via modern optimization solvers, and our results show that the control policy learned in this fashion exceeds the performance of a naïve myopic policy. We also consider the operation of a bulk battery storage system in a single-bus model of the Uruguayan grid. In this regard, we consider learning the controller via Q-learning, the quintessential algorithm in the field of Reinforcement Learning. With no prior information on the transition model and on the stochastic variables involved, we obtain an agent that makes hourly decisions based on the state of the system, namely the state of charge of the battery, the time of day and the forecasted wind and demand. We train the controller with real data of three winters, and obtain a policy that operates the system with good performance, charging the battery —even at expenses of fuel generation— when generation is cheap and renewable energies abundant, and turning that surplus back to the grid when demand peaks. |
eu_rights_str_mv | openAccess |
format | masterThesis |
id | COLIBRI_a792d4916f4fe1f44a4ec0e59e7b568f |
identifier_str_mv | Castellano, A. Optimización del almacenamiento de energía en redes eléctricas [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2021. 1688-2806 |
instacron_str | Universidad de la República |
institution | Universidad de la República |
instname_str | Universidad de la República |
language | spa |
language_invalid_str_mv | es |
network_acronym_str | COLIBRI |
network_name_str | COLIBRI |
oai_identifier_str | oai:colibri.udelar.edu.uy:20.500.12008/30024 |
publishDate | 2021 |
reponame_str | COLIBRI |
repository.mail.fl_str_mv | mabel.seroubian@seciu.edu.uy |
repository.name.fl_str_mv | COLIBRI - Universidad de la República |
repository_id_str | 4771 |
rights_invalid_str_mv | Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |
spelling | Castellano Agustin, Universidad de la República (Uruguay). Facultad de Ingeniería.2021-11-01T17:49:36Z2021-11-01T17:49:36Z2021Castellano, A. Optimización del almacenamiento de energía en redes eléctricas [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2021.1688-2806https://hdl.handle.net/20.500.12008/30024Storage technologies are a fundamental component of electric power systems, ranging from slow, high capacity systems (such as hydro reservoirs) to fast, high ramping, low capacity systems (such as utility-scale batteries). In this thesis we deal with optimizing the operation of energy storage systems from a broad perspective, focusing on both the large- and low-scale systems. Operating a grid with storage is a difficult task, in the sense that i) there is inherent uncertainty from the stochastic variables involved (such as the demand and renewable energy available), and ii) storage dynamics couple decisions across time, implying that actions must be taken with respect to some global goal. Accordingly, we formulate the optimal dispatch problem as a multi-stage dynamic programming problem, subject to various control and state constraints. We study both these cases and consider their applications on the Uruguayan grid. In the case of hydro-reservoirs, we model the cost-to-go functions as convexquadratic in the reservoirs. This leads to an approximate dynamic programming algorithm which at each stage samples state-cost pairs and fits convex-quadratic functions in a recursive manner. We implement this efficiently via modern optimization solvers, and our results show that the control policy learned in this fashion exceeds the performance of a naïve myopic policy. We also consider the operation of a bulk battery storage system in a single-bus model of the Uruguayan grid. In this regard, we consider learning the controller via Q-learning, the quintessential algorithm in the field of Reinforcement Learning. With no prior information on the transition model and on the stochastic variables involved, we obtain an agent that makes hourly decisions based on the state of the system, namely the state of charge of the battery, the time of day and the forecasted wind and demand. We train the controller with real data of three winters, and obtain a policy that operates the system with good performance, charging the battery —even at expenses of fuel generation— when generation is cheap and renewable energies abundant, and turning that surplus back to the grid when demand peaks.Las tecnologías de almacenamiento energético son un componente fundamental de los sistemas eléctricos de potencia. Entre ellas se comprenden los sistemas lentos, de alta capacidad (como las represas hidroeléctricas), hasta los rápidos, de menor capacidad y con alta rampa de carga (tales como las baterías). Esta tesis versa sobre la optimización de la operación de estos sistemas desde una perspectiva amplia, abocándonos a los sistemas de gran y pequeño porte. Operar una red eléctrica con almacenamiento es una tarea compleja, en el sentido que i) existe incertidumbre inherente al problema debido a las variables estocásticas involucradas (como la demanda y la energía renovable disponible), y ii) la dinámica del almacenamiento acopla las decisiones en el tiempo, implicando que las acciones deben ser tomadas con respecto a algún objetivo global. En concordancia con esto, formulamos el problema de despacho óptimo en el marco de la programación dinámica en varias etapas, sujeto a variadas restricciones de control y estado. Estudiamos ambos escenarios y consideramos su aplicación en el sistema eléctrico uruguayo. Para el caso de las represas, modelamos las funciones de valor del problema como cuadráticas convexas en el nivel de los embalses. Esto da lugar a un algoritmo de programación dinámica aproximada, que en cada etapa toma muestras de parejas estado-costo y ajusta las cuadráticas de manera recursiva. Implementamos este algoritmo de manera eficiente usando solvers de optimización modernos, y nuestros resultados muestran que la política de control aprendida supera en desempeño a una política miope. Asimismo consideramos la operación de un banco de baterías en un modelo uninodal de la red uruguaya. El controlador se aprende a partir de Q-learning, uno de los algoritmos más conocidos del campo de Reinforcement Learning. Este controlador aprende a tomar decisiones de forma horaria, sin información previa de la dinámica de transición del sistema o de la estadística de las variables aleatorias involucradas, teniendo acceso únicamente al estado del sistema, a saber, el estado de carga de la batería, la hora del día y el pronóstico de demanda y energía renovable para la hora siguiente. Entrenamos a este controlador usando datos reales de tres inviernos uruguayos, y obtenemos una política que opera al sistema con buen desempeño, cargando la batería -incluso a expensas de generación térmica- cuando el costo de generación es barato y la energía renovable abundante, y que vuelca este excedente a la red cuando la demanda es alta.Submitted by Ribeiro Jorge (jribeiro@fing.edu.uy) on 2021-10-29T22:23:06Z No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) Cas21a.pdf: 2369326 bytes, checksum: 08491beb581acb6fd173c3a45724743f (MD5)Approved for entry into archive by Machado Jimena (jmachado@fing.edu.uy) on 2021-11-01T17:47:47Z (GMT) No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) Cas21a.pdf: 2369326 bytes, checksum: 08491beb581acb6fd173c3a45724743f (MD5)Made available in DSpace by Luna Fabiana (fabiana.luna@seciu.edu.uy) on 2021-11-01T17:49:36Z (GMT). No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) Cas21a.pdf: 2369326 bytes, checksum: 08491beb581acb6fd173c3a45724743f (MD5) Previous issue date: 202162 p.application/pdfesspaUdelar.FI.Las obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)Redes eléctricasOptimizaciónProgramación dinámicaAprendizaje por refuerzoOptimización del almacenamiento de energía en redes eléctricasTesis de maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaCastellano, AgustinBazerque, Juan AndrésUniversidad de la República (Uruguay). Facultad de IngenieríaMagíster en Ingeniería (Ingeniería Eléctrica)LICENSElicense.txtlicense.txttext/plain; charset=utf-84267http://localhost:8080/xmlui/bitstream/20.500.12008/30024/5/license.txt6429389a7df7277b72b7924fdc7d47a9MD55CC-LICENSElicense_urllicense_urltext/plain; charset=utf-850http://localhost:8080/xmlui/bitstream/20.500.12008/30024/2/license_urla006180e3f5b2ad0b88185d14284c0e0MD52license_textlicense_texttext/html; charset=utf-838616http://localhost:8080/xmlui/bitstream/20.500.12008/30024/3/license_text36c32e9c6da50e6d55578c16944ef7f6MD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-823149http://localhost:8080/xmlui/bitstream/20.500.12008/30024/4/license_rdf1996b8461bc290aef6a27d78c67b6b52MD54ORIGINALCas21a.pdfCas21a.pdfapplication/pdf2369326http://localhost:8080/xmlui/bitstream/20.500.12008/30024/1/Cas21a.pdf08491beb581acb6fd173c3a45724743fMD5120.500.12008/300242021-11-01 14:49:36.413oai:colibri.udelar.edu.uy:20.500.12008/30024VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDDumJsaWNhLiAoUmVzLiBOwrogOTEgZGUgQy5ELkMuIGRlIDgvSUlJLzE5OTQg4oCTIEQuTy4gNy9JVi8xOTk0KSB5ICBwb3IgbGEgT3JkZW5hbnphIGRlbCBSZXBvc2l0b3JpbyBBYmllcnRvIGRlIGxhIFVuaXZlcnNpZGFkIGRlIGxhIFJlcMO6YmxpY2EgKFJlcy4gTsK6IDE2IGRlIEMuRC5DLiBkZSAwNy8xMC8yMDE0KS4gCgpBY2VwdGFuZG8gZWwgYXV0b3IgZXN0b3MgdMOpcm1pbm9zIHkgY29uZGljaW9uZXMgZGUgZGVww7NzaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcMO6YmxpY2EgcHJvY2VkZXLDoSBhOiAgCgphKSBhcmNoaXZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nDs24KYikgY29udmVydGlyIGxhIG9icmEgYSBvdHJvcyBmb3JtYXRvcyBzaSBmdWVyYSBuZWNlc2FyaW8gIHBhcmEgZmFjaWxpdGFyIHN1IHByZXNlcnZhY2nDs24geSBhY2Nlc2liaWxpZGFkIHNpbiBhbHRlcmFyIHN1IGNvbnRlbmlkby4KYykgcmVhbGl6YXIgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGRpc3BvbmVyIGVsIGFjY2VzbyBsaWJyZSB5IGdyYXR1aXRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCBtZWRpYW50ZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcsOhIHNvbGljaXRhciB1biBwZXLDrW9kbyBkZSBlbWJhcmdvIHNvYnJlIGxhIGRpc3BvbmliaWxpZGFkIHDDumJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFyw6EgYSBwYXJ0aXIgZGUgbGEgYWNlcHRhY2nDs24gZGUgZXN0ZSBkb2N1bWVudG8geSBoYXN0YSBsYSBmZWNoYSBxdWUgaW5kaXF1ZSAuCgpFbCBhdXRvciBhc2VndXJhIHF1ZSBsYSBvYnJhIG5vIGluZnJpZ2UgbmluZ8O6biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIHkgcmVjb25vY2lkbyBlbiBlbCB0ZXh0byBvIGNvbnRlbmlkbyBkZWwgZG9jdW1lbnRvIGRlcG9zaXRhZG8gZW4gZWwgUmVwb3NpdG9yaW8uCgpFbiBvYnJhcyBkZSBhdXRvcsOtYSBtw7psdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDDqXN0ZSBlbCDDum5pY28gcmVzcG9uc2FibGUgZnJlbnRlIGEgY3VhbHF1aWVyIHRpcG8gZGUgcmVjbGFtYWNpw7NuIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLDoSByZXNwb25zYWJsZSBkZWwgY29udGVuaWRvIGRlIGxvcyBkb2N1bWVudG9zIHF1ZSBkZXBvc2l0YS4gTGEgVURFTEFSIG5vIHNlcsOhIHJlc3BvbnNhYmxlIHBvciBsYXMgZXZlbnR1YWxlcyB2aW9sYWNpb25lcyBhbCBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBlbiBxdWUgcHVlZGEgaW5jdXJyaXIgZWwgYXV0b3IuCgpBbnRlIGN1YWxxdWllciBkZW51bmNpYSBkZSB2aW9sYWNpw7NuIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFyw6EgdG9kYXMgbGFzIG1lZGlkYXMgbmVjZXNhcmlhcyBwYXJhIGV2aXRhciBsYSBjb250aW51YWNpw7NuIGRlIGRpY2hhIGluZnJhY2Npw7NuLCBsYXMgcXVlIHBvZHLDoW4gaW5jbHVpciBlbCByZXRpcm8gZGVsIGFjY2VzbyBhIGxvcyBjb250ZW5pZG9zIHkvbyBtZXRhZGF0b3MgZGVsIGRvY3VtZW50byByZXNwZWN0aXZvLgoKTGEgb2JyYSBzZSBwb25kcsOhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBhIHRyYXbDqXMgZGUgbGFzIGxpY2VuY2lhcyBDcmVhdGl2ZSBDb21tb25zLCBlbCBhdXRvciBwb2Ryw6Egc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjacOzbiAoQ0MgLSBCeSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBzaWVtcHJlIHF1ZSBzZSByZWNvbm96Y2EgYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgQ29tcGFydGlyIElndWFsIChDQyAtIEJ5LVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgaW5jbHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIHBlcm8gbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIChDQyAtIEJ5LU5DKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzLCByZWNvbm9jaWVuZG8gYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNpw7NuIOKAkyBObyBDb21lcmNpYWwg4oCTIENvbXBhcnRpciBJZ3VhbCAoQ0Mg4oCTIEJ5LU5DLVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzIHkgbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIHNlIGhhZ2EgbWVkaWFudGUgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIOKAkyBTaW4gRGVyaXZhZGFzIChDQyAtIEJ5LU5DLU5EKTogUGVybWl0ZSB1c2FyIGxhIG9icmEsIHBlcm8gbm8gc2UgcGVybWl0ZSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcyB5IG5vIHNlIHBlcm1pdGUgdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgZGViaWVuZG8gcmVjb25vY2VyIGFsIGF1dG9yLgoKTG9zIHVzb3MgcHJldmlzdG9zIGVuIGxhcyBsaWNlbmNpYXMgaW5jbHV5ZW4gbGEgZW5hamVuYWNpw7NuLCByZXByb2R1Y2Npw7NuLCBjb211bmljYWNpw7NuLCBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24geSBwdWVzdGEgYSBkaXNwb3NpY2nDs24gZGVsIHDDumJsaWNvLiBMYSBjcmVhY2nDs24gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nDs24sIHRyYWR1Y2Npw7NuIHkgZWwgcmVtaXguCgpDdWFuZG8gc2Ugc2VsZWNjaW9uZSB1bmEgbGljZW5jaWEgcXVlIGhhYmlsaXRlIHVzb3MgY29tZXJjaWFsZXMsIGVsIGRlcMOzc2l0byBkZWJlcsOhIHNlciBhY29tcGHDsWFkbyBkZWwgYXZhbCBkZWwgamVyYXJjYSBtw6F4aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCg==Universidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-07-25T14:44:18.052656COLIBRI - Universidad de la Repúblicafalse |
spellingShingle | Optimización del almacenamiento de energía en redes eléctricas Castellano, Agustin Redes eléctricas Optimización Programación dinámica Aprendizaje por refuerzo |
status_str | acceptedVersion |
title | Optimización del almacenamiento de energía en redes eléctricas |
title_full | Optimización del almacenamiento de energía en redes eléctricas |
title_fullStr | Optimización del almacenamiento de energía en redes eléctricas |
title_full_unstemmed | Optimización del almacenamiento de energía en redes eléctricas |
title_short | Optimización del almacenamiento de energía en redes eléctricas |
title_sort | Optimización del almacenamiento de energía en redes eléctricas |
topic | Redes eléctricas Optimización Programación dinámica Aprendizaje por refuerzo |
url | https://hdl.handle.net/20.500.12008/30024 |