Optimización del almacenamiento de energía en redes eléctricas

Castellano, Agustin

Supervisor(es): Bazerque, Juan Andrés

Resumen:

Storage technologies are a fundamental component of electric power systems, ranging from slow, high capacity systems (such as hydro reservoirs) to fast, high ramping, low capacity systems (such as utility-scale batteries). In this thesis we deal with optimizing the operation of energy storage systems from a broad perspective, focusing on both the large- and low-scale systems. Operating a grid with storage is a difficult task, in the sense that i) there is inherent uncertainty from the stochastic variables involved (such as the demand and renewable energy available), and ii) storage dynamics couple decisions across time, implying that actions must be taken with respect to some global goal. Accordingly, we formulate the optimal dispatch problem as a multi-stage dynamic programming problem, subject to various control and state constraints. We study both these cases and consider their applications on the Uruguayan grid. In the case of hydro-reservoirs, we model the cost-to-go functions as convexquadratic in the reservoirs. This leads to an approximate dynamic programming algorithm which at each stage samples state-cost pairs and fits convex-quadratic functions in a recursive manner. We implement this efficiently via modern optimization solvers, and our results show that the control policy learned in this fashion exceeds the performance of a naïve myopic policy. We also consider the operation of a bulk battery storage system in a single-bus model of the Uruguayan grid. In this regard, we consider learning the controller via Q-learning, the quintessential algorithm in the field of Reinforcement Learning. With no prior information on the transition model and on the stochastic variables involved, we obtain an agent that makes hourly decisions based on the state of the system, namely the state of charge of the battery, the time of day and the forecasted wind and demand. We train the controller with real data of three winters, and obtain a policy that operates the system with good performance, charging the battery —even at expenses of fuel generation— when generation is cheap and renewable energies abundant, and turning that surplus back to the grid when demand peaks.


Las tecnologías de almacenamiento energético son un componente fundamental de los sistemas eléctricos de potencia. Entre ellas se comprenden los sistemas lentos, de alta capacidad (como las represas hidroeléctricas), hasta los rápidos, de menor capacidad y con alta rampa de carga (tales como las baterías). Esta tesis versa sobre la optimización de la operación de estos sistemas desde una perspectiva amplia, abocándonos a los sistemas de gran y pequeño porte. Operar una red eléctrica con almacenamiento es una tarea compleja, en el sentido que i) existe incertidumbre inherente al problema debido a las variables estocásticas involucradas (como la demanda y la energía renovable disponible), y ii) la dinámica del almacenamiento acopla las decisiones en el tiempo, implicando que las acciones deben ser tomadas con respecto a algún objetivo global. En concordancia con esto, formulamos el problema de despacho óptimo en el marco de la programación dinámica en varias etapas, sujeto a variadas restricciones de control y estado. Estudiamos ambos escenarios y consideramos su aplicación en el sistema eléctrico uruguayo. Para el caso de las represas, modelamos las funciones de valor del problema como cuadráticas convexas en el nivel de los embalses. Esto da lugar a un algoritmo de programación dinámica aproximada, que en cada etapa toma muestras de parejas estado-costo y ajusta las cuadráticas de manera recursiva. Implementamos este algoritmo de manera eficiente usando solvers de optimización modernos, y nuestros resultados muestran que la política de control aprendida supera en desempeño a una política miope. Asimismo consideramos la operación de un banco de baterías en un modelo uninodal de la red uruguaya. El controlador se aprende a partir de Q-learning, uno de los algoritmos más conocidos del campo de Reinforcement Learning. Este controlador aprende a tomar decisiones de forma horaria, sin información previa de la dinámica de transición del sistema o de la estadística de las variables aleatorias involucradas, teniendo acceso únicamente al estado del sistema, a saber, el estado de carga de la batería, la hora del día y el pronóstico de demanda y energía renovable para la hora siguiente. Entrenamos a este controlador usando datos reales de tres inviernos uruguayos, y obtenemos una política que opera al sistema con buen desempeño, cargando la batería -incluso a expensas de generación térmica- cuando el costo de generación es barato y la energía renovable abundante, y que vuelca este excedente a la red cuando la demanda es alta.


Detalles Bibliográficos
2021
Redes eléctricas
Optimización
Programación dinámica
Aprendizaje por refuerzo
Español
Universidad de la República
COLIBRI
https://hdl.handle.net/20.500.12008/30024
Acceso abierto
Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
_version_ 1807523179325816832
author Castellano, Agustin
author_facet Castellano, Agustin
author_role author
bitstream.checksum.fl_str_mv 6429389a7df7277b72b7924fdc7d47a9
a006180e3f5b2ad0b88185d14284c0e0
36c32e9c6da50e6d55578c16944ef7f6
1996b8461bc290aef6a27d78c67b6b52
08491beb581acb6fd173c3a45724743f
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
bitstream.url.fl_str_mv http://localhost:8080/xmlui/bitstream/20.500.12008/30024/5/license.txt
http://localhost:8080/xmlui/bitstream/20.500.12008/30024/2/license_url
http://localhost:8080/xmlui/bitstream/20.500.12008/30024/3/license_text
http://localhost:8080/xmlui/bitstream/20.500.12008/30024/4/license_rdf
http://localhost:8080/xmlui/bitstream/20.500.12008/30024/1/Cas21a.pdf
collection COLIBRI
dc.contributor.filiacion.none.fl_str_mv Castellano Agustin, Universidad de la República (Uruguay). Facultad de Ingeniería.
dc.creator.advisor.none.fl_str_mv Bazerque, Juan Andrés
dc.creator.none.fl_str_mv Castellano, Agustin
dc.date.accessioned.none.fl_str_mv 2021-11-01T17:49:36Z
dc.date.available.none.fl_str_mv 2021-11-01T17:49:36Z
dc.date.issued.none.fl_str_mv 2021
dc.description.abstract.none.fl_txt_mv Storage technologies are a fundamental component of electric power systems, ranging from slow, high capacity systems (such as hydro reservoirs) to fast, high ramping, low capacity systems (such as utility-scale batteries). In this thesis we deal with optimizing the operation of energy storage systems from a broad perspective, focusing on both the large- and low-scale systems. Operating a grid with storage is a difficult task, in the sense that i) there is inherent uncertainty from the stochastic variables involved (such as the demand and renewable energy available), and ii) storage dynamics couple decisions across time, implying that actions must be taken with respect to some global goal. Accordingly, we formulate the optimal dispatch problem as a multi-stage dynamic programming problem, subject to various control and state constraints. We study both these cases and consider their applications on the Uruguayan grid. In the case of hydro-reservoirs, we model the cost-to-go functions as convexquadratic in the reservoirs. This leads to an approximate dynamic programming algorithm which at each stage samples state-cost pairs and fits convex-quadratic functions in a recursive manner. We implement this efficiently via modern optimization solvers, and our results show that the control policy learned in this fashion exceeds the performance of a naïve myopic policy. We also consider the operation of a bulk battery storage system in a single-bus model of the Uruguayan grid. In this regard, we consider learning the controller via Q-learning, the quintessential algorithm in the field of Reinforcement Learning. With no prior information on the transition model and on the stochastic variables involved, we obtain an agent that makes hourly decisions based on the state of the system, namely the state of charge of the battery, the time of day and the forecasted wind and demand. We train the controller with real data of three winters, and obtain a policy that operates the system with good performance, charging the battery —even at expenses of fuel generation— when generation is cheap and renewable energies abundant, and turning that surplus back to the grid when demand peaks.
Las tecnologías de almacenamiento energético son un componente fundamental de los sistemas eléctricos de potencia. Entre ellas se comprenden los sistemas lentos, de alta capacidad (como las represas hidroeléctricas), hasta los rápidos, de menor capacidad y con alta rampa de carga (tales como las baterías). Esta tesis versa sobre la optimización de la operación de estos sistemas desde una perspectiva amplia, abocándonos a los sistemas de gran y pequeño porte. Operar una red eléctrica con almacenamiento es una tarea compleja, en el sentido que i) existe incertidumbre inherente al problema debido a las variables estocásticas involucradas (como la demanda y la energía renovable disponible), y ii) la dinámica del almacenamiento acopla las decisiones en el tiempo, implicando que las acciones deben ser tomadas con respecto a algún objetivo global. En concordancia con esto, formulamos el problema de despacho óptimo en el marco de la programación dinámica en varias etapas, sujeto a variadas restricciones de control y estado. Estudiamos ambos escenarios y consideramos su aplicación en el sistema eléctrico uruguayo. Para el caso de las represas, modelamos las funciones de valor del problema como cuadráticas convexas en el nivel de los embalses. Esto da lugar a un algoritmo de programación dinámica aproximada, que en cada etapa toma muestras de parejas estado-costo y ajusta las cuadráticas de manera recursiva. Implementamos este algoritmo de manera eficiente usando solvers de optimización modernos, y nuestros resultados muestran que la política de control aprendida supera en desempeño a una política miope. Asimismo consideramos la operación de un banco de baterías en un modelo uninodal de la red uruguaya. El controlador se aprende a partir de Q-learning, uno de los algoritmos más conocidos del campo de Reinforcement Learning. Este controlador aprende a tomar decisiones de forma horaria, sin información previa de la dinámica de transición del sistema o de la estadística de las variables aleatorias involucradas, teniendo acceso únicamente al estado del sistema, a saber, el estado de carga de la batería, la hora del día y el pronóstico de demanda y energía renovable para la hora siguiente. Entrenamos a este controlador usando datos reales de tres inviernos uruguayos, y obtenemos una política que opera al sistema con buen desempeño, cargando la batería -incluso a expensas de generación térmica- cuando el costo de generación es barato y la energía renovable abundante, y que vuelca este excedente a la red cuando la demanda es alta.
dc.format.extent.es.fl_str_mv 62 p.
dc.format.mimetype.es.fl_str_mv application/pdf
dc.identifier.citation.es.fl_str_mv Castellano, A. Optimización del almacenamiento de energía en redes eléctricas [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2021.
dc.identifier.issn.none.fl_str_mv 1688-2806
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12008/30024
dc.language.iso.none.fl_str_mv es
spa
dc.publisher.es.fl_str_mv Udelar.FI.
dc.rights.license.none.fl_str_mv Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:COLIBRI
instname:Universidad de la República
instacron:Universidad de la República
dc.subject.es.fl_str_mv Redes eléctricas
Optimización
Programación dinámica
Aprendizaje por refuerzo
dc.title.none.fl_str_mv Optimización del almacenamiento de energía en redes eléctricas
dc.type.es.fl_str_mv Tesis de maestría
dc.type.none.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
description Storage technologies are a fundamental component of electric power systems, ranging from slow, high capacity systems (such as hydro reservoirs) to fast, high ramping, low capacity systems (such as utility-scale batteries). In this thesis we deal with optimizing the operation of energy storage systems from a broad perspective, focusing on both the large- and low-scale systems. Operating a grid with storage is a difficult task, in the sense that i) there is inherent uncertainty from the stochastic variables involved (such as the demand and renewable energy available), and ii) storage dynamics couple decisions across time, implying that actions must be taken with respect to some global goal. Accordingly, we formulate the optimal dispatch problem as a multi-stage dynamic programming problem, subject to various control and state constraints. We study both these cases and consider their applications on the Uruguayan grid. In the case of hydro-reservoirs, we model the cost-to-go functions as convexquadratic in the reservoirs. This leads to an approximate dynamic programming algorithm which at each stage samples state-cost pairs and fits convex-quadratic functions in a recursive manner. We implement this efficiently via modern optimization solvers, and our results show that the control policy learned in this fashion exceeds the performance of a naïve myopic policy. We also consider the operation of a bulk battery storage system in a single-bus model of the Uruguayan grid. In this regard, we consider learning the controller via Q-learning, the quintessential algorithm in the field of Reinforcement Learning. With no prior information on the transition model and on the stochastic variables involved, we obtain an agent that makes hourly decisions based on the state of the system, namely the state of charge of the battery, the time of day and the forecasted wind and demand. We train the controller with real data of three winters, and obtain a policy that operates the system with good performance, charging the battery —even at expenses of fuel generation— when generation is cheap and renewable energies abundant, and turning that surplus back to the grid when demand peaks.
eu_rights_str_mv openAccess
format masterThesis
id COLIBRI_a792d4916f4fe1f44a4ec0e59e7b568f
identifier_str_mv Castellano, A. Optimización del almacenamiento de energía en redes eléctricas [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2021.
1688-2806
instacron_str Universidad de la República
institution Universidad de la República
instname_str Universidad de la República
language spa
language_invalid_str_mv es
network_acronym_str COLIBRI
network_name_str COLIBRI
oai_identifier_str oai:colibri.udelar.edu.uy:20.500.12008/30024
publishDate 2021
reponame_str COLIBRI
repository.mail.fl_str_mv mabel.seroubian@seciu.edu.uy
repository.name.fl_str_mv COLIBRI - Universidad de la República
repository_id_str 4771
rights_invalid_str_mv Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
spelling Castellano Agustin, Universidad de la República (Uruguay). Facultad de Ingeniería.2021-11-01T17:49:36Z2021-11-01T17:49:36Z2021Castellano, A. Optimización del almacenamiento de energía en redes eléctricas [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2021.1688-2806https://hdl.handle.net/20.500.12008/30024Storage technologies are a fundamental component of electric power systems, ranging from slow, high capacity systems (such as hydro reservoirs) to fast, high ramping, low capacity systems (such as utility-scale batteries). In this thesis we deal with optimizing the operation of energy storage systems from a broad perspective, focusing on both the large- and low-scale systems. Operating a grid with storage is a difficult task, in the sense that i) there is inherent uncertainty from the stochastic variables involved (such as the demand and renewable energy available), and ii) storage dynamics couple decisions across time, implying that actions must be taken with respect to some global goal. Accordingly, we formulate the optimal dispatch problem as a multi-stage dynamic programming problem, subject to various control and state constraints. We study both these cases and consider their applications on the Uruguayan grid. In the case of hydro-reservoirs, we model the cost-to-go functions as convexquadratic in the reservoirs. This leads to an approximate dynamic programming algorithm which at each stage samples state-cost pairs and fits convex-quadratic functions in a recursive manner. We implement this efficiently via modern optimization solvers, and our results show that the control policy learned in this fashion exceeds the performance of a naïve myopic policy. We also consider the operation of a bulk battery storage system in a single-bus model of the Uruguayan grid. In this regard, we consider learning the controller via Q-learning, the quintessential algorithm in the field of Reinforcement Learning. With no prior information on the transition model and on the stochastic variables involved, we obtain an agent that makes hourly decisions based on the state of the system, namely the state of charge of the battery, the time of day and the forecasted wind and demand. We train the controller with real data of three winters, and obtain a policy that operates the system with good performance, charging the battery —even at expenses of fuel generation— when generation is cheap and renewable energies abundant, and turning that surplus back to the grid when demand peaks.Las tecnologías de almacenamiento energético son un componente fundamental de los sistemas eléctricos de potencia. Entre ellas se comprenden los sistemas lentos, de alta capacidad (como las represas hidroeléctricas), hasta los rápidos, de menor capacidad y con alta rampa de carga (tales como las baterías). Esta tesis versa sobre la optimización de la operación de estos sistemas desde una perspectiva amplia, abocándonos a los sistemas de gran y pequeño porte. Operar una red eléctrica con almacenamiento es una tarea compleja, en el sentido que i) existe incertidumbre inherente al problema debido a las variables estocásticas involucradas (como la demanda y la energía renovable disponible), y ii) la dinámica del almacenamiento acopla las decisiones en el tiempo, implicando que las acciones deben ser tomadas con respecto a algún objetivo global. En concordancia con esto, formulamos el problema de despacho óptimo en el marco de la programación dinámica en varias etapas, sujeto a variadas restricciones de control y estado. Estudiamos ambos escenarios y consideramos su aplicación en el sistema eléctrico uruguayo. Para el caso de las represas, modelamos las funciones de valor del problema como cuadráticas convexas en el nivel de los embalses. Esto da lugar a un algoritmo de programación dinámica aproximada, que en cada etapa toma muestras de parejas estado-costo y ajusta las cuadráticas de manera recursiva. Implementamos este algoritmo de manera eficiente usando solvers de optimización modernos, y nuestros resultados muestran que la política de control aprendida supera en desempeño a una política miope. Asimismo consideramos la operación de un banco de baterías en un modelo uninodal de la red uruguaya. El controlador se aprende a partir de Q-learning, uno de los algoritmos más conocidos del campo de Reinforcement Learning. Este controlador aprende a tomar decisiones de forma horaria, sin información previa de la dinámica de transición del sistema o de la estadística de las variables aleatorias involucradas, teniendo acceso únicamente al estado del sistema, a saber, el estado de carga de la batería, la hora del día y el pronóstico de demanda y energía renovable para la hora siguiente. Entrenamos a este controlador usando datos reales de tres inviernos uruguayos, y obtenemos una política que opera al sistema con buen desempeño, cargando la batería -incluso a expensas de generación térmica- cuando el costo de generación es barato y la energía renovable abundante, y que vuelca este excedente a la red cuando la demanda es alta.Submitted by Ribeiro Jorge (jribeiro@fing.edu.uy) on 2021-10-29T22:23:06Z No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) Cas21a.pdf: 2369326 bytes, checksum: 08491beb581acb6fd173c3a45724743f (MD5)Approved for entry into archive by Machado Jimena (jmachado@fing.edu.uy) on 2021-11-01T17:47:47Z (GMT) No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) Cas21a.pdf: 2369326 bytes, checksum: 08491beb581acb6fd173c3a45724743f (MD5)Made available in DSpace by Luna Fabiana (fabiana.luna@seciu.edu.uy) on 2021-11-01T17:49:36Z (GMT). No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) Cas21a.pdf: 2369326 bytes, checksum: 08491beb581acb6fd173c3a45724743f (MD5) Previous issue date: 202162 p.application/pdfesspaUdelar.FI.Las obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)Redes eléctricasOptimizaciónProgramación dinámicaAprendizaje por refuerzoOptimización del almacenamiento de energía en redes eléctricasTesis de maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaCastellano, AgustinBazerque, Juan AndrésUniversidad de la República (Uruguay). Facultad de IngenieríaMagíster en Ingeniería (Ingeniería Eléctrica)LICENSElicense.txtlicense.txttext/plain; charset=utf-84267http://localhost:8080/xmlui/bitstream/20.500.12008/30024/5/license.txt6429389a7df7277b72b7924fdc7d47a9MD55CC-LICENSElicense_urllicense_urltext/plain; charset=utf-850http://localhost:8080/xmlui/bitstream/20.500.12008/30024/2/license_urla006180e3f5b2ad0b88185d14284c0e0MD52license_textlicense_texttext/html; charset=utf-838616http://localhost:8080/xmlui/bitstream/20.500.12008/30024/3/license_text36c32e9c6da50e6d55578c16944ef7f6MD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-823149http://localhost:8080/xmlui/bitstream/20.500.12008/30024/4/license_rdf1996b8461bc290aef6a27d78c67b6b52MD54ORIGINALCas21a.pdfCas21a.pdfapplication/pdf2369326http://localhost:8080/xmlui/bitstream/20.500.12008/30024/1/Cas21a.pdf08491beb581acb6fd173c3a45724743fMD5120.500.12008/300242021-11-01 14:49:36.413oai:colibri.udelar.edu.uy:20.500.12008/30024VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDDumJsaWNhLiAoUmVzLiBOwrogOTEgZGUgQy5ELkMuIGRlIDgvSUlJLzE5OTQg4oCTIEQuTy4gNy9JVi8xOTk0KSB5ICBwb3IgbGEgT3JkZW5hbnphIGRlbCBSZXBvc2l0b3JpbyBBYmllcnRvIGRlIGxhIFVuaXZlcnNpZGFkIGRlIGxhIFJlcMO6YmxpY2EgKFJlcy4gTsK6IDE2IGRlIEMuRC5DLiBkZSAwNy8xMC8yMDE0KS4gCgpBY2VwdGFuZG8gZWwgYXV0b3IgZXN0b3MgdMOpcm1pbm9zIHkgY29uZGljaW9uZXMgZGUgZGVww7NzaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcMO6YmxpY2EgcHJvY2VkZXLDoSBhOiAgCgphKSBhcmNoaXZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nDs24KYikgY29udmVydGlyIGxhIG9icmEgYSBvdHJvcyBmb3JtYXRvcyBzaSBmdWVyYSBuZWNlc2FyaW8gIHBhcmEgZmFjaWxpdGFyIHN1IHByZXNlcnZhY2nDs24geSBhY2Nlc2liaWxpZGFkIHNpbiBhbHRlcmFyIHN1IGNvbnRlbmlkby4KYykgcmVhbGl6YXIgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGRpc3BvbmVyIGVsIGFjY2VzbyBsaWJyZSB5IGdyYXR1aXRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCBtZWRpYW50ZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcsOhIHNvbGljaXRhciB1biBwZXLDrW9kbyBkZSBlbWJhcmdvIHNvYnJlIGxhIGRpc3BvbmliaWxpZGFkIHDDumJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFyw6EgYSBwYXJ0aXIgZGUgbGEgYWNlcHRhY2nDs24gZGUgZXN0ZSBkb2N1bWVudG8geSBoYXN0YSBsYSBmZWNoYSBxdWUgaW5kaXF1ZSAuCgpFbCBhdXRvciBhc2VndXJhIHF1ZSBsYSBvYnJhIG5vIGluZnJpZ2UgbmluZ8O6biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIHkgcmVjb25vY2lkbyBlbiBlbCB0ZXh0byBvIGNvbnRlbmlkbyBkZWwgZG9jdW1lbnRvIGRlcG9zaXRhZG8gZW4gZWwgUmVwb3NpdG9yaW8uCgpFbiBvYnJhcyBkZSBhdXRvcsOtYSBtw7psdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDDqXN0ZSBlbCDDum5pY28gcmVzcG9uc2FibGUgZnJlbnRlIGEgY3VhbHF1aWVyIHRpcG8gZGUgcmVjbGFtYWNpw7NuIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLDoSByZXNwb25zYWJsZSBkZWwgY29udGVuaWRvIGRlIGxvcyBkb2N1bWVudG9zIHF1ZSBkZXBvc2l0YS4gTGEgVURFTEFSIG5vIHNlcsOhIHJlc3BvbnNhYmxlIHBvciBsYXMgZXZlbnR1YWxlcyB2aW9sYWNpb25lcyBhbCBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBlbiBxdWUgcHVlZGEgaW5jdXJyaXIgZWwgYXV0b3IuCgpBbnRlIGN1YWxxdWllciBkZW51bmNpYSBkZSB2aW9sYWNpw7NuIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFyw6EgdG9kYXMgbGFzIG1lZGlkYXMgbmVjZXNhcmlhcyBwYXJhIGV2aXRhciBsYSBjb250aW51YWNpw7NuIGRlIGRpY2hhIGluZnJhY2Npw7NuLCBsYXMgcXVlIHBvZHLDoW4gaW5jbHVpciBlbCByZXRpcm8gZGVsIGFjY2VzbyBhIGxvcyBjb250ZW5pZG9zIHkvbyBtZXRhZGF0b3MgZGVsIGRvY3VtZW50byByZXNwZWN0aXZvLgoKTGEgb2JyYSBzZSBwb25kcsOhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBhIHRyYXbDqXMgZGUgbGFzIGxpY2VuY2lhcyBDcmVhdGl2ZSBDb21tb25zLCBlbCBhdXRvciBwb2Ryw6Egc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjacOzbiAoQ0MgLSBCeSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBzaWVtcHJlIHF1ZSBzZSByZWNvbm96Y2EgYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgQ29tcGFydGlyIElndWFsIChDQyAtIEJ5LVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgaW5jbHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIHBlcm8gbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIChDQyAtIEJ5LU5DKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzLCByZWNvbm9jaWVuZG8gYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNpw7NuIOKAkyBObyBDb21lcmNpYWwg4oCTIENvbXBhcnRpciBJZ3VhbCAoQ0Mg4oCTIEJ5LU5DLVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzIHkgbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIHNlIGhhZ2EgbWVkaWFudGUgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIOKAkyBTaW4gRGVyaXZhZGFzIChDQyAtIEJ5LU5DLU5EKTogUGVybWl0ZSB1c2FyIGxhIG9icmEsIHBlcm8gbm8gc2UgcGVybWl0ZSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcyB5IG5vIHNlIHBlcm1pdGUgdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgZGViaWVuZG8gcmVjb25vY2VyIGFsIGF1dG9yLgoKTG9zIHVzb3MgcHJldmlzdG9zIGVuIGxhcyBsaWNlbmNpYXMgaW5jbHV5ZW4gbGEgZW5hamVuYWNpw7NuLCByZXByb2R1Y2Npw7NuLCBjb211bmljYWNpw7NuLCBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24geSBwdWVzdGEgYSBkaXNwb3NpY2nDs24gZGVsIHDDumJsaWNvLiBMYSBjcmVhY2nDs24gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nDs24sIHRyYWR1Y2Npw7NuIHkgZWwgcmVtaXguCgpDdWFuZG8gc2Ugc2VsZWNjaW9uZSB1bmEgbGljZW5jaWEgcXVlIGhhYmlsaXRlIHVzb3MgY29tZXJjaWFsZXMsIGVsIGRlcMOzc2l0byBkZWJlcsOhIHNlciBhY29tcGHDsWFkbyBkZWwgYXZhbCBkZWwgamVyYXJjYSBtw6F4aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCg==Universidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-07-25T14:44:18.052656COLIBRI - Universidad de la Repúblicafalse
spellingShingle Optimización del almacenamiento de energía en redes eléctricas
Castellano, Agustin
Redes eléctricas
Optimización
Programación dinámica
Aprendizaje por refuerzo
status_str acceptedVersion
title Optimización del almacenamiento de energía en redes eléctricas
title_full Optimización del almacenamiento de energía en redes eléctricas
title_fullStr Optimización del almacenamiento de energía en redes eléctricas
title_full_unstemmed Optimización del almacenamiento de energía en redes eléctricas
title_short Optimización del almacenamiento de energía en redes eléctricas
title_sort Optimización del almacenamiento de energía en redes eléctricas
topic Redes eléctricas
Optimización
Programación dinámica
Aprendizaje por refuerzo
url https://hdl.handle.net/20.500.12008/30024