Trasvase Chongón – San Vicente

Anuncios

Gasoducto Monteverde – El Chorrillo

Ecuador inició desde este jueves una nueva era en la gestión de combustibles con la inauguración del denominado megaproyecto Monteverde-El Chorrillo, que garantiza el almacenamiento de hasta por 25 días de gas licuado de petróleo (GLP) para el país.

“Esto más que una obra es el renacer energético de Ecuador”, manifestó el presidente Rafael Correa durante la ceremonia de inauguración de esta imponente obra, acto en el que participó, simultáneamente, el segundo mandatario, Jorge Glas, quien estuvo presente en la planta El Chorrillo, en la ciudad portuaria de Guayaquil para constatar la llegada del primer envío de GLP.

Esta obra, que requirió de una inversión de más de 600 millones de dólares, tiene tres grandes componentes que son terminal marítimo de Monteverde (provincia de Santa Elena); gasoducto, de 124 kilómetros de extensión y 12 pulgadas de diámetro; y terminal de almacenamiento y distribución de El Chorrillo (Guayas).

El muelle de Monteverde tiene 1,3 kilómetros de extensión y 23 metros de calado, que lo convierten en uno de los principales del mundo.

“Con esta megaobra estamos ahorrando 40 millones de dólares anuales al país por alquiler de la flota de embarcaciones donde antes se almacenaba el gas”, expresó el Jefe de Estado, al reiterar que esta obra tuvo que esperar 30 años en realizarse, no por falta de ejecutividad, sino por los intereses creados alrededor del negocio del gas.

“Fueron tres décadas de un negocio donde habían altas dosis de corruptelas. Vayan y averigüen a quiénes estaba vinculado el negocio del gas, a las mismas oligarquías de siempre”, cuestionó el Mandatario, quien recorrió por aire y tierra durante una hora la terminal de Monteverde.

Este componente del proyecto cuenta con una planta de almacenamiento (refrigerado y presurizado) de hasta 61.000 toneladas métricas de GLP y de un muelle de 1,3 kilómetros y que por su calado (23 metros) se convierte en el más grande de Latinoamérica y uno de los más importantes del mundo.

El vicepresidente Glas anunció que este muelle, que puede recibir buques de hasta 75.000 toneladas, posteriormente será parte del proyecto Refinería del Pacífico, que se construye en Jaramijó (Manabí), donde se aspira a exportar derivados del petróleo.

La planta El Chorrillo, ubicada en las afueras de Guayaquil, tendrá 16 tanques para almacenar 15.000 TM de GLP y carruseles para envasar 62.000 cilindros de 15 kilos al día, a diferencia del sistema anterior que solo permitía 2.500 bombonas al día.

Desarrollo de comunas

Jorge Palma, presidente de la comuna Monteverde, ubicada a 120 kilómetros al oeste de Guayaquil, manifestó que esta obra permitió generar trabajo en esta pequeña localidad donde sus pobladores en gran parte se dedican a la pesca.

El dirigente mencionó que se ha mejorado la escuela de la comuna y se construye un dispensario médico para los habitantes. “Esta gran obra va a servir para el desarrollo de Monteverde y del país”, reflexionó.

Carlos Parrales, presidente de la comuna El Palmar, se mostró satisfecho con esta obra del Gobierno Nacional porque beneficiará no solo a Monteverde sino a otras comunas cercanas, que por décadas han estado olvidadas tanto por las autoridades seccionales como del gobierno central.

Este nuevo proyecto permitirá atender el 60% de la demanda nacional de GLP y abastecerá principalmente a la zona centro y sur del país.

“Hay otros que solo lanzan piedras y no lanzan ni una sola idea”, puntualizó el Presidente al referirse a sectores políticos que se oponen a la utilización responsable de recursos naturales para superar el desarrollo de esta nación suramericana.

Luego de esta inauguración, Correa acompañado de su equipo de ministros se dirigieron a la comuna Anconcito, en la misma provincia de Santa Elena, donde inauguró el nuevo puerto pesquero artesanal de esta localidad, el primero de un total de 27 que se preveen para localidades costeras de Ecuador, que tendrán todo tipo de servicios y de gestión para la comercialización de productos del mar.

Fuente :

http://www.andes.info.ec/es/noticias/ecuador-marca-nueva-era-energetica-obra-monteverde-chorrillo-almacenamiento-distribucion

Proyecto Hidroeléctrico Coca Codo Sinclair

Captura de pantalla 2014-06-06 a la(s) 4.57.56 AM

ANTECEDENTES DEL PROYECTO

El Estado Ecuatoriano, a través del desaparecido Instituto Ecuatoriano de Electrificación –INECEL-, durante los años setenta y ochenta estudió, el enorme potencial hidroeléctrico existente en el Ecuador y las excelentes características hidroeléctricas de la cuenca del Río Napo, especialmente de su tributario, el Río Coca.

Se formuló en ese entonces, el inventario energético de la cuenca de los Ríos Quijos y Coca, desde sus orígenes hasta el denominado Codo Sinclair, definiendo al aprovechamiento hidroeléctrico “Coca Codo Sinclair” como el proyecto hidroeléctrico más atractivo de esta cuenca y uno de los mayores proyectos de generación eléctrica con los que contaría el Ecuador.

Con el propósito de definir la mejor alternativa y la capacidad total del aprovechamiento Coca Codo Sinclair, el INECEL contrató los Estudios de Factibilidad, con el Consorcio de firmas consultoras: ELECTROCONSULT y RODIO de Italia, TRACTIONEL de Bélgica y las Ecuatorianas ASTEC, INGECONSULT y CAMINOS Y CANALES, quedando definido el desarrollo del proyecto en dos etapas continuas, con capacidades de 432 y 427 MW, respectivamente, lo que sumaba 859 MW, según el estudio concluido en 1992.

El CONELEC consideró que si bien el proyecto, concebido inicialmente con una capacidad de 859 MW, permite el desarrollo del sector eléctrico, el incremento de la demanda y el alto costo de la generación actual, exige el desarrollo de un proyecto de mayor magnitud y capacidad de generación.

En 2008, se actualizaron los estudios que avalan la factibilidad técnica para una capacidad de 1500 MW basado en el caudal de agua disponible.

Este proyecto está considerado como prioritario y de alto interés nacional, con el objeto de cubrir en forma adecuada la demanda de potencia y energía en los próximos años, e incluso tener la posibilidad de exportar energía a los países vecinos.

El área hidrológica aportante del proyecto está constituida por la cuenca del Río Coca hasta el sitio Salado (sitio de presa), que cubre una superficie de 3 600 km2. La cuenca está bordeada por la Cordillera Central con elevaciones como el Cayambe, el Antisana y otras menores.

El caudal promedio del Río Coca en el sitio Salado (sitio de ubicación de las obras de captación) es de 292 m3/s, lo que corresponde a una contribución específica superior a 80 l/s/km2. El caudal diario con una garantía del 90% del tiempo es de 127 m3/s.
El Proyecto Coca Codo Sinclair de 1500 MW, es un proyecto ecológicamente limpio, con muy pocos efectos negativos sobre el ambiente; entre éstos se mencionan únicamente la posible penetración de colonos debido a la apertura de caminos de acceso a un área poco poblada, y la reducción de caudales en la cascada de San Rafael.

El área del proyecto incluye un centro eruptivo activo, el volcán El Reventador que se levanta sobre la orilla izquierda del valle del Coca, entre los valles del Salado y del Dué; el Río Malo forma el drenaje sur del volcán.

Con relación al proyecto contemplado en los estudios de factibilidad (1992), se pueden indicar que las obras de captación son las mismas que para el proyecto original; se instalarán 6 desarenadores en una sola etapa, el sistema de conducción varía de 2 túneles de 4.75 m. a un solo túnel de 8m de diámetro interno. Se mantiene el embalse compensador con una capacidad de almacenamiento mayor (800.000 m3). El diámetro de las tuberías de presión aumenta de 2×4.60 m. a 2×5.80; se construye la casa de máquinas con tres bloques: en el primero se alojan la mitad de las unidades turbogeneradoras ; el siguiente para área de montaje y servicios auxiliares y el tercero para alojar la otra mitad de las unidades turbogeneradoras.

RESUMEN DE ESTUDIOS

El estudio del aprovechamiento del potencia hidroeléctrico del río Coca a nivel de factibilidad se llevó adelante en dos fases:

Fase A, de Selección de Alternativa, desde febrero de 1986 hasta mayo de 1988.

Fase B, de Optimización y Factibilidad de la Alternativa Seleccionada, desde abril de 1990 hasta junio de 1992.

Desde el año 2009 se realizaron los siguientes estudios e investigaciones de campo, indispensables para la construcción del proyecto:

• Análisis de Sensibilidad de la Potencia instalada

• Estudio de Factibilidad para 1.500 MW

• Estudios de Topografía e Hidrología de en Detalle

• Estudios definitivos de Impacto Ambiental

• Investigación de campo: sondeos, galerías.

Con base en estos estudios, el proyecto ha obtenido las concesiones y licencias de los órganos gubernamentales responsables:

• Licencias Ambientales

• Licencias de Aprovechamiento Forestal Especial

• Concesiones Mineras de libre aprovechamiento de material para construcción

• Para el rescate arqueológico de la vía a Casa de Máquinas

La solución escogida para el desarrollo del Proyecto Coca Codo Sinclair consiste en un aprovechamiento a filo de agua con captación de un caudal de 222 m3/s en el sitio de El Salado y restituciǿn en el Codo Sinclair, con una caída bruta de unos 620 metros.

El aprovechamiento está previsto desarrollarse en una única etapa con una potencia nominal de 1.500 MW.

BENEFICIOS DEL PROYECTO

Reduce en forma muy significativa la utilización de combustibles y por tanto el subsidio del Estado para los generadores térmicos, así como las importaciones de diesel y nafta para producción de energía eléctrica.

Para el año 2013, el Proyecto de 1.500 MW, representaría el 44% y 62 % de la demanda de potencia y energía respectivamente, afirmando la generación y reduciendo la posibilidad de desabastecimiento eléctrico.

Al incrementar la oferta de generación, el país reduce la dependencia externa, alcanzando la autonomía en el servicio público de electricidad y podrá exportar energía eléctrica a Colombia y Perú, eventualmente mejorando por tanto la balanza comercial con esos países.

Contribuye en forma significativa a la reducción de emisiones de carbono no solo por la producción de energía hidroeléctrica, sino por la posibilidad de incorporar el consumo de esa energía para usos domésticos como cocción de alimentos, calentamiento de agua y en el transporte, que actualmente utilizan combustibles derivados del petróleo.

Durante la etapa de construcción se crearían unos 3.000 puestos directos de trabajo y 15.000 plazas de trabajo indirecto.

OBRA DE CAPTACION

Consiste en un Azud que represa el agua del río y eleva su nivel. De esta manera el agua ingresa al desarenador donde se decantan todas las partículas hasta el tamaño de 0.25 mm, una vez limpia, el agua es transferida hacia el túnel de conducción.

Construida por: presa de enrocado con pantalla de hormigón: vertedero de hormigón (longitud neta 160 m), desarenador, compuertas de limpieza y conexión al túnel.

Obra de Captación  Obra de Captación  Obra de Captación  Obra de Captación

TUNEL DE CONDUCCION

Con una longitud de 24.8 Km, un diámetro de excavación de 9,10 m y un diámetro interno de 8,20 m revestido de hormigón. Conduce el agua captada hacia el Embalse Compensador.

Túnel de Conducción  Dovelas para la fabricación del Túnel de Conducción  Trabajadores del Túnel de Conducción

EMBALSE COMPENSADOR

Conformado por una presa de enrocado con una pantalla de homigón de 58 m de altura, vertedero de excesos, estructura de toma para las Tuberías de Presión. Tiene una capacidad de 800.000 m3,  se llena durante el día y el agua se utiliza por la tarde en las horas de mayor consumo.

Embalse Compensador  Embalse Compensador  Embalse Compensador  Embalse Compensador

TUBERIA DE PRESION

Son dos conductos a presión de hormigón que van desde el Embalse Compensador hasta la Casa de Máquina, con un diámetro de 5,80 m y longitudes de 1.469 m y 1462 m. Lleva además un revestimiento de acero en su tramo final, cuyo diámetro de 5,20 m y longitud aproximada de 400 m, en cada una.

Tubería de Presión  Tubería de Presión en construcción  Tubería de Presión en costrucción  Fábrica de Tubería de Presión

CASA DE MAQUINAS

Es una obra completamente subterránea, ubicada aproximadamente a 500 m dentro de la montaña y tiene dos cavernas:

• La Caverna de generadores, con 26 m de ancho x 46,8 m de altura x 212 m de longitud. Desde el Embalse Compensador, el agua es conducida mediante dos Tuberías de Presión hasta la Casa de Máquinas donde cada una de ellas se divide en cuatro ramas que se conectan  a las Ocho Turbinas Pelton, haciendo girar el generador de 187,5 MW cada uno para producir una potencia total de 1.500 MW.

• La Caverna de Transformadores, excavada en roca de 19 m x 33,20 m x 198 m para instalación de 25 transformadores monofásicos de 68.3MVA cada uno (uno de reserva).

Mientras la energía es enviada hasta los transformadores, el agua turbinada retorna de nuevo al Río Coca.

Caverna de Generadores  Unidades o Caracoles para los Generadores  Playa de Montaje  Caverna de Transformadores

Fuente:

http://www.cocacodosinclair.gob.ec/

http://www.energia.gob.ec/coca-codo-sinclair/

De la electrónica a la fotónica

A pesar de que el mundo de la ciencia ficción nos ha presentado un escenario lejano en el que nuestros ordenadores y todo tipo de dispositivos que utilizamos a diario funcionan a la velocidad de la luz, lo cierto es que el futuro de la informática -y no precisamente uno muy distante- pasa por decirle adiós a la electrónica tal y como la conocemos y darle la bienvenida a la fotónica.

La fotónica parte de una base tan sencilla como innovadora: cambiar los electrones por los fotones. Nuestros dispositivos deben pasar de utilizar señales eléctricas a que sus microprocesadores funcionen con luz. Esto que a priori podría parecernos un simple cambio, representa toda una revolución tecnológica que cambiará la forma en la que hacemos uso de la tecnología a todos los niveles. El cambio de los electrones a los fotones permitirá que ordenadores, tabletas, móviles… puedan funcionar millones de veces más rápido que actualmente ya que se mejorarían las velocidades de cálculo y del transporte de datos. Y es que los fotones pueden transmitir, manipular y almacenar información de una forma mucho más eficiente que los electrones.

Pero, ¿cómo avanzar en este cambio? Ha llovido mucho desde que en 1948 fuera inventado el primer transistor. Antes de que modifiquemos por completo toda la tecnología a nuestro alrededor y utilicemos directamente chips fotónicos de silicio, necesitamos adaptar los dispositivos actuales para que encajen con la transmisión de la información a través de la luz. Como se suele decir, para no empezar la casa por el tejado y hacer esta tecnología más asumible para la sociedad en general. En ese paso, un equipo de ingenieros de la Universidad estadounidense de Utah ha dado un salto de gigante con la construcción de un microdivisor de haz encargado de separar las ondas de luz en dos canales distintos de información. Ese divisor ultracompacto se coloca adherido a la parte superior de un chip de silicio, permitiendo que la luz se divida en esos dos elementos.

El tamaño de ese divisor equivale a una quinta parte del grosor de un cabello humano, por lo que podrían integrarse sin obstáculo alguno millones de divisores de haz de luz en un mismo chip. Los fotones de luz trasladarían los datos a través de internet por las redes de fibra óptica y este pequeño dispositivo obraría el milagro de la conversión en nuestros aparatos tecnológicos. No solo obtendríamos unos dispositivos que funcionarían a la velocidad de la luz gracias a los sistemas de comunicación por fibra óptica, sino que también se alargaría la vida de todos ellos ya que consumirían muchísima menos energía y, por ende, la batería nos duraría infinitamente más que en la actualidad; una queja que ya está siendo de lo más abundante y llamativa en nuestros días.

¿Para cuándo tendremos a mano esta tecnología? En un año en el que se cumple el 50 aniversario de la Ley de Moore y en el que celebramos el Año Internacional de la Luz, la fotónica parece guiñarle un ojo a una predicción -ya que en su sentido literal no es realmente una ley- que ha seguido estando vigente aún cincuenta años después. Si la fotónica sigue su curso, podríamos estar hablando de un derrocamiento en toda regla.

Desde hace años existen empresas (como IBM o Intel) volcadas en este futuro mercado que promete un rendimiento espectacular y sin precedentes. La compañía Optalysys es una de ellas. Su objetivo es presentar muy pronto un prototipo de ordenador a exaescala, esto es, una máquina capaz de alcanzar el Exaflops, o lo que es lo mismo, funcionar 50 veces más rápido que el superordenador Tianhe-2, (desarrollado por la Universidad Nacional de Tecnología de Defensa de China y la empresa china Inspur con un coste de alrededor de 228 millones de euros) y que ostenta el récord de ser el más rápido del mundo.

A todas luces parece una cifra exagerada, pero los avances actuales y la rotura de los límites tecnológicos nos hacen plantearnos la posibilidad de que un superordenador alcance el exaflop, quién sabe si de aquí a 2020.

¿Cuáles serían las características más destacadas de este próximo ordenador? Ante todo seguimos hablando de un consumo muy reducido de energía. Si tuviésemos que comparar el gasto energético de un superordenador como Tianhe-2 con un rendimiento de 33,86 petaflops al del ordenador de Optalysys, el resultado sería el siguiente: Tianhe-2 consume unos 19 millones de euros al año y el recién llegado apenas alcanzaría los 3.200 euros al año. Las cifras hablan por sí mismas.

Si solo habláramos de consumo energético aún podríamos pensar en la utilidad real de este avance. Pero aún hay más. Su rendimiento solo puede calificarse de espectacular. Para que nos hagamos una idea, podemos imaginarnos cientos de procesadores funcionando simultáneamente y a la velocidad de la luz. Rápido, ¿verdad?

Aunque aún nos quedan algunos años para caminar en la senda de la fotónica, ya podemos ir soñando con un futuro más rápido, marcado por una velocidad y un poder mayores en las máquinas, ya sean vehículos autónomos, satélites, superordenadores… y más a pie de calle, con una revolución en nuestros dispositivos personales, así como, por ejemplo, en la capacidad de un mercado que no para de evolucionar, como el del streaming de videojuegos o de los contenidos audiovisuales online en general

Fuente:

http://www.muyinteresante.es/innovacion/tecno/articulo/de-la-electronica-a-la-fotonica-951432896814

La búsqueda del bosón de Higgs

1. ¿Por qué es tan importante encontrar el bosón de Higgs?
Porque podría contener la respuesta a la siguiente cuestión: ¿cómo decide la naturaleza a qué partículas les asigna masa y a cuáles no? Todas las partículas elementales que forman la materia (seis leptones y seis quarks) tienen masa. Sin embargo otras como el fotón, responsable de la fuerza electromagnética, no tienen masa. La presencia o ausencia de masa podría venir dada por el bosón de Higgs, cuya existencia se propuso en los años sesenta. “Confirmar la existencia del bosón de Higgs en el modelo estándar supondría haber comprendido el mecanismo por el cual las partículas adquieren masa, un mecanismo que en su versión más simple predice la existencia de -al menos- un bosón que cuando interacciona con las otras partículas (quarks, leptones y otros bosones), hace que estas adquieran masa”, explica Teresa Rodrigo, investigadora del Instituto de Física de Cantabria que participa en los experimentos del CERN.

2. ¿Qué es el campo de Higgs?
Para explicar por qué unas partículas tienen masa y otras no, el físico británico Peter Higgs (y simultánea pero independientemente, también Francois Englert, Robert Brout, Gerald Guralnik, Dick Hagen y Tom Kibble) postuló en los años 60 del siglo XX un mecanismo que se conoce como el “campo de Higgs”. Al igual que el fotón es el componente fundamental de la luz, el campo de Higgs requiere la existencia de una partícula que lo componga, que los físicos llaman “bosón de Higgs”. El campo de Higgs sería una especie de continuo que se extiende por todo el espacio, formado por un incontable número de bosones de Higgs. La masa de las partículas estaría causada por una especie de “fricción” con el campo de Higgs, por lo que las partículas más ligeras se moverían por este campo fácilmente mientras que las más pesadas lo harán con mayor dificultad.

3. ¿Quién acuñó el nombre de “partícula de Dios”?
Fue el Premio Nobel de Fïsica Leon Lederman, en el libro “Si el universo es la respuesta, ¿cuál es la pregunta?”. Sin embargo muchos investigadores prefieren el apodo de “la partícula de la botella de champagne”, haciendo alusión a la anécdota según la cual el físico David J. Miller ganó en 1993 una botella de champagne ofrecida por el ministro de ciencia británicoWilliam Waldegrave, que la ofreció como “premio” a quien fuese capaz de explicarle que era el bosón de Higgs.

4. ¿Por qué se usa el LHC para buscar el bosón de Higgs?
La confirmación o refutación de la existencia del bosón de Higgs es uno de los objetivos del Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), el mayor y más potente acelerador de partículas del mundo que opera la Organización Europea para la Investigación Nuclear (CERN) en la frontera franco?suiza, cerca de Ginebra (Suiza). En el interior del anillo del acelerador del CERN colisionan protones entre sí a una velocidad cercana a la de la luz. Según los cálculos los bosones de Higgs deberían producirse en choques frontales entre protones de energías del orden de 20 TeV. Al fin y al cabo, cuanto mayor sea la energía de las partículas que chocan más masa tendrán las resultantes, según la famosa ecuación de Einstein E=mc2. No obstante, el bosón de Higgs no se puede detectar directamente, ya que una vez que se produce se desintegra casi instantáneamente dando lugar a otras partículas elementales más habituales (fotones, muones, electrones…) que sí son detectadas en el LHC.

5. ¿Por qué se habla de probabilidades en lugar de hablar de descubrimiento del bosón de Higgs? ¿Qué significan los “sigmas” de los que hablan los físicos?
El bosón de Higgs no puede observarse directamente porque su tiempo de vida es demasiado corto. Al final de su vida, decae y se transforma en otras partículas que son las que los detectores observan. Por ejemplo, en dos fotones. Pero otros muchos procesos también generan dos fotones, de modo que los científicos tienen que comparar el número de “eventos de dos-fotones” y compararlo con lo que se espera para una determinada partícula.
Para reclamar la paternidad de un descubrimiento, los físicos necesitan tener un exceso de colisiones significativas, lo que precisa de otra magnitud: la desviación estándar o el “número de sigmas”, que establece la significancia estadística de ese descubrimiento. Al hacer el anuncio sobre el bosón de Higgs, Fabiola Gianotti ha dicho: “Hemos observado señales claras de una nueva partícula en el nivel de cinco sigma en la región de la masa alrededor de 126 gigaelectronvoltios (GeV)?. El valor cinco sigma es el nivel mínimo aceptado por la comunidad científica para confirmar el descubrimiento de una partícula, e indica que la probabilidad de que lo que estemos viendo sea fruto del azar es más pequeña que unas pocas partes en diez millones (o que la confianza es del 99,99994%).

Experimento en ATLAS

El modelo estándar

Visto y no visto

Seminario en el CERN

Bosones Z

Peter Higgs

Fuente:

http://www.muyinteresante.es/ciencia/articulo/lo-que-necesitas-para-entender-el-boson-de-higgs-en-cinco-preguntas

EE. UU. intentó atacar sin éxito a Corea del Norte con una variante de Stuxnet

El ataque ocurrió hace cinco años atrás, y la idea era afectar el plan de armas nucleares de Corea del Norte.

Acorde a un reportaje de Reuters, el gobierno de Estados Unidos intentó sin éxito hace unos cinco años atrás atacar a los computadores del programa de armas nucleares de Corea del Nortecon una variante del peligroso virus Stuxnet, responsable de retrasar muchos años el programa nuclear de Irán al destruir más de mil máquinas centrífugas para enriquecer uranio.

La operación habría comenzado a la par con el famoso ataque al programa nuclear iraní en 2009 y 2010. Sin embargo, el ataque a Corea del Norte no tuvo éxito porque los hackers norteamericanos no lograron acceder a los principales computadores del programa de armas nucleares de Pionyang.

Tres fuentes anónimas de agentes de inteligencia estadounidenses confirmaron a Reuters por separado de este ataque. Por su parte, una vocera de la NSA no quiso realizar comentarios.

La variante de Stuxnet estaba configurada para activarse sólo cuando encuentre que el lenguaje de la configuración de un computador infectado estuviese en coreano, pero estiman que el ataque fracasó debido al férreo control que tiene el gobierno de Corea del Nortesobre el acceso a Internet en el país.

Fuente :

https://www.fayerwayer.com/2015/05/ee-uu-intento-atacar-sin-exito-a-corea-del-norte-con-una-variante-de-stuxnet/