Year 8 n°2 Summer 2011
Tecniche di modellazione
in Maxwell 14
ents coming
Two major ev t significant
mos
e
th
r
fo
er
th
toge
Calendar
e Italian CAE
occasion in th
MELiSSA PROJECT:
Plant Growing
Environment
Characterization
Tyre set-up for commercial vehicle
multi-body model: modeFRONTIER
as a calibration tool
EnginSoft Gained a
New Partner:
3
M E S.r.l.
Optimization Under Uncertainty
of Wind Turbines
Weather Forecasting
with Scilab
Ottimizzazione di ponti in curva
in struttura composta acciaio-calcestruzzo
Newsletter EnginSoft Year 8 n°2 -
3
EnginSoft Flash
What is or what does CAE mean today?
Where are we, the CAE Users, going?
You may think that questions like these
sound rather philosophical, and I agree
with you.
However, in our hectic professional lives
and fast changing “CAE environments”
these are the thoughts that hit many of us
at times, and they make us wonder:
and modeFRONTIER work together, efficiently
and successfully.
We hear more about Scilab, its solution for
the cutting stock problem, and how the
software can even contribute to the weather
forecast! The use of the Forge software at
FEAT Group and Gnutti Cirillo S.p.a. is
illustrated in our in-depth study and success
story.
What is the right approach in the mid to
long term, from a technological, a
business, a human point of view?
We inform our readers about EnginSoft’s role
in the MELiSSA Project, a development
program for an artificial ecosystem.
Moreover, we outline the successful
completion of the New Aero Engine Core
Concepts’ (NEWAC) Project which our CFD
Team was supporting heavily since 2005.
Ing. Stefano Odorizzi
Having seen the recent worldwide financial
EnginSoft CEO and President
crisis and changing public views, such as
the growing belief in our nature’s resources
and renewable energies, at EnginSoft, we believe that now
is the time to foster an even more holistic model for our
Our Corporate News report about the close collaboration of
University of Cranfield and EnginSoft UK and how both
customers: state-of-the-art technologies complemented
support, as key partners, the EPSRC Centre for Innovation
by a network of sound expertise, first-class support and
Manufacturing in Through-life Engineering Services. We
services along with a tailored training program.
hear about EnginSoft’s new partner M3E which stands for
In this light, EnginSoft and ANSYS Italy are proud to
“Mathematical Methods and Models for Engineering”. Our
welcome users of engineering analysis and simulation to
Book Review this time presents a recommendation by ATA
this year’s International Conference and ANSYS Italian
on Fiat and the technological innovation of the
Users’ Meeting. The events will provide a culmination of
automobile.
views, engineering expertise and experiences from which
everybody in the audience will benefit: user, developer,
Our Japan Column helps us to understand the people of
vendor, manager, engineer, scientist, researcher and
Tohoku and the beauty of their homeland.
student.
While we admire their unbeaten will and strength to
overcome the severe consequences of the recent natural
With this Summer Edition of the Newsletter, we would like
disasters, we know that they will succeed because they
to give our readers a foretaste of what the Conferences in
support each another, their land, their nation - their
Verona will cover, among many other topics and
values.
disciplines:
We close this Newsletter with the Event Calendar and the
Iveco, a global leader in commercial vehicles, presents
recent conference and fair highlights including the Paris
modeFRONTIER as a calibration tool while the University
Air Show, the Wind Turbine Technology Forum and the
of Nantes, France, reports on Genetic Algorithm
Transvalor Users’ Meeting in Cannes.
Optimization for Soil Parameter Identification. Standford
University and Università Federico II di Napoli explain the
Now, let us explore together how CAE and Virtual
important role of optimization in the design of Wind
Prototyping can be true assets for our businesses and
Turbines. Uniconfort produces plants for the energy
substantial successes in the future! Please refer to our
conversion of biomass, this Newsletter features their
Conference and Exhibitor Announcements on the following
applications with ANSYS CFX and ANSYS Mechanical. The
pages and register in time on www.caeconference.com
Università degli Studi di Trieste tell us about their
optimization work for reinforced concrete.
The Editorial Team, EnginSoft and ANSYS Italy look
forward to welcoming you to Verona in beautiful Veneto
With our Software News we would like to provide an
this October!
update on ANSYS Maxwell 14, ANSYS Composite Pre-Post
v.13.0 and Flowmaster V7.8. Fabiano Maggio from
Stefano Odorizzi
EnginSoft Padova, demonstrates how ANSYS Workbench
Editor in chief
4 - Newsletter EnginSoft Year 8 n°2
Sommario - Contents
6
2011 EnginSoft International Conference: CAE TECHNOLOGIES FOR INDUSTRY
CASE STUDIES
8
11
14
18
22
26
Tyre set-up for commercial vehicle multi-body model: modeFRONTIER as a calibration tool
Genetic Algorithm Optimization for Soil Parameter Identification As Applied to a Spread Footing Test
Optimization Under Uncertainty of Wind Turbines
Ottimizzazione cinematica di una pressa meccanica link-drive con tecnologia ANSYS Workbench e
modeFRONTIER
Ottimizzazione di ponti in curva in struttura composta acciaio-calcestruzzo
Higher Energy Recovery and Longer Life for Heat Exchangers
SOFTWARE NEWS
29
31
34
ANSYS Composite Pre-Post v.13.0: lo stato dell’arte nella progettazione e nell’analisi delle strutture in materiale composito
Tecniche di modellazione in Maxwell 14
Flowmaster V7.8
RESEARCH & TECHNOLOGY TRANSFER
36
40
MELiSSA PROJECT: Plant Growing Environment Characterization
EnginSoft Successfully Finishes the NEWAC Project
IN DEPTH STUDIES
42
47
51
Optimization? Do It with Scilab!
Weather Forecasting with Scilab
Ottimizzare il processo per ottenere dei componenti stampati di elevata qualità: esperienze di simulazione di
stampaggio a caldo di acciaio con pressa o maglio
TESTIMONIAL
58
GNUTTI CIRILLO: Elevato standard qualitativo, orgogliosamente “Made in Italy”
JAPAN CAE COLUMN
59
Tohoku, the Beauty of Japan
The EnginSoft Newsletter editions contain references to the following
products which are trademarks or registered trademarks of their respective owners:
ANSYS, ANSYS Workbench, AUTODYN, CFX, FLUENT and any and all
ANSYS, Inc. brand, product, service and feature names, logos and slogans are
registered trademarks or trademarks of ANSYS, Inc. or its subsidiaries in the
United States or other countries. [ICEM CFD is a trademark used by ANSYS,
Inc. under license]. (www.ansys.com)
modeFRONTIER is a trademark of ESTECO srl (www.esteco.com)
Flowmaster is a registered trademark of The Flowmaster Group BV in the
USA and Korea. (www.flowmaster.com)
MAGMASOFT is a trademark of MAGMA GmbH. (www.magmasoft.de)
ESAComp is a trademark of Componeering Inc.
(www.componeering.com)
Forge and Coldform are trademarks of Transvalor S.A.
(www.transvalor.com)
AdvantEdge is a trademark of Third Wave Systems
(www.thirdwavesys.com)
.
LS-DYNA is a trademark of Livermore Software Technology Corporation.
(www.lstc.com)
SCULPTOR is a trademark of Optimal Solutions Software, LLC
(www.optimalsolutions.us)
Grapheur is a product of Reactive Search SrL, a partner of EnginSoft
(www.grapheur.com)
For more information, please contact the Editorial Team
Newsletter EnginSoft Year 8 n°2 -
Newsletter EnginSoft
Year 8 n°2 - Summer 2011
CORPORATE NEWS
61
62
EnginSoft UK Key Partners with Cranfield University
3
EnginSoft Gained a New Partner: M E S.r.l.,
BOOK REVIEWS
63
64
5
FIAT: Storie di Innovazione Tecnologica nelle Automobili
Nuove pubblicazioni di NAFEMS
To receive a free copy of the next EnginSoft
Newsletters, please contact our Marketing office at:
[email protected]
All pictures are protected by copyright. Any reproduction
of these pictures in any media and by any means is
forbidden unless written authorization by EnginSoft has
been obtained beforehand.
©Copyright EnginSoft Newsletter.
EVENTS
65
66
68
69
69
70
71
Advertisement
TechNet Alliance Spring Meeting 2011
La piattaforma SW Benimpact Suite di Enginsoft premiata
alla mostra-concorso Fare Green
EnginSoft France Presents Flowmaster V7.8 Aerospace
and modeFRONTIER V4.4 to the Aerospace Industries
Il “Forge Italian Team” è presente a Cannes per lo Users’
Meeting 2011 di Transvalor
Grande successo di WTT 2011
EnginSoft Event Calendar
12th International Summer School on Aluminum Alloy
Technology
For advertising opportunities, please contact our
Marketing office at: [email protected]
EnginSoft S.p.A.
24126 BERGAMO c/o Parco Scientifico Tecnologico
Kilometro Rosso - Edificio A1, Via Stezzano 87
Tel. +39 035 368711 • Fax +39 0461 979215
50127 FIRENZE Via Panciatichi, 40
Tel. +39 055 4376113 • Fax +39 0461 979216
35129 PADOVA Via Giambellino, 7
Tel. +39 49 7705311 • Fax 39 0461 979217
72023 MESAGNE (BRINDISI) Via A. Murri, 2 - Z.I.
Tel. +39 0831 730194 • Fax +39 0461 979224
38123 TRENTO fraz. Mattarello - Via della Stazione, 27
Tel. +39 0461 915391 • Fax +39 0461 979201
www.enginsoft.it - www.enginsoft.com
e-mail: [email protected]
COMPANY INTERESTS
CONSORZIO TCN
38123 TRENTO Via della Stazione, 27 - fraz. Mattarello
Tel. +39 0461 915391 • Fax +39 0461 979201
www.consorziotcn.it
EnginSoft GmbH - Germany
EnginSoft UK - United Kingdom
EnginSoft France - France
EnginSoft Nordic - Sweden
Aperio Tecnologia en Ingenieria - Spain
www.enginsoft.com
PAGE 14 OPTIMIZATION UNDER
UNCENRTAINTY OF WIND TURBINES
ASSOCIATION INTERESTS
NAFEMS International
www.nafems.it
www.nafems.org
TechNet Alliance
www.technet-alliance.com
RESPONSIBLE DIRECTOR
Stefano Odorizzi - [email protected]
PRINTING
Grafiche Dal Piaz - Trento
PAGE 47 WEATHER
FORECASTING WITH SCILAB
The EnginSoft NEWSLETTER is a quarterly
magazine published by EnginSoft SpA
Autorizzazione del Tribunale di Trento n° 1353 RS di data 2/4/2008
PAGE 8 TYRE SET-UP FOR COMMERCIAL
VEHICLE MULTI-BODY MODEL:
modeFRONTIER AS A CALIBRATION TOOL
ESTECO srl
34016 TRIESTE Area Science Park • Padriciano 99
Tel. +39 040 3755548 • Fax +39 040 3755549
www.esteco.com
EnginSoft International Conference 2011
CAE TECHNOLOGIES FOR INDUSTRY
AND ANSYS ITALIAN CONFERENCE
VERONA ‑ ITALY ‑ 20‑21 OCTOBER 2011
Register fast to take advantage of the Early-Bird rates!
www.caeconference.com
What is or what does CAE mean today? What is the impact of
Virtual Prototyping or the so-called “Engineering Simulation”
on today’s product development and manufacturing cycles?
Where are we, the CAE Users, going? What are the new
paradigms of the application environments? …and, above
all, is this a continuing evolution that answers the needs of
industry, and more generally speaking, the needs of an ever
changing economic and market environment? These
questions are debated at the Conference that EnginSoft is
organizing for 27 years, true to our values and tradition to
provide realistic and tangible insights into what the
evolution is about.
The software technologies we are discussing certainly play an
important role in the challenges you are facing to innovate
your business. But there is more than just technology to
consider: the enablers on the business front, e.g.
organizational, technological and human aspects that carry
these technologies to their very role for the success of your
business!
Are we dealing with “commodities” of the design process,
tools for which there is demand, but which are supplied
without any qualitative differentiation across their market?
Or: could these technologies become true “assets” and thus
give your business a competitive edge? What should be done
to reach this goal? How should corporations and employees
re-engineer themselves? What is the role of the technology
transfer operators in this context?
All this will be discussed and answered by the conference
themes, they will offer to the attendees:
• an up-to-date critical overview of the topics and their
operational contexts, through various contributions by
executives from industry, research, academia and
technology providers;
• a Think Tank, chaired by experts, focused on the issues
of accuracy, reliability, accessibility and applicability of
Engineering Simulation, and hence on the possibilities of
becoming a true asset of the design process;
• an exhibition, unprecedented in the sector in Italy,
where software vendors and providers of complementary
services and products, will showcase their new solutions
and share their visions and strategies with the attendees;
• an informal environment where delegates, technology
providers, managers and experts can meet and share
experiences, address key industry issues and challenges,
and find new business opportunities.
As a tradition and to add further value to the occasion, the
EnginSoft Conference will run concurrently with the ANSYS
Italian Conference. In fact, ANSYS is the premier technology
partner of EnginSoft, and the major [FEA] software vendor
PROVISIONAL LIST OF PAPERS (updated on 19
th
July)
MECHANICAL SESSION
Ansaldo Breda
Advanced CAE Design for increasing Railway Vehicles Fire Safety Level
Ansaldo Energia
New materials and their constitutive models in Ansys. Experience in
plasticity and viscoplasticity through z-Ansys.
ANSYS
Overcoming the Challenges of Hybrid/Electric Vehicle Traction Motor Design
CADFEM
Effective Electrothermal Simulation for Battery Pack and Power
Electronics in HEV/EV
CADFEM Swisse - IMI Nuclear Comparison of hydrodynamic mass for CFD-coupled analyses
CIRA - SUN Second University Cohesive Zone Material model in ANSYS: a sensitivity analysis on a DCB
of Naples
test case
worldwide. When we speak about ANSYS today, we mean the
most complete, co-ordinated, structured, and solid CAE
technology available on the market. The combination of the
EnginSoft and the ANSYS offering delivers to industry
unprecedented and unsurpassable values, and the true “key”
to the integration of simulation into the design and
production process.
Coretech System
Integration of Injection Molding and Structure CAE for Mold Deformation Analysis
D'Apollonia
Computational coupled procedure for probabilistic design of
ceramic-based radomes under hypersonic loading
Dynamore
New Features and Directions in Crash Simulation with LS-DYNA
Franco Tosi Meccanica
Modeling different contact conditions in blade rows of turbomachinery
Key To Metals
Development of a Database for Stress-Strain Curves and Cyclic Properties
Lombardini Motori
A novel approach to simplified representation of threaded connections
Magneti Marelli
Gasket FEA analysis for AIM application
MTA
Numerical modeling of Automotive Fuses Melting Time
Nuovo Pignone
Acoustic Simulation and Optimization of Silencing Systems for Gas Turbine Plants
Piaggio
CAE analysis of a scooter crankshaft
Pierburg Pump Technology
Modal Analysis Correlation By Means Of FEM Approaches
Pierburg Pump Technology
Evaluation of the Lifetime of an Automotive Vacuum Pump Housing
Trasfor
Fatigue Assessment of a Magnetic Component for Railway Application
Università di Padova
Simulation and energy saving in simple solar collector with reflective
panels and boiler
University of Malta
Experimental Validation of Finite Element Simulations to predict Welding
Induced Residual Stresses
CFD SESSION
Ansaldo Breda
Ansaldo Nucleare
ANSYS
Don’t miss the 2 events! The 2011 event promises again to
be the country’s premier conference on Engineering
Simulation, and one of the most important events of its kind
globally.
CALL for PAPERS: The event organizers welcome
contributions on CAE Technology applications. Papers can be
submitted on-line, following the guidelines given on the
meeting website: http://www.caeconference.com. Deadline
for abstract submission: 30th June 2011; Deadline for final
paper submission: 30th September 2011.
REGISTRATION: The registration fee is € 300,00. Early bird
registration fee is € 200,00 until 5th September 2011.
For any further information, please visit the official website:
http://www.caeconference.com
or please contact:
Luisa Cunico - EnginSoft SpA
Marketing & Communication Office
Ph: +39 0461 979474
[email protected]
GOLD SPONSORS
ANSYS fluid dynamics software at ANSYS 14.0
ANSYS UK
Engineering Simulation For Unmanned Vehicle Design and Development
CINECA
Porting, enabling and parallel performance of OpenFOAM on PLX's CINECA cluster
CRF - Centro Ricerche Fiat
Fluid refrigerant leak in a cabin compartment: risk assessment by CFD approach
EnginSoft
MELiSSA Project: plant growing environment characterization
EnginSoft GmBH
Morphological Shape Optimization of a Multi-Element, Down-Force
Generating Wing
Magneti Marelli
SMART COOLING AIM Heat Exchanger Methodologies
Magneti Marelli
Design Optimization Inverter Device
Nuovo Pignone
Combined 1D & 3D CFD Approach for GT Ventilation System analysis
Piaggio
The use of Ansys CFX to optimise the cooling circuit of an internal combustion engine - 2nd part: thermal analysis
SNECMA
SNECMA: Time compression with ANSYS Workbench
SUPSI - Politecnico Torino
Effects of Packed Bed Transport Properties Modeling on CFD Simulations
of a Short Contact Time Reactor for Methane Catalytic Partial Oxidation
Tecniplast
Laminar flow cabinet study
Tetra Pak
Modelling of a packaging machine filling system using a hierarchical approach
Università Bologna
Improving the design and the separation performances of membrane
modules for H2 purification by CFD simulations
Università di Ferrara
Numerical Analysis of a Micro Gas Turbine Combustor fed by liquid fuels
Università di Genova Consorzio SIRE
Engine exhaust jets redeseign for the P180 aircraft using
multidisciplinary simulations
Università di Roma - Tor Vergata Fluid Structure Interaction (FSI) with RBF Morph: a Generic Formula 1 Front End
Università di Padova
Effect of Airfoil Geometry on Darrieus Vertical-Axis Wind Turbine Performance
Zeco
Virtual Testing of a Plant with Hydro Francis Turbine
OPTIMIZATION SESSION
Ansaldo Breda
Structural optimization of new high speed train V300 Zefiro
Casappa
Optimization of the valveplate geometry for a variable displacement axial
piston pump in case of multiple design constraints
CIRA
Synergy between LS-DYNA and modeFRONTIER to predict low velocity
impact damage on CFRP plates
Continental
Multi-Objective Virtual Optimization for a target GDI injector nozzle flow
achievement
IVECO
M3E
®
Thermal comfort in Driverless Light Metro: CFD simulations versus experimental data from climate chamber tests
Analysis of the Sloshing of a Large Tank with design-basis and
Fukushima-like Seismic Excitations
Tyre set-up for commercial vehicle multibody model: modeFrontier as a
calibration tool
Evaluation of the environmental impact of underground gas storage and
sequestration
RFI
Optimization of solar energy captation
Tetra Pak
Integration of a fully 3D CFD model in a lumped parameter system
simulation through the use of an explorative DOE methodology
Università di Bologna - Ferrari Numerical optimization of the exhaust ow of a high-perfomance engine
University of Salento
modeFRONTIER analysis for reducing emissions of PCDD/F in a sintering ore plant
University of Salento
Optimized solar collectors for nanofluids applications
University of Salento
Multi Objective optimization of steel case hardening
8 - Newsletter EnginSoft Year 8 n°2
Tyre set-up for commercial vehicle
multi-body model: modeFRONTIER as a
calibration tool
Iveco is an international leader in the development,
manufacture, marketing and servicing of a vast range of
light, medium and heavy commercial vehicles. It is endowed
with a worldwide commercial network of sale outlets and
service points, and strives to provide its customers with
class-leading performances. Iveco currently employs over
25000 people all over the world and is present in all five
continents. Its products have been renowned for many years
as a valuable work tool for the most diverse applications.
Introduction
Reliability is perhaps the most important feature required
from a commercial vehicle, and it must be guaranteed
even on the most challenging missions without sacrificing
ride comfort. To address these issues, in the Virtual
Analysis Department of Iveco we developed multi-body
models in order to predict vehicle robustness and comfort
since the earliest product development stages. In such
models, tyres are one of the most critical components to
set up, since their effect on the global vehicle behaviour
is remarkable and their modelling very complex.
There is currently a great variety of tyre models available
to simulate tyre behaviour in multi-body simulations: the
one used for this study is Ftire [1]. Ftire is a physical
model which describes the most important tyre
phenomena, encompassing stiffness nonlinearities, ring
flexibility, internal damping, friction, and so on. A very
useful feature of Ftire, which makes its use intuitive, is
that its input parameters are physical quantities and not
just numerical coefficients. These parameters, however,
are not fed directly into the tyre model, but are preprocessed to build a mechanical system whose behaviour
reflects the original input characteristics. This aspect
constitutes a complication in the model set-up, since the
passage from input parameters to model is not immediate,
with possibly significant interactions among parameters.
To fully exploit Ftire potentialities, it is necessary
therefore to make use of a tool which allows managing
correctly such a complex model.
In this article, we describe our experience in using
modeFRONTIER as a tool for calibrating Ftire models. The
ultimate goal was to achieve a good numericalexperimental correlation in order to make significant
reliability and comfort predictions by means of multi-body
models. The vehicle used throughout the analysis is an
Iveco Daily Van.
Input data
As a starting point, we used an Ftire model developed by
a tyre manufacturer, which reproduces experimental data
obtained from tyre test rig. Though originating from an
experimental campaign, this model needs further
calibrating because of several reasons. Firstly, the
calibration must be focused on a specific application,
since different tasks involve different phenomena. For
comfort and reliability tests as in our case, the model
should correctly reproduce processes occurring at
frequencies up to about 35 Hz, while for other
applications, such as vibrations, higher frequencies are
usually of interest. Limiting the range of phenomena
permits to tailor the model for a specific task, simplifying
the procedure and allowing to achieve better results than
it would be possible to obtain with a general calibration.
Besides, test rig data are not complete, since in real usage
tyres interact with vehicle suspensions, which of course
are not present in tyre test rig.
The experimental basis for the analysis was created
through an extensive measurement campaign on an
instrumented vehicle. The vehicle was driven on several
different tracks with a contemporary acquisition of tyre
forces by means of Wheel Force Transducers (WFTs).
Moreover, accelerations and suspension strokes were
measured. These signals are used as reference time
histories in the model set-up.
Finally, all test tracks were laser scanned in order to have
a faithful 3D representation of the roads. The numerical
data were processed in order to provide a digital depiction
of the track in the multi-body simulation environment.
Fig. 1 - Multi-body model of Iveco Daily driving on Belgian blocks test track.
Newsletter EnginSoft Year 8 n°2 -
Procedure
The rationale behind the calibration process is to test the
tyre behaviour on tracks of different complexity in order
to assess both the tyre behaviour and its interaction with
the suspensions. The reference tracks used in the analysis
are
• cleat
• pothole
• Belgian blocks
Fig. 2 - Pareto frontier of numerical-experimental correlation of forces acting
along X and Z directions.
The cleat and pothole provide as result force and
acceleration time histories which can be compared
directly between the experimental data and the numerical
simulations. The cleat, in particular, includes mainly the
tyre enveloping capability, while in the pothole
interactions with vehicle suspensions start to have a
larger role. Once calibrated the model on these two tracks,
the Belgian block track is used to give a final confirmation
of the results, as well as to infer about the model
predictivity on a real track which is typically used for
9
fatigue and comfort analyses (Fig. 1). The results obtained
from the Belgian block track are processed with statistical
procedures.
The tyre model calibration was considered as a particular
case of optimisation, in which for each design the input
parameters are the tyre properties, and the outputs are
the correlations between the experimental and numerical
signals. The objective is to maximise such correlations.
The time histories were compared both in time and
frequency domain, in order to make sure that the
similarity between experimental and numerical data is not
only a numerical effect, but it is a token that the
occurring phenomena are actually represented in a correct
way in the model. All the procedures described hereafter
were applied both on front and rear tyre data.
Due to the high number of parameters in the model, the
first step we took was to perform a general optimisation
with the only scope to understand which parameters are
influent and which can be discarded as less important.
Starting with 20 initial parameters varying within a broad
range, it was eventually shown that only 7 of them were
truly important. The other parameters had a small
influence on the final outcome, so that the further steps
could be simplified by neglecting them.
After identifying the main inputs, a proper calibration was
carried out. In general, the challenging task was to design
a unique tyre which provides high numerical-experimental
correlation on wheel forces acting both in X and Z
directions. The algorithm chosen was a MOGA-II. After
about 500 designs it was possible to define a neat Pareto
frontier (Fig. 2).
Seeing these encouraging results, the vehicle model was
revised by modifying some stiffness and damping
parameters of the suspensions. After that, a finer
optimisation was performed with parameters varying in a
small range with a reduced step. This new analysis led
eventually to the definition of an even more accurate tyre.
Fig. 3 compares the experimental signals with those
produced by the tyre model before and after the
Fig. 3 - Comparisons of experimental and numerical wheel forces on cleat and pothole.
10 - Newsletter EnginSoft Year 8 n°2
as a final refinement. This multi-step approach
allowed reducing the complexity of the model as
much as possible while preserving its capability
to achieve good experimental-numerical
correlation.
Another important aspect of this result is that it
enabled a simple understanding of the influence
of the various parameters on the different
signals. It was found, indeed, that the ability to
catch the longitudinal phenomena was to some
extent in competition with the possibility to
correctly represent the events occurring in
Fig. 4 - Comparison between numerical and experimental histograms and spectra of the
vertical direction. A statistical analysis performed
wheel forces measured on the Belgian block track.
in modeFRONTIER allowed to sort all parameters
calibration when the vehicle drives on cleat and pothole.
according to their relevance for longitudinal and vertical
The final test was to compare the results obtained on
phenomena, evidencing conflicts and indicating what
Belgian block track. Fig. 4 shows the results. By
trade-offs had to be made (Fig. 5). It is worth remarking
comparing histograms and spectra, it can be stated that
that the ability to manipulate with insight an Ftire model
the tyre model reproduces all the phenomena occurring in
should be considered as an important result as the new
the frequency range of interest, with a magnitude
models obtained.
equivalent to that measured on tracks. This allows to infer
In conclusion, it was possible to create tyre models with
that the results supplied by these numerical simulations
an excellent numerical-experimental correlation and to
are correct to estimate load ranges and fatigue life of
gain understanding of such models. For the future, this
vehicle components.
will allow to increase customer satisfaction with no cost
increase and permit the engineering department to have
Discussion and conclusions
at its disposal both a tool and a methodology to tackle
The model set-up greatly benefited from splitting the
reliability and comfort issues.
analysis into a series of different optimisations each with
a different goal. In particular, the first was meant to
References
define the range of parameters which were truly
[1] http://www.cosin.eu/prod_FTire
significant for the task, while the successive ones
represent the real model calibration, the last one resulting
Acknowledgements
I would like to thank my colleagues ing. F. Ragusa and
ing. F. Cristiano for the help and support provided
throughout the work, as well as for the useful and
insightful discussions.
Roberto Bianco - Iveco
[email protected]
Fig. 5 - Cross-correlation among input parameters and output variables (force
correlations).
About the author
R. Bianco graduated in 2004 in Material
Engineering at the University of Lecce, with an
exploratory work in collaboration with Fiat Avio on
the usage of advanced ceramic materials in
aeronautical turbine engines. He then achieved a
PhD in Bioengineering at the University of Pisa,
focusing his research on the development of image
processing techniques for high-resolution imaging
and cerebral activation detection through Nuclear
Magnetic Resonance. He joined Iveco in 2007,
where he is currently Performance Engineer for
Handling and Ride Comfort, and he is in charge of
the Vehicle Dynamics performances in the
development of the new range of Iveco light
commercial vehicles.
Newsletter EnginSoft Year 8 n°2 -
11
Genetic Algorithm Optimization for Soil
Parameter Identification As Applied to
a Spread Footing Test
Using constitutive models to design structures with
software based on the Finite Element Method (FEM)
requires the identification of a set of soil parameters. As
long as the number of constitutive parameters remains
reduced, analytical identification methods appear to be
suitable. However, further development of more
sophisticated constitutive
models requires finer and
more complex parameter
identification processes. In
this article, the authors
propose a methodology for
identifying soil parameters
based on inverse analysis
of field tests. This study
extends a previous analysis
carried out by S. Levasseur
et al. [1]. The aim of
inverse analysis is to
determine the unknown
values of the constitutive
parameters by minimizing
the difference between
experimental data and
analytical or numerical Fig. 1 - Soil layering
and footing (a quarter
predictions.
of the domain) [2]
For this identification, the user has to take into
consideration the inherent experimental and numerical
uncertainties and the imperfect reproduction of the soil
behavior by constitutive models. A usual way to do so is
to define several “satisfactory” sets of parameters by
accepting a certain error. For these reasons, parameter
identification (therefore the optimization process) does
not need to be extremely precise, but has to be reliable.
In other words, determining a set of satisfactory solutions
is preferable to searching for a unique precise solution.
Moreover, given the fact that tests are rarely conducted
singly, it would be interesting to process all the
experimental data simultaneously. Indeed different tests
could generate different sets of optimized parameters if
the inverse analysis is executed separately on each test.
To avoid indecision and indetermination, an alternative
way to predict a satisfactory set of parameters is to
involve simultaneously many experimental responses
through the same inverse analysis.
The aim of this article is to discuss parameter
identification by genetic algorithms. The data come from
two pressuremeter tests, which correspond to standard
geotechnical tests. The constitutive relationship is a
strain-hardening elasto-plastic model. Even though in
case of civil structures this type of relationship would
provide better results than classical models, it is
not used in practice because it leads to
difficulties in the parameter identification
process. We intend to overcome these difficulties
by conducting an objective identification
procedure.
The validity of the method is tested and
discussed by comparing the numerical results of
a spread footing test with the experimental
results obtained from an international class A
benchmark (blind benchmark).
1. Presentation of the benchmark
As part of a spread footings benchmark [2], a
loading test on a 3x3m square footing was
conducted at a sandy site, where numerous soil
tests were also performed. According to Briaud
and Gibbens [2], the sand is probably lightly
overconsolidated by desiccation of fines and
removal of about 1 m of overburden at the
location of the spread footing test. Two
pressuremeter tests (cylindrical cavity expansion tests)
have been performed at two different depths: 2 m and 5.9
m. Triaxial tests (axial compression tests with
confinement) have been performed at three different
effective confining pressures for six specimens sampled at
0.6 m and 3 m, respectively. Figure 1 shows the general
soil layering at the site. The participants of the benchmark
had to predict the load corresponding to settlements of 25
mm and 150 mm.
In this study, for characterizing the in situ soil behavior,
pressuremeter curves are considered. They give the
evolution of the pressure applied within the probe as
function of the ratio u(a)/a, where a is the radius of the
probe and u(a) the displacement of the wall. The first part
of the curve is ignored considering non-reliable
measurement due to the remolding effect (see Fig.2).
Considering the depths at which the in situ tests are
performed and the soil layering, the simulation takes into
account only two different layers.
12 - Newsletter EnginSoft Year 8 n°2
3.2 Identification procedure
The identification procedure is considered as an
optimization problem, more specifically as the
minimization of a cost function. Due to some wellknown drawbacks of deterministic methods and to
the limited use of genetic algorithms (GA), GA are
involved in this optimization. Keeping in mind the
available experimental data for the inverse analysis
(two pressuremeter tests), two cost functions are
defined and minimized (two-objective problem). The
fact that GA allow the user to determine reliably the
Pareto frontier in one single run is a second reason
for selecting them instead of deterministic methods.
Fig. 2 - Experimental and numerical results of the two pressuremeter tests
2. Constitutive model
A strain-hardening elasto-plastic model [3], implemented
in CESAR-LCPC FEM software, is used in this study in order
to explore the relevance of the model.
This model is characterized by seven parameters. The four
following parameters, reference elastic modulus Eref,
friction angle ϕp, cohesion c and hardening parameter a,
have a major influence in the design of spread footings.
Therefore, high attention has to be paid to their
identification. The friction angle is identified from triaxial
tests. So the identification procedure by inverse analysis
is conducted with three parameters, Eref, c and a.
Moreover, taking into account the fact that a is not a true
intrinsic parameter, four parameters are optimized: two
different values of a, corresponding to the two different
pressuremeter tests, one cohesion value c assuming the
homogeneity of the soil profile and the value of Eref,
assuming a certain evolution of the elastic modulus as a
function of the mean pressure. The other parameters,
whose influence is minor, are fixed according to additional
experimental data or to experience-based knowledge.
ϕp = 35 degrees, rel = 0.7, v = 0.2, ϕc = 30 degrees, Κ0 =
0.7
3. Identification of the constitutive parameters from
pressuremeter tests
3.1 FEM modeling
An axisymmetric condition (lateral direction) and a plainstrain condition (vertical direction) are assumed for the
modeling of the pressuremeter test. The calculations
assume small strains, which is justified by the values of
the local strains which are always smaller than 10%
(without considering the close surrounding area of the
probe). The loading is displacement controlled and, at
each step, the same displacement increment is applied all
along the probe.
The parameter range values of Eref, c and a are
determined from resonant column test results on
remolded samples [2] and from some prior
simulations.
The identification procedure is based on the successive
use of two different codes: CESAR-LCPC for the direct
modeling scheme and modeFRONTIER for the optimization
process. The optimization is carried out by using MOGA-II.
Fig. 3 - Pareto Frontier of the multiobjective identification
The initial population is set to 200 individuals. The
probability of directional cross-over is set to 0.5, the
probability of selection to 0.05 and the probability of
mutation to 0.1. Optimization is considered as completed
when no improvement concerning the determination of
the Pareto frontier is made for 5 consecutive generations.
Figure 3 shows the Pareto frontier given by MOGA-II. The
results of the simulations are provided in Figure 2.
For information, a similar study has been carried out by
minimizing a unique function (weighted sum approach)
with the simplex algorithm. The same weight has been
applied for both initial cost functions (see Fig. 3). By
means of a fair computational cost, the geotechnical
engineer obtains a set of mathematical solutions useful
for a selection of parameter set(s) having a geotechnical
meaning.
Newsletter EnginSoft Year 8 n°2 -
Fig. 4 - Comparison of the experimental spread footing settlements, the
results of the class A benchmark and the numerical predictions assuming the
strain-hardening elasto-plastic model
4. Predictions of spread footing settlement
The sets of Pareto optimal parameters which provide
values without geotechnical meaning are not considered.
Among the remaining sets, the set which provides the best
representation of the pressuremeter tests is selected and
used for the simulation of the spread footing. Figure 4
compares the experimental and numerical settlement
curves.
These curves lead to four remarks:
• Compared to most participants in the benchmark, this
prediction complies better with the experimental
observations. It is obvious that the conditions
between this study and the predictions given by the
participants in the benchmark are different since the
benchmark results were already known. However, our
prediction given in Figure 4 results from an objective
process. The only assumption made in this study
concerns the size of the elastic domain rel and consists
of assuming a certain level of overconsolidation. rel
could have been estimated if the beginning of the
pressuremeter curves could have been involved in the
inverse analysis. Considering the predictions of some
participants, some constitutive parameters used in
their studies may have not been properly determined.
This can be due to a non-efficient identification
technique;
• The difference between our simulation and the
experiment is mainly due to some defects in the
constitutive relationship and to the nonrepresentativeness of the available pressuremeter
stress path;
• In terms of inverse analysis, the mathematical best set
of parameters is not necessarily the physical best set
of parameters, considering the noisy error functions
due to measurement errors, the imperfect reproduction
of the reality by constitutive models, the numerical
method for resolution and the design simulation. Since
GA determine satisfactory sets of parameters, an
13
experienced geotechnical engineer can (1) select
several sets of parameters having a physical meaning
and (2) use them for the design simulation to quantify
the uncertainties related to the identification process.
This method has not been carried out in this article
because the Pareto optimal values of the parameters
are close to each other and therefore do not lead to
noticeable differences for the spread footing
simulation;
• This study represents a first approach of a
multiobjective analysis on an in situ test. It is
incomplete insofar as, even if the two pressuremeter
tests are performed at different depths, the stress
paths are similar. However, there are many different
stress paths in soil subjected to construction, so it
would be interesting to test multiobjective analysis on
various laboratory and in situ soil tests.
ACKNOWLEDGEMENT
The authors would like to thank J.L. Briaud (Texas A&M
Univ.) for making available information about the spread
footing benchmark.
REFERENCES
[1] Levasseur S, Malécot Y, Boulon M, Flavigny E.
Statistical inverse analysis based on genetic algorithm
and principal component analysis: Applications to
excavation problems and pressuremeter tests.
International Journal For Numerical and Analytical
Methods in Geomechanics 2010; 34: 471-491.
[2] Briaud JL, Gibbens RM. Predicted and Measured
Behavior of Five Spread Footings On Sand.
Geotechnical Special Publication 41, ASCE: New-York,
1994.
[3] Dano C, Hicher PY. A constitutive model for
uncemented and grouted sands. In Fifth European
Conference on
Numerical
Methods
in
Geotechnical Engineering - NUMGE 2002, Paris, France,
Mestat P (ed). Presses de
l’ENPC/LCPC:
Paris,
2002; 57-62.
Y. Riou, A. Papon*, C. Dano, P.-Y. Hicher
Research Institute in Civil and Mechanical Engineering,
UMR CNRS 6183 - Ecole Centrale Nantes
University of Nantes, 1 rue de la Noë, BP 92101, 44321
Nantes cedex 3, France
*For more information about this article, please contact
Aurélie Papon ([email protected]).
This document has been published by courtesy of IJNAMG.
An extended version of this article is published in the
International Journal for Numerical and Analytical Methods
in Geomechanics (http://dx.doi.org/10.1002/nag.1019,
DOI: 10.1002/nag.1019)
14 - Newsletter EnginSoft Year 8 n°2
Optimization Under Uncertainty of
Wind Turbines
1. Introduction
Wind turbines are multi-physics devices in which the
aerodynamic performance, the structural integrity of the blades,
the energy conversion toolbox and the acoustic impact has to be
carefully examined to achieve an effective design. Each one of
these aspects introduces considerable hurdles to detailed
simulations.
automatically. In Leland a “job” is an instance of the entire
multi-physics simulations, which might include grid generation,
morphing, flow solution and structure coupling, acoustic
analysis and post-processing. The main objective of Leland is to
set-up a candidate design as a job and to manage it until it is
completed, to gather relevant results that are used to inform the
robust optimization process.
The aerodynamic performance is dominated by the design of the
blade cross-sections and the flow characterization is
complicated by the need to predict laminar/turbulent transition
under a variety of clean and perturbed wind conditions, the
inherent angle of attack variability associated with rotation, the
presence of dynamic stall, aeroelasticity, etc. In spite of the
development of advanced computational fluid dynamic tools
that can predict with reasonable accuracy the aerodynamic
performance of helicopter rotors [1], the computations remain
extremely expensive and often rely on simple models to capture
important effects, such as transition, and are generally not
considered to be predictive for extreme events such as blade
stall.
The various components of Leland are introduced below.
ROpt (robust optimization), shown in figure 1.a, is the engine
behind this design environment. Given the design and/or
uncertain input variables, ROpt continuously generates new
design proposals (samples) based on the evolutionary strategy
and/or analysis of the uncertainty space, until a convergence
criterion is met. The genetic algorithm is based on nondomination sorting of the candidate designs coupled with an
adaptive crossover and mutation.
The impact of uncertainties is characterized in ROpt via the inhouse Simplex Stochastic Collocation (SSC) algorithm [2,3],
which combines the effectiveness of random sampling in higher
In this case study we focus on building a flexible computational
infrastructure based on low-fidelity models that are connected
together in a Matlab environment called Eolo. There are two
main advantages resulting from this choice: (i) control and
flexibility in using different models developed for capturing
complex phenomena, (ii) low computational costs. It is indeed
the second aspect that fundamentally enables us to perform
analysis and optimization under uncertainty of this complex
configuration.
2. A parallel computational framework for robust
optimization: Leland
Due to the high cost of objective function evaluations in multidisciplinary frameworks (i.e. aerodynamics, structure, control,
etc.), we have developed an environment (hereafter called
Leland) for optimal resource allocation on a UNIX multiprocessor
cluster. Leland can manage multiobjective robust optimization
by using state of the art genetic algorithms tightly coupled with
an in-house uncertainty quantification strategy, the stochastic
collocation algorithm.
The structure of Leland is based on a workflow through I/O subsystems that represent the software environments (i.e. X-foil,
Fluent, FEM, NREL Tools, etc.) involved in the process. This
environment is designed to run natively on any highperformance computing (HPC) system, by integrating with the
job-submission/queuing system (for example Torque). Moreover,
it does not require administrator permissions: once the analysis
is initiated multiple simulations are submitted and monitored
Fig. 1 - Leland Framework: Dealing with uncertainty within an optimization
loop flowchart
dimensions (multiple uncertainties) with the accuracy of
polynomial interpolation.
The main characteristics of the robust optimization method
implemented in ROpt are (i) to avoid any assumptions on the
quality of the objective function (i.e. Gaussian, expressible in
terms of few statistical moments, etc.) or (ii) an increase of the
objective dimensionality (by formulating the problem in a
multiobjective fashion).
The Job Liaison, shown in figure 1.b, defines the characteristics
of each single job and continuously monitors the progress of the
simulations until completion in order to communicate the
objective evaluations back to ROpt.
The Job Submission engine, shown in figure 1.c, ensures that
the correct number of jobs is always running on the cluster. The
Newsletter EnginSoft Year 8 n°2 -
variables (number of cores, number of
jobs, etc.) from the input file that are
used to initialize the runs are dynamic,
meaning they can be edited on the fly
and the system will respond
accordingly.
3. Eolo: a multi-physics model for
wind turbines analysis
The geometrical description of the
turbine blades is based on the
specification of three airfoils at the
root, mid-span and tip. Simple linear
interpolation is used to construct the
geometry at the other cross-sections
and the local aerodynamic analysis is
carried out using a potential flow
method with interactive viscous
correction. The tool we used is Xfoil [4]
which includes a model for boundary Fig. 2 - Eolo flowchart
layer transition based on the eN
method. This tool is used to determine the aerodynamic force
coefficients polars in a range of angle of attacks ranging from 15° to 25° to cover the range of incidences experiences during
a full rotation. Xfoil is not expected to be accurate in the
prediction of stall, because of the presence of extensive flow
separation and possibly unsteady effects. Hence a correction to
the polar curve is introduced, based on Viterna and Corrigan [5]
model that provide a correction of the lift and drag coefficient
at high angle of attack. A final correction to the aerodynamic
coefficients is then related to the presence of finite-span
effects.
Fluid structure interactions play an important role in the
determination of the structural integrity of the turbine blades
and in the overall aerodynamic performance. The geometrical
description of the blade is used as a starting point to define
span-varying properties relevant to its composite structure. The
NREL PreComp [6] computes cross-coupled stiffness, inertia and
offsets of the blade shear center, tension center, and center of
mass with respect to the blade pitch axis. These quantities are
then used to determine the a low-order model for the rotor, the
tower and the drivetrain shaft. Specifically, the characteristics
of a rotating-beam equivalent to the blade are computed using
NREL BModes [7], a finite-element code that evaluates the
deformation modes.
The Viterna corrected polars at certain nodes along the span,
the flapwise and BModes modal shapes and the PreComp
properties are then used as input to NREL FAST [8] (Fatigue,
Aerodynamics, Structures, and Turbulence) which is a
comprehensive aeroelastic simulator capable of predicting both
the extreme and fatigue loads of two- and three-bladed
horizontal-axis wind turbines. This code is based on NREL
AeroDyn [9] solver, an element-level wind-turbine aerodynamics
analysis routine. It requires information on the status of a wind
turbine from the dynamics analysis routine and a wind file
describing the atmospheric conditions. It returns the
15
aerodynamic loads for each blade
element to the dynamics routines.
The aerodynamic performance of
wind turbines is dominated by the
wind conditions. Atmospheric
boundary layers are subject to large
variability in wind direction and
intensity with largely unsteady
dynamics and frequent gusts. In
Eolo we generate realistic wind
conditions using the NREL TurbSim
[10] tool, which constructs a
stochastic inflow with precisely
specific
velocity
fluctuation
spectrum. We collect information
related to nocturnal boundary layer
flows and TurbSim create the
resulting spatio-temporal turbulent
velocity field.
The NREL prediction of aeroacoustic noise is based on six
different noise sources that are assumed to independently
generate their own noise signature. The assumption of
independence is founded on the idea that the mechanisms for
each noise source are fundamentally different from each other
or occur in different locations along a turbine blade, such that
they do not interfere with one another: turbulent boundary layer
trailing edge, separating flow, laminar boundary layer vortex
shedding, trailing edge bluntness vortex shedding, and tip
vortex formation [11,12]. The NREL Crunch [13] is used for the
post-processing of statistical information and estimation of the
fatigue life.
4. Optimization under uncertainty
In this case study the objective was to maximize the power
coefficient [-] while reducing the Sound Pressure Level [dB] at
a microphone located 20m downwind of the turbine at ground
level. The airfoils at the root, mid-span and tip of the blade are
shaped adding to the baseline geometry 5th order B-splines,
Fig. 3 – Annual wind speed spectrum, Acqua Spruzza (ITALY)
16 - Newsletter EnginSoft Year 8 n°2
4.2 Uncertainty Quantification: insect
contamination
Several studies on wind turbines and fixed
wing illustrate the effect of insect and
dirt contamination on the overall
aerodynamic performance. Insects are
present in the lower layer of the
atmosphere, with a density rapidly
decreasing from ground level to 500 ft.
The morphology of the insects is a
function of the altitude and the
estimation of the actual contamination
Fig. 4 – Left: Power coefficient over the wind spectrum; Right: Sound Pressure Level
depends on the operating conditions. In
wind-turbines the effect of contamination can be particularly
respectively on their bottom and upper surfaces. The Ystrong when the blade cross-sections are designed to support
coordinates of the control points are assumed as design
mostly laminar flows. The presence of insect contamination
variables. Additionally 3th order B-splines are added to the
produces boundary layer disturbances that
initial twist and chord distribution in
can lead to early transition to turbulence
order to adapt the blade shape. The Ywith a deterioration of the aerodynamic
coordinates of the twist and chord
performance. This is the motivation for
control points are assumed as additional
including insect contamination as a
design variables. Two checks were
leading cause of uncertainty in the
performed on each generated airfoil to
analysis of wind turbines. Experimental
remove geometries which were selfstudies of the effects of surface protrusions
intersecting or excessively wavy
(steps) on the transition to turbulence in
(constrained optimization).
boundary layers lead to modifications to
the eN method to capture the observed
4.1 The annual meteorological
transition modifications, via a reduction of
conditions
the critical N-factor.
The energy produced by a wind turbine is Fig. 5 – Convergence of the mean for the Power
Coefficient
usually expressed as an annual average,
We consider three independent variables describing the N-factor
but since production falls off dramatically as the wind speed
ranging from clean conditions (N=9) to transition bypass (N=1)
drops, most of the time the wind turbine is producing well below
at the root, mid-span and tip sections. An uncertainty analysis
its expected rate. It is important to characterize the wind
reveals that higher values of the N-critical factor (e.g. lower
turbine behavior resulting from the measured wind variability to
contamination) at tip region lead to a better performance: this
assess the effective performance. For land based turbines, the
can be justified due to the highest contribution of the outer
wind speed distribution is usually approximated by a Weibull fit.
airfoils to the mechanical torque at the shaft.
We extracted data regarding nominal wind speed, turbulence
More importantly, in terms of overall performance, the
intensity and direction at a site (Acqua Spruzza, Italy) where a
introduction of insect contamination leads to a decrease of
wind turbine farm was built by ENEL S.p.A. within a project
performance with respect to the clean configuration
evaluating the performance of commercial medium-sized
(deterministic case). Fig. 5 shows the results of the uncertainty
turbines operating in complex terrain and very hostile climate.
analysis in terms of expected value of the power coefficient
A large collection of wind measurements is summarized in Fig. 3
(mean) vs. the deterministic case, showing
in terms of wind speed distribution.
a reduction of about 16 %. In Fig. 5 it is
also possible to notice that the estimate of
In this case study a small number of
the mean power coefficient obtained with
SSC samples are used to propagate
the SSC method described above reached
the meteorological conditions into
convergence after few dozen evaluations.
the quantities of interests for the
process of optimization, hence the
4.3 Optimization Under Uncertainty
power coefficient is averaged taking
An initial multiobjective optimization
into account the probability density
study was carried out ignoring the insect
spectrum of the wind speed (first
contamination and the resulting Pareto
objective, maximization). The same
front is shown in Fig. 6. The baseline [red]
procedure is used for the Overall
blade was already optimized by the
Sound Pressure Level (second
manufacturer, but due to the steep
objective, minimization).
Figure 6 – Deterministic Pareto Frontier
Newsletter EnginSoft Year 8 n°2 -
[2]
[3]
[4]
Fig. 7 – Deterministic Trade-off blade design
characteristics of the Pareto at a high power coefficient it was
possible to find a trade-off [green] design considerably less
noisy than the baseline with a relatively negligible reduction of
the power coefficient.
Successive analysis included the uncertainties due to the insect
contamination. The deterministic Pareto front was used as an
initial scenario for the procedure. In Fig. 8 a close-up of the
design space close to the previous trade-off design is
considered. It is important to note that in the presence of
uncertainty, each new design corresponds to a probabilistic
estimate, and thus includes a large number (a cloud) of actual
results. This is illustrated in Fig. 8. Typically only the expected
performance (the statistical average of the results cloud) is
considered and, therefore a new locus of optimal configurations
is extracted: we will refer to this front as the “mean Pareto”.
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
Fig. 8 - Probabilistic Pareto Frontier, detail
17
P., Pitsch, H., Schluter, J., Svard, M., Van der Weide, E.,
You, D. and Wu, X., 2006, CHIMPS: A high-performance scalable module for multi physics simulations. AIAA Paper
2006 5274.
Witteveen, J.A.S., Iaccarino, G., Simplex Elements
Stochastic Collocation for Uncertainty Propagation in
Robust Design Optimization 48th AIAA Aerospace Sciences
Meeting, Orlando, Florida (2010) AIAA-2010-1313.
Witteveen, J.A.S., Iaccarino, G., Simplex elements stochastic collocation in higher-dimensional probability spaces,
51st AIAA/ASME/ASCE/AHS/ASC Structures, Structural
Dynamics, and Materials Conference, Orlando, Florida
(2010) AIAA-2010-2924.
Drela, M., Xfoil: An Analysis and Design System for Low
Reynolds Number Airfoils, Low Reynolds Number
Aerodynamics (Conference Proceedings), edited by T.J.
Mueller, University of Notre Dame 1989.
Tangler, J., Kocurek, J.D., Wind Turbine Post-Stall Airfoil
Performance Characteristics Guidelines for Blade-Element
Momentum Methods, NREL/CP-500-36900.
NWTC Design Codes (PreComp by Gunjit Bir).
http://wind.nrel.gov/designcodes/preprocessors/precomp.
Last modified 26-March-2007; accessed 26-March-2007.
NWTC Design Codes (BModes by Gunjit Bir).
http://wind.nrel.gov/designcodes/preprocessors/bmodes.
Last modified 20-March-2008; accessed 20-March-2008.
NWTC Design Codes (FAST by Jason Jonkman, Ph.D.).
http://wind.nrel.gov/designcodes/simulators/fast/. Last
modified 05-November-2010; accessed 05-November-2010.
NWTC Design Codes (AeroDyn by Dr. David J. Laino).
http://wind.nrel.gov/designcodes/simulators/aerodyn.
Last modified 31-March-2010; accessed 31-March-2010.
NWTC Design Codes (TurbSim by Neil Kelley, Bonnie
Jonkman). http://wind.nrel.gov/designcodes/preprocessors/turbsim. Last modified 25-September-2009; accessed
25-September-2009.
Moriarty, P., and Migliore, P., 2003 Semi-empirical aeroacoustic noise prediction code for wind turbines National
Renewable Energy Laboratory
Brooks, T., Pope, D., and Marcolini, M., Airfoil Self-Noise
and Prediction, NASA Reference Publication 1218, National
Aeronautics and Space Administration, 1989.
NWTC Design Codes (Crunch by Marshall Buhl).
http://wind.nrel.gov/designcodes/postprocessors/crunch/.
Last modified 01-April-2008; accessed 01-April-2008.
Petrone, G., de Nicola, C., Quagliarella, D., Witteveen, J.
And Iaccarino, G., Wind Turbine Performance Analysis
Under Uncertainty, AIAA 2011-544.
The effect of the insect contamination is to displace the
deterministic trade-off solution [green circle] away from the
mean Pareto. A new trade-off solution [Ropt, orange triangle]
emerges as a balance between best performance and minimum
spread (variance) due to the insect contamination.
Giovanni Petrone1,2, John Axerio-Cilies1, Carlo de Nicola2 and
Gianluca Iaccarino1
References
[1] Alonso, J. J., Hahn, S., Ham, F., Herrmann, M., Iaccarino,
G., Kalitzin, G., LeGresley, P., Mattsson, K., Medic, G., Moin,
1. Mechanical Engineering, Stanford University
2. Dipartimento di Progettazione Aeronautica, Università
Federico II di Napoli
18 - Newsletter EnginSoft Year 8 n°2
Ottimizzazione cinematica di una
pressa meccanica link-drive con
tecnologia ANSYS Workbench e
modeFRONTIER
In questo articolo viene ripreso il test
case di una pressa meccanica per imbutitura profonda a cui viene applicato un processo di ottimizzazione cinematica per incrementare le principali
prestazioni operative della macchina.
Ricordiamo che la qualità finale del
prodotto imbutito è fortemente legata
ai parametri del processo di lavorazione, tra i quali spicca per importanza la
velocità di discesa del punzone nel
tratto di corsa in cui la lamiera viene
deformata (intervallo di lavoro).
Idealmente, questa velocità dovrebbe
essere bassa, per realizzare una deformazione graduale del materiale, e costante per evitare la formazione di
pieghe e striature superficiali.
tà. Solitamente vengono coinvolti nell’ottimizzazione esclusivamente i parametri
per i quali si possono accettare delle modifiche, sempre e comunque all’interno di
limiti prefissati e nel rispetto di eventuali vincoli.
Per quanto concerne le funzioni obiettivo, esse sono definite a partire da grandezze scalari che descrivono in modo univoco il comportamento del sistema che si
sta cercando di ottimizzare.
La sintesi degli indici scalari è completamente delegata all’utente, che deve
estrarla a partire dai risultati delle simulazioni. Si tratta di un’operazione cruciaFig. 1 - Elenco dei parametri dimensionali utilizzati
le,
dal momento che una definizione lacunell’ottimizzazione
nosa degli obiettivi può pregiudicare la
qualità dell’ottimizzazione sia in termini di risultati, sia in
termini di tempo complessivo di calcolo.
Per rispettare questi requisiti è possibile equipaggiare le
In relazione all’ottimizzazione della pressa “Link-Drive”, le
presse meccaniche da imbutitura con un meccanismo denovariabili di input possono essere fatte coincidere con i prinminato “Link-Drive”. Grazie al suo schema cinematico, il
cipali parametri dimensionali dei membri del meccanismo
“Link-Drive” produce un tratto con andamento regolare e
(Figura 1). Per tutti i parametri si è scelto di attribuire una
quasi costante della velocità. Inoltre, la sua maggiore comvariabilità del ±20% rispetto al valore inizialmente previsto
plessità lo rende più flessibile rispetto ai meccanismi tradidal progettista della macchina. Con questi margini, la gamzionali: variando le dimensioni dei membri si possono ottema delle configurazioni ottenibili (chiamati anche Design) è
nere diverse curve di velocità del punzone.
decisamente ampia.
Nella newsletter “EnginSoft Anno 8 - n°1” abbiamo messo in
rilievo le possibilità di analisi offerte dall’implementazione
Le funzioni obiettivo devono essere definite con particolare
parametrica di un modello di pressa “Link-Drive” all’interno
attenzione alle prestazioni che si vogliono massimizzare o
di ANSYS Workbench 13 (ambiente Rigid Body Dynamics). In
questo nuovo articolo dimostreremo che l’utilizzo di modelli
minimizzare. Per quanto detto in precedenza, nella pressa
parametrici, in accoppiamento con un ottimizzatore multio“Link-Drive” è fondamentale mantenere la velocità del punzone bassa e costante all’interno della corsa di lavoro.
biettivo come modeFRONTIER 4, consente di massimizzare i
Questo si traduce nei seguenti tre obiettivi:
vantaggi derivanti dalla simulazione cinematica e dinamica
dei meccanismi articolati.
I. minimizzazione della velocità massima del punzone:
durante la corsa di discesa, la velocità è sempre positiva;
riducendone il valore massimo si diminuisce la probabiliDefinizione del problema di ottimizzazione
tà di strappamento del materiale imbutito;
L’ottimizzazione è un approccio numerico che si propone di
II. minimizzazione del valore assoluto dell’accelerazione del
individuare massimi e/o minimi di una funzione di molte vapunzone: è un indice della variabilità della velocità, un
riabili. Il suo impiego nel campo della simulazione diviene
valore contenuto implica costanza della velocità;
particolarmente efficace nel momento in cui le funzioni da
III.minimizzazione del valore assoluto del jerk massimo del
analizzare esprimono le prestazioni di un sistema descritto da
punzone (jerk = derivata prima dell’accelerazione): indica
un modello virtuale parametrico.
la variabilità dell’accelerazione, un valore contenuto
Le variabili di input del problema di ottimizzazione sono
implica invece una variazione lineare della velocità.
scelte sulla base di considerazioni di opportunità e fattibili-
Newsletter EnginSoft Year 8 n°2 -
I tre obiettivi sono di natura cinematica, ma va detto che sarebbe possibile affiancare ad essi anche degli obiettivi, ad
esempio, dinamici, strutturali, economici, etc.
Dopo aver definito le variabili di input e gli obiettivi del problema di ottimizzazione, risulta utile definire eventuali vincoli. I vincoli sono condizioni numeriche che si applicano, in
modo generale, a qualsiasi variabile coinvolta nell’ottimizzazione.
Lo scopo dei vincoli è quello di scartare automaticamente le
configurazioni del meccanismo che non sono realizzabili o,
più in generale, che non garantiscono il rispetto di altri criteri costruttivi. Per la pressa “Link Drive” sono stati definiti
i seguenti vincoli:
• vincolo di assemblabilità: rimuove le configurazioni non
assemblabili a causa delle inadeguate lunghezze dei
membri coinvolti;
• vincolo di punto morto inferiore: serve a garantire che le
configurazioni del meccanismo presentino una la luce
minima tra punzone e matrice. Questo vincolo, assicura
che la pressa permetta di stampare pezzi di altezza minima garantita;
• vincolo sull’angolo dell’eccentrico: serve a garantire che il
punto morto inferiore del punzone sia raggiunto con una
rotazione dell’eccentrico L4 maggiore di 180° misurati
rispetto alla posizione dell’eccentrico occupata quando il
punzone è al punto morto superiore. Il rispetto di questo
vincolo assicura una maggiore estensione dell’intervallo
di lavoro.
Struttura del progetto in modeFRONTIER
Un generico progetto costruito in modeFRONTIER comprende
quattro aree di interesse:
1. Variabili di input e relativi vincoli;
2. Algoritmi e pianificatori di analisi;
3. Operazioni (simulazioni e calcoli);
4. Variabili di output, relativi vincoli, e obiettivi.
Lo schema utilizzato per ottimizzare la pressa è riportato in
Figura 2:
Nel blocco dei pianificatori, sono distinguibili un nodo “DOE”
ed un nodo “Algoritmi”. Il primo genera un insieme di configurazioni che serve da punto di partenza per gli ottimizzatori. Il secondo serve a definire gli algoritmi di ottimizzazione
ed i relativi parametri di controllo.
Fig. 2 - Schema di modeFRONTIER utilizzato per il processo di ottimizzazione
19
Nella sezione delle operazioni sono racchiuse tutte le simulazioni ed i calcoli che trasformano le variabili di input nelle
variabili di output necessarie a definire gli obiettivi. Nel caso in esame, le operazioni necessarie sono le seguenti:
1. le variabili di input vengono passate al nodo di ANSYS
Workbench 13 che provvede a realizzare una simulazione
multibody a corpi rigidi della pressa. I risultati vengono
automaticamente esportati in un file di testo al termine
di ogni simulazione;
2. il file viene processato da uno script Visual Basic che esegue un ricampionamento dei segnali prodotti dal modello
multibody; i risultati sono salvati in un nuovo file di
testo;
3. i dati ricampionati vengono caricati in un foglio Excel che
provvede al post processamento finale e quindi alla estrazione degli output scalari di interesse.
Analisi dei risultati
In primo luogo è utile verificare l’efficacia del processo di ottimizzazione appena effettuato.
A questo scopo, risulta conveniente considerare l’evoluzione
delle variabili obiettivo al progredire dell’ottimizzazione.
La Figura 3 illustra la variazione dei primi due obiettivi (sui
tre prescelti) operata da modeFRONTIER in circa 2500 Design.
L’efficacia degli algoritmi è dimostrata dalla pendenza negativa delle curve di regressione, in relazione al fatto che entrambi gli obiettivi dovevano essere minimizzati.
Il grafico permette di osservare come l’efficacia degli algoritmi sia maggiore nella prima fase del processo di ottimizzazione, quando evidentemente i margini di miglioramento sono più consistenti. A partire, all’incirca, dal Design n. 1500,
le curve di regressione sono quasi orizzontali, a conferma del
fatto che ulteriori miglioramenti di limitata entità sono possibili.
Nel caso di ottimizzazioni mono obiettivo, il processo di ottimizzazione cerca i design che riducono o incrementano il
valore del singolo obiettivo scalare. L’ottimo è univocamente
determinato dalla configurazione che produce il minimo o il
massimo.
Nel caso delle ottimizzazioni multiobiettivo, il processo di
ottimizzazione cerca di individuare i design che riducono o
incrementano simultaneamente i valori degli obiettivi predefiniti. Mentre nelle fasi iniziali dell’ottimizzazione ciò accade regolarmente, man mano
che la ricerca prosegue ci si imbatte in design per
i quali non è possibile migliorare alcuni degli
obiettivi senza peggiorare gli altri. Le configurazioni con queste caratteristiche sono tutti design
ottimi perché non è possibile ottenere un ulteriore miglioramento delle prestazioni. Il loro insieme,
viene chiamato frontiera di Pareto del problema
multiobiettivo. La molteplicità delle soluzioni incluse in questo insieme di punti, rende la successiva scelta del design ottimo non univoca.
20 - Newsletter EnginSoft Year 8 n°2
Fanno eccezione a questa regola i design collocati in
basso a sinistra per i quali la correlazione è localmente negativa.
Al termine della ottimizzazione, la gran parte dei design della frontiera di Pareto individuata da
modeFRONTIER garantisce migliori prestazioni rispetto al design di partenza. Ciò conferma che il meccanismo presentava margini di miglioramento che sono
stati adeguatamente sfruttati dagli algoritmi del software.
Il design ottimo finale va scelto tra quelli che popolano la frontiera di Pareto, escludendo quelli che hanno prestazioni peggiori rispetto al design di partenza
(aree bianche dei grafici). Benché la scelta all’interno
di questa selezione possa essere del tutto arbitraria,
Fig. 3 - Variazioni della velocità massima e dell’accelerazione massima assoluta durante
è utile seguire un criterio univoco che permetta di inl’ottimizzazione
dividuare il compromesso più soddisfacente possibile.
Inevitabilmente occorrerà accettare uno o più compromessi
La strategia che appare vincente in questo contesto è quella
per selezionare il design finale.
che somma i miglioramenti relativi ottenuti sui singoli obietLa Figura 4 include due grafici che rappresentano i design getivi. La formalizzazione numerica di questo concetto è rapnerati da modeFRONTIER durante l’ottimizzazione. Il grafico
presentata nella seguente formula:
di sinistra è tracciato sul piano velocità massima – jerk massimo; mentre quello di destra è tracciato sul piano velocità
massima – accelerazione massima. Le grandezze si riferiscono al moto del punzone e sono valutate all’interno del range
di lavoro.
Ricordando che l’ottimizzazione è stata pensata per ridurre
Dove:
tutti e tre gli obiettivi simultaneamente, la disposizione dei
C
è il valore numerico complessivo del criterio di scelta
design sui grafici permette di trarre importanti conclusioni.
Wi è un valore positivo che indica l’importanza (peso) del
Sul grafico di sinistra, la frontiera di Pareto ha una pendeni-esimo obiettivo
za negativa, che indica una correlazione inversa tra i due
Oi
è il valore dell’i-esimo obiettivo per il design preso in
obiettivi coinvolti: non si può ridurre la velocità massima,
esame
senza incrementare il jerk massimo. Viceversa, sul grafico di
Oi,min è il valore minimo dell’i-esimo obiettivo raggiunto suldestra, i design della frontiera di Pareto giacciono sostanziall’intera popolazione di design
mente lungo una retta con pendenza positiva, ad indicare che
Oi,max è il valore massimo dell’i-esimo obiettivo raggiunto suli due obiettivi qui rappresentati evolvono concordemente.
l’intera popolazione di design
Figura 4 – Rappresentazione dei design in funzione degli obiettivi
Newsletter EnginSoft Year 8 n°2 -
21
ma, il risultato trovato dagli algoritmi di
modeFRONTIER è ampiamente superiore. Oltre ad avere prodotto ulteriore riduzione di accelerazione e velocità massime, siamo riusciti a contenere anche il
jerk massimo, a tutto vantaggio delle vibrazioni generate dalla macchina.
Il confronto prestazionale delle due macchine è ben
evidenziato nel grafico di Figura 5. Il range di lavoro
delle due macchine si ottiene per diversi angoli di
manovella. Si noti che il punzone della pressa ottimizzata da modeFRONTIER si muove circa 30 mm/s
più lentamente del pressa “concorrente”.
Fig. 5 – Velocità del punzone nel ciclo della pressa
Nella sommatoria si utilizza la prima equazione nel caso di un
obiettivo da massimizzare ( ), la seconda equazione se
l’obiettivo i-esimo deve essere minimizzato ( ).
Applicando questo metodo, si attribuisce ad ogni design un
indice scalare che indica la sua attitudine a produrre un miglioramento prestazionale relativo in relazione agli obiettivi
precedentemente definiti. Il migliore tra i design generati risulta essere quello per il quale il coefficiente C è massimo.
Per la pressa “Link Drive” è stato scelto il seguente ordine di
priorità per gli obiettivi:
• minimizzazione del valore assoluto dell’accelerazione
massima (W1=4);
• minimizzazione della velocità massima (W2=2);
• minimizzazione del valore assoluto del jerk massimo
(W3=1).
Al termine del calcolo, il design ottimo finale coincide con
quello evidenziato mediante un pallino rosso in Figura 4.
Questa configurazione risulta ampiamente migliore rispetto
alla configurazione da cui si è partiti.
A completamento di quanto esposto si è voluto confrontare
il risultato ottenuto mediante ottimizzazione multiobiettivo
guidata da modeFRONTIER con il risultato di una ottimizzazione condotta sulla stessa macchina e descritta nell’articolo
“Bojan Vohar, Karl Gotlih et Joze Flasker, Optimization of
Link-Drive Mechanism for Deep Drawing Mechanical Press”,
Journal of Mechanical Engineering n. 48 (2002), pp. 601612”.
I modelli utilizzati nella nostra applicazione ed in quella citata sono sostanzialmente identici.
Gli autori dell’articolo si sono limitati ad ottimizzare il meccanismo imponendo la riduzione della accelerazione massima
nel range di lavoro (ottimizzazione mono-obiettivo). Benché
abbiano ottenuto un buon risultato rispetto al punto di partenza in termini di accelerazione massima e velocità massi-
Per maggiori informazioni:
Fabiano Maggio - EnginSoft
[email protected]
L’esempio del meccanismo link drive solleva una serie di
problematiche tipiche della modellazione multibody.
Infatti, l’utente deve scegliere con cura numero e
tipologia di vincoli se non vuole pervenire a risultati
incompleti o addirittura errati. L’utilizzo di strumenti
come “ANSYS Transient Structural MBD” presuppone che
l’utente possieda adeguate nozioni di meccanica
applicata e calcolo numerico che gli consentano di
tradurre correttamente un sistema fisico in un modello
virtuale. La schematizzazione può avvenire in modo più o
meno raffinato, con conseguenze dirette sull’efficacia
della simulazione. È compito del modellista scegliere
dimensione, grado di complessità e dettagli del modello
che vuole creare, considerando simultaneamente obiettivi
da raggiungere, onere computazionale e tempo a
disposizione. Il miglior modello non è quello più
dettagliato, ma quello che risponde in modo più veloce ed
esauriente alle esigenze. Questa regola, che vale in
generale per tutte le dimensioni del CAE, assume un ruolo
decisivo per la simulazione multibody.
EnginSoft propone un corso di modellistica multibody
della durata di 2 giorni a tutti i progettisti che affrontano
quotidianamente problemi di cinematica e dinamica. Il
corso è pensato e strutturato in modo da trasferire in
breve tempo le conoscenze che servono a formulare
consapevolmente le principali scelte di modellazione
multibody. Il corso verrà tenuto dal prof. Roberto Lot
dell’Università di Padova in collaborazione con l’ing.
Fabiano Maggio di EnginSoft.
Per informazioni sui contenuti consultare il sito del
consorzio TCN: www.consorziotcn.it
Per iscrizioni e informazioni generali consultare la sig.ra
Mirella Prestini della segreteria del consorzio. E-mail:
[email protected] Tel: 035 368711
22 - Newsletter EnginSoft Year 8 n°2
Ottimizzazione di ponti in curva in
struttura composta acciaiocalcestruzzo
• Possibilità di effettuare questo procedimento più volte
per un singolo progetto, in un’ottica di ottimizzazione
della struttura secondo determinati obiettivi fissati dal
progettista.
Tesi di laurea di Corrado Chisari
Università degli Studi di Trieste
Relatore:
Chiar.mo prof. Claudio Amadio
Correlatori: Chiar.mo prof. Salvatore Noè,
Dott. Ing. Roberto Zamparo
L'impiego di travi appoggiate o continue a sezione
composta acciaio-calcestruzzo, con soletta gettata in
opera o prefabbricata, è sempre più frequente nella
realizzazione di impalcati da ponte sulle luci medie (40 80 m). Tale soluzione consente anche la realizzazione
d'impalcati ad asse curvo e può essere utilizzata per
risolvere situazioni progettuali caratterizzate da
complesse geometrie di tracciato stradale, come nel caso
dei viadotti inseriti nei tracciati articolati delle
sopraelevate urbane ed extraurbane e dei cavalcavia di
svincolo o d'attraversamento.
La particolarità più importante di questa tipologia di
ponte è rappresentata dalle sollecitazioni torsionali che
nascono anche per effetto di carichi simmetrici rispetto
all'asse del ponte, al contrario di quanto succede per i
ponti rettilinei.
Tali sollecitazioni di torsione provocano diversi effetti di
cui tenere conto:
• Sollecitazioni normali aggiuntive sulle flange per effetto della torsione secondaria o alla Vlasov;
• Deformazione del pannello d'anima nel piano della
sezione retta, con conseguente perdita di forma della
sezione nel suo complesso.
Si può quindi passare da una progettazione tradizionale
(in cui ad un predimensionamento iniziale segue il
processo di calcolo delle azioni agenti sulla struttura,
l’analisi strutturale, e la verifica delle sezioni proposte con
conseguente eventuale taratura) ad una progettazione
ottimizzata in cui il momento decisionale risulta collocato
in un diverso istante.
Il primo passo consiste nella parametrizzazione della
struttura. In questa fase viene analizzato il problema e
vengono definite le variabili che lo descrivono
completamente. Il cromosoma dell’individuo che
rappresenterà una particolare soluzione del problema sarà
costituito da questi parametri.
Successivamente alla parametrizzazione si procede con il
processo di ottimizzazione utilizzando opportuni algoritmi
genetici (GA).
L’implementazione di quest’approccio è stato possibile
grazie ad un codice scritto in C# in grado di:
• creare in ambiente Straus7, grazie alle sue API
(Advanced Programming Interface), il modello ad
elementi finiti della struttura leggendo un file di input
redatto dall'ottimizzatore in cui vengono fissati i
parametri di tentativo;
• lanciare il solutore, ricavare i risultati ed eseguire le
verifiche, trascrivendo su un apposito file di output i
dati che servono per la valutazione della struttura.
Per tali motivi, i consueti metodi approssimati
(schematizzazione a graticcio di travi o a piastra
ortotropa) non sono applicabili nel caso di ponti
in curva ed è necessaria un'analisi agli elementi
finiti in grado di cogliere gli effetti aggiuntivi
dovuti alla curvatura del tracciato.
La progettazione usuale presenta aspetti
ripetitivi, quali l’applicazione dei carichi e la
verifica degli elementi strutturali, che molto
proficuamente possono essere affidati a una
procedura automatizzata gestita da un
eleboratore elettronico. Questo permette di
conseguire due scopi principali:
• Assenza di errore umano;
Fig. 1 - Schema di progettazione ottimizzata
Newsletter EnginSoft Year 8 n°2 -
Sarà compito dell'ottimizzatore leggere tali dati e
modificare i parametri di input per il successivo passo
della procedura.
L’ottimizzazione
Il software utilizzato nel processo di ottimizzazione è
modeFRONTIER. Tale programma non si interfaccia
direttamente con il software ad elementi finiti Straus7; il
collegamento fra i due programmi è affidato ad uno script
di DOS, il quale ha il compito di lanciare il codice in C#,
che a sua volta legge il file Parametri_ponte.txt redatto da
modeFRONTIER e scrive il file Output.txt. La lettura di
Output.txt da parte di modeFRONTIER permette di valutare
l'individuo testato e proseguire il processo di
ottimizzazione variando in maniera opportuna i parametri
di ingresso che verranno scritti nel nuovo file
Parametri_ponte.txt.
Le analisi effettuate
Le variabili di input sono tutte le caratteristiche che
descrivono completamente la struttura, in numero
minimo, per ridurre al massimo i tempi di computazione.
Per fare alcuni esempi, ricordiamo tra queste: numero
travi, dimensioni e spessori di piattabande ed anime dei
vari conci e degli elementi di diaframmatura, etc.
Le variabili di output sono invece i risultati
dell’applicazione delle verifiche eseguite dal codice da noi
Fig.2 - History chart dell’analisi 1 preliminare
23
redatto: verifica a taglio, a trazione-compressione, etc.
Le analisi eseguite sono state diverse, e hanno messo in
luce significative differenze nei risultati finali:
1. Analisi di ottimizzazione con giunti fra le travi in posizione fissa, pari a quella assunta nel progetto originale;
2. Analisi di ottimizzazione con giunti fra le travi in posizione variabile, ma senza vincoli sulla lunghezza di
ogni singolo concio;
3. Analisi di ottimizzazione con giunti fra le travi in posizione variabile e lunghezza massima dei conci pari a
12,0 m (lunghezza massima di trasportabilità);
4. Analisi di ottimizzazione con giunti fra le travi in posizione variabile, con lunghezza massima dei conci pari
a 12,0 m e obiettivo unico del costo totale dell'opera.
Le prime tre analisi presentano invece due obiettivi che
sono la minimizzazione del peso del calcestruzzo e del
peso dell'acciaio. Per le quattro ottimizzazioni il
procedimento seguito è stato identico:
• un'analisi preliminare con DOE di 150 individui;
• un'analisi definitiva con DOE di 25 elementi scelti selezionando tra i risultati dell’analisi preliminare quelli
appartenenti al fronte di Pareto ed altri tra quelli più
prossimi a tale fronte e 50 generazioni per ogni elemento.
L'algoritmo di analisi utilizzato è il MOGA-II
(Multiobjective Genetic Algorithm), adatto a ricerche
multiobiettivo come quella in oggetto. La sua particolarità
è quella di utilizzare lo “Smart Multiserch elitism” che
evita il problema di individuare ottimi locali, ricercando
invece l’ottimo assoluto.
Risultati
La prima analisi di ottimizzazione eseguita prevede come
costanti la posizione dei giunti fra le travi, pari a quella
assunta nel progetto originale.
24 - Newsletter EnginSoft Year 8 n°2
Fig. 3 - History chart dell’analisi 1 definitiva
Dall’analisi dei risultati si nota come la presenza di diversi
obiettivi non consenta la convergenza verso una soluzione
ottima, ma la si ottenga in maniera quasi occasionale.
Per tentare di capire il perché di questa mancata
convergenza, è stata lanciata una terza analisi con lo
stesso DOE di partenza di quella definitiva ora descritta,
ma con numero di generazioni pari a 150.
Fig. 6 - Screenshot dell'individuo ottimo dell'analisi 1
stata lanciata una seconda analisi, in cui essa varia
liberamente.
Anche in questo caso sia l'analisi preliminare (con 150
individui scelti con metodologia RANDOM e 30 generazioni
per individuo) che l'analisi definitiva non mostrano
convergenza per la presenza dei diversi obiettivi.
Fig. 4 - Analisi 1 con 150 generazioni
Fig. 7 - History chart dell’analisi 2 definitiva
È evidente che l'ottimizzatore trova due strade di possibile
convergenza, indicate con le lettere A e B. Trattandosi di
un'analisi multiobiettivo non c'è parametro che faccia
scegliere una al posto dell'altra, per cui si spiega la
mancanza di convergenza.
A riprova di quanto detto, analizzando il diagramma
scatter che riporta rispettivamente in ascissa il peso
dell'acciaio e in ordinata quello del calcestruzzo, notiamo
che i due gruppi di soluzioni appartengono entrambi al
fronte di Pareto, ossia rappresentano entrambi individui
caratterizzati dal raggiungimento di un minimo obiettivo
che non possono essere migliorati se non peggiorando
l'altro obiettivo.
Fig. 8 - Individuo ottimo dell'analisi 2
Nell’analisi 3, come già detto, viene imposto un vincolo
ulteriore all’ottimizzatore: la lunghezza massima dei
conci, pari a 12 m.
Fig. 5 - Diagramma scatter peso acciao-peso cls
Poiché la posizione dei giunti in realtà non è fissata a
priori ma è uno dei parametri variabili del progetto, è
Confrontando tale analisi con quelle precedenti è possibile
notare che la convergenza viene qui raggiunta in maniera
decisamente più rapida; tuttavia l'introduzione di un
ulteriore vincolo comporta un minore risparmio di
materiale. Per la prima volta compare un individuo
caratterizzato da tre travi in acciaio, anziché due (Fig.
10).
Newsletter EnginSoft Year 8 n°2 -
25
e della verifica della struttura permette di cercare la
soluzione ottima al problema sotto determinati obiettivi
decisi dal progettista. Tale automatizzazione è stata resa
possibile dalla creazione di un codice che utilizza le API
del programma commerciale Straus7 per creare il modello
ad elementi finiti di un ponte in curva, e dall’inserimento
di tale codice nel processo di ottimizzazione gestito dal
software modeFRONTIER.
Fig. 9 - History chart dell’analisi 3 definitiva
Fig. 10 - Individuo ottimo dell'analisi 2
Nell’ultima analisi effettuata, sono state considerate
costanti le dimensioni dei traversi, ed è stato introdotto
un nuovo, unico obiettivo, che è il costo totale dell'opera.
Tale costo è stato computato considerando un prezzo del
calcestruzzo pari a 140 €/mc per il calcestruzzo e 2,30
€/kg per l'acciaio.
Fig. 11 - History chart dell'analisi 4 preliminare
Fig. 12 - Individuo ottimo dell'analisi 4
Dalla risposta riportata in fig. 11 si nota che la
diminuzione di parametri variabili e degli obiettivi causi
una convergenza molto più veloce già nell'analisi
preliminare. Anche questo modello risulta caratterizzato
dalla presenza di tre travi (Fig. 12).
Conclusioni
In questo lavoro è stato affrontato il problema di un tipo
di progettazione di ponti in curva diversa da quella
tradizionale, in cui l’automatizzazione della modellazione
Dalle analisi effettuate si è osservato che:
• la configurazione con giunti nelle posizioni del progetto realizzato presenta già una buona soluzione in termini di peso;
• un ulteriore risparmio si otterrebbe se fosse possibile
non avere giunti, ma utilizzare un'unica tipologia di
trave per tutta la campata. Questa, infatti, è la tipologia cui tende l'ottimizzatore nella seconda analisi;
• la definizione del costo del materiale e il calcolo del
costo totale dell’opera permettono di avere una soluzione più indicativa, riducendo il problema ad una ottimizzazione mono-obiettivo e tenendo conto della
minore importanza del calcestruzzo rispetto all’acciaio.
Bibliografia
1. Wai-Fah Chen – Lian Duan, Bridge Engineering
Handbook, CRC Press
2. Ching-Jen Chang – Donald W. White, An assessment of
modeling strategies for composite curved steel I-girder
bridges
3. Ann L. Fiechtl - Gregory L. Fenves – Karl H. Frank,
Approximate analysis of horizontally curved girder
bridges
4. P. Clemente – L. Dezi – G. Leoni, Modellazione di
impalcati bitrave curvi a sezione composta
5. Vasilii Zakharovich Vlasov, Thin-Walled Elastic Beams
6. James S. Davidson – Scott R. Ballance
– Chai H. Yoo, Analytical Model of Curved
I-girder Web Panels Subjected to
Bending
7. Roberto Zamparo, Ottimizzazione di
un impalcato da ponte in struttura mista
acciaio-calcestruzzo mediante i codici
Straus7 e modeFRONTIER, Tesi di Laurea
in Teoria e Progetto delle Costruzioni in
Acciaio, A. A. 2004-2005
8. Straus7, API Manual. Documentation for the Straus7
Application Programming Interface
9. Pasquale Lucia, Progettazione ottimale di ponti in
struttura mista acciaio-calcestruzzo ad asse rettilineo
mediante algoritmi evolutivi, Tesi di dottorato di
ricerca in Ingegneria delle infrastrutture, delle
strutture e dei trasporti
10.Raniero Bolognani, Ottimizzazione con algoritmi
genetici di un impalcato da ponte: studio della soletta
in c.a., Tesi di Laurea in teoria e Progetto di Ponti,
A.A. 2006-2007
26 - Newsletter EnginSoft Year 8 n°2
Higher Energy
Recovery and
Longer Life for
Heat Exchangers
UNICONFORT srl is an Italian company which operates
very successfully in the field of thermal technology
and providing solutions for the energy conversion of
pellets and biomasses coming from agriculture, wood
working and the forestry industry.
The company provides turnkey installations from
storage to chimney. Their main activities range from
project to production of biomass-fired boilers to
produce hot water, superheated water, hot air, steam
and thermal oil. Boilers can treat various types of biomasses,
from pellets to fuel with high humidity content. The power
range is from 24 KW to 5.800 KW.
UNICONFORT relies on Computer Aided Engineering and has
selected EnginSoft as a key partner to develop and optimize its
products. The research activity is aimed at improving the
thermal efficiency and the management of the plants. The heat
exchanger that is placed downstream of the combustion
chamber is a key component of the plant. That is the element
where energy is recovered, and it has to deal with high
temperatures, hence it is service life affects the maintenance
of the entire system. Increasing the energy recovery and
extending the heat exchanger life are the aims of the CFD and
FEM study carried out by UNICONFORT and EnginSoft.
The objective
The study presented here considers a heat exchanger used for
heat recovery from biomass combustion.
The first step is the evaluation of the flow conditions inside
the system by means of a 3D
thermo-fluid dynamic simulation,
which will give an insight into the
flow and temperature distributions
in the system.
The second step is a Finite Element
Analysis of the heat exchanger
using as inputs thermal loads
which are derived from the CFD
analysis. The purpose is to verify
Fig. 1 - CFD and FE model
the stress levels in the structure,
Energia dalle
biomasse: Impianti
ad alta efficienza
e minore
manutenzione
grazie alla
simulazione
“Efficienza energetica” ed utilizzo di
“fonti rinnovabili” sono due temi di
grande attualità e che interessano diversi aspetti della nostra vita quotidiana, da quella domestica a quella lavorativa, perché la bolletta energetica è
una voce pesante sul bilancio familiare
ed aziendale.
Uniconfort basa il proprio successo sulle tecnologie per l’utilizzo di fonti rinnovabili e investe, con ritorno, nella ricerca dell’efficienza energetica.
EnginSoft ha affiancato Uniconfort nello sviluppo di un nuovo
scambiatore di calore che recupera energia da biomassa. Da
questa collaborazione è nata la scelta di verificare l’efficacia di
alcune decisioni progettuali tramite la simulazione, riducendo
notevolmente i tempi per l’immissione sul mercato di questo
prodotto ed incrementandone la qualità e la durata.
Uniconfort produce impianti per la conversione energetica delle biomasse provenienti dall’industria agro-forestale, alimentare, dalla lavorazione del legno e dall’industria del pellet.
Propone impianti “chiavi in mano” di piccola e grande taglia
(da 24 a 5800kW) e vanta un centro ricerche interno specializzato, che studia ed esegue prove di combustione di biomasse
solide di tipo convenzionale e non convenzionale.
Di fronte alla necessità di sviluppare un impianto con componenti di nuova concezione, Uniconfort ha deciso di verificare la
validità del proprio progetto e di ottimizzare un componente
particolare, lo scambiatore che recupera energia dalla biomassa, tramite la simulazione fluidodinamica e meccanica.
Lo scambiatore in questione si trova all’uscita della camera di
combustione e trasferisce l’energia dai fumi a un secondo fluido, che permette poi la generazione di energia elettrica tramite una turbina.
L’investimento in ricerca e sviluppo ha come obiettivo quello
di proporre al mercato un prodotto che dia garanzie di efficienza in termini di scambio energetico e che sia a bassa manutenzione. Lo scambiatore infatti è soggetto ad elevate temperature che mettono alla prova la resistenza e la durata del compo-
Newsletter EnginSoft Year 8 n°2 -
the maximum displacements
and the creep behavior.
Both the CFD and the FE
analyses showed that the
general behavior of the
system is in line with
UNICONFORT expectations
and that some modifications
could further improve the
heat exchanger.
Fig. 2 - Velocity field (left) and
The improvements have the temperature field (right) from CFD
following objectives: increase simulation
the heat exchange, possibly
reduce the temperature peaks and increase the structure’s
resistance in order to assure a longer life of the system. An
important constraint is that the modifications may not
increase the cost of the heat exchanger.
CFD Analysis
The model involves two fluid domains: the combustion
products and the cold air circuits. Conjugate heat transfer is
included which also considers the conductive solid material of
the pipes.
The combustion products, which derive from biomass
combustion, flow from the main entrance into a series of
passages through four chambers, transferring energy to the
cold air which enters the domain from the opposite side.
The energy transfer is enhanced by the cross-flow pattern of
combustion products and cold air. A series of external
collectors and pipes connect each pipe rack in one chamber to
one in the next. Thermal insulation is assured by means of an
external structure made of refractory bricks.
Taking advantage of the regular geometry of the chambers, the
computational mesh is obtained from extrusion of a 2D mesh
pattern, thus limiting the number of elements and the
computational time. This is essential when using simulation as
a design tool used to compare different solutions and to select
the best one.
The simulation is carried out with ANSYS CFX. Turbulence is
solved using the Shear Stress Transport model. In addition, due
to the high temperatures inside the domain, thermal radiation
effects are considered. This is crucial to accurately resolve the
temperature peaks on the structure.
The combustion products are characterized with specific
properties provided by UNICONFORT. Particular care is reserved
for the definition of suitable values of heat transfer
coefficients to model the heat dispersed through the layers of
refractory bricks.
The analysis of velocity and pressure distributions shows that
there is an interaction between the cold flow and the structural
reinforcements inside the collectors. Pipes shaded by the
structural supports are characterized by lower flow rates and by
a slightly lower heat exchange.
Aiming at increasing the uniformity of the velocity distribution
inside the pipes, a second CFD simulation is performed
considering a series of modifications to the initial geometry.
27
nente, il quale, in caso di rottura, deve
essere sostituito con costi legati anche
all’arresto dell’impianto.
In questo contesto la simulazione permette di eseguire una sorta di “radiografia” del sistema e di individuare le cause di eventuali inefficienze, dovute per
esempio a zone di ristagno o maldistribuzione dei flussi, oppure a regioni con
temperature troppo elevate, che possono
pregiudicare la vita della struttura.
Prevenire questi problemi, lavorando sul prodotto in maniera
virtuale tramite la simulazione, significa costruire un prototipo e andare in camera di prova con maggiore confidenza sul
suo buon funzionamento.
Di conseguenza, il numero di correzioni da apportare al prototipo e il tempo necessario per arrivare al prodotto finale si riducono.
La simulazione quindi supporta la sperimentazione e aiuta ad
ottimizzare il progetto, con un impatto notevole sulla qualità
del prodotto e sul processo di progettazione.
Partiamo dal secondo punto, il processo di progettazione.
Di fronte ad un componente nuovo per concezione, dimensioni
e condizioni di lavoro, gli ingegneri di Uniconfort hanno deciso che prevedere il comportamento dello scambiatore, prima
ancora di costruire un prototipo, avrebbe potuto accorciare i
tempi di sviluppo e ridurne i costi.
Il normale processo progettuale prevede infatti la costruzione
di un prototipo dello scambiatore, la sua installazione in un
impianto pilota e il test, volto a determinare lo scambio di
energia, oltre che la resistenza e la vita del componente.
Quest’ultimo aspetto richiede tempi di prova particolarmente
lunghi e di conseguenza costi elevati.
Come detto la simulazione consente di eseguire in maniera virtuale le prove sullo scambiatore di calore.
Il beneficio, oltre ai costi ridotti, è una maggiore conoscenza
dei fenomeni che avvengono all’interno dello scambiatore.
Dal punto di vista pratico “vedere quello che avviene nello
scambiatore” significa capire come intervenire per migliorarlo,
perché le decisioni progettuali vengono prese sulla base di
un’analisi dettagliata del sistema.
Nel caso specifico, lo studio dello scambiatore di Uniconfort è
iniziato con l’analisi termo-fluidodinamica mediante ANSYSCFX. Il software permette di visualizzare l’andamento dei flussi nel componente e di calcolare la distribuzione di temperatura sulle pareti dei fasci tubieri interni e sulla struttura esterna.
Da queste informazioni sono state ricavate le prestazioni del
sistema in termini di uniformità dei flussi nei condotti e di calore scambiato tra i due fluidi, cioè la potenza recuperata dalla combustione della biomassa.
Come detto, l’obiettivo e il grande vantaggio della simulazione
non è la generazione di numeri, ma di conoscenza, la quale si
traduce in un intervento migliorativo sul prodotto.
In questo caso la visualizzazione dei flussi ha permesso di capire che una leggera modifica ai collettori dell’aria permette
una migliore distribuzione dei flussi stessi, con conseguente
beneficio sulla potenza recuperata.
28 - Newsletter EnginSoft Year 8 n°2
These modifications involve only the internal structural
supports inside the collectors, thus they do not have a relevant
impact on the manufacturing costs of the heat exchanger.
The modified geometry succeeds in enhancing the distribution
of the cold air inside the pipes, increasing the uniformity of
the flow by 30%. As a consequence, the overall power
exchanged in the system increases.
FE Analysis
FE analysis calculates the thermo-structural behavior of the
heat exchanger taking into consideration the pipes rack which
experiences the highest temperatures, that is the first one near
the combustion products inlet. The model includes the pipes
rack and the upper and lower collectors attached to it.
The calculation is performed with ANSYS MECHANICAL. The
analysis is multi-step with both material and geometric nonlinearity, large deflections and contacts. The material is steel,
considered as isotropic and elastic-perfectly plastic. Young’s
modulus and yield stress are functions of the material
temperature.
The objective here is to verify that maximum stress levels and
displacements are limited under a certain threshold and to
evaluate the creep behavior of the structure.
The structure stands on the refractory bricks, while applied
loads are the structure weight, an internal pressure and the
temperature distribution determined with the CFD simulation.
Hence a 1-way Fluid-Structure-Interaction is carried out
interpolating the CFD results onto the FE mesh.
Early post-processing underlines that stress is concentrated in
the upper and lower collectors. Due to this, a modified
geometry is proposed for these parts, with an increased
thickness for the collectors’ walls and additional
reinforcements above the upper collector.
Further simulations on the second geometry verify the
effectiveness of the proposed modifications in reducing
extension and magnitude of stress. Displacements are also
reduced and the creep behavior is improved.
Di comune accordo EnginSoft ed Uniconfort hanno deciso di
modificare i collettori e di ripetere la simulazione termo-fluidodinamica. L’analisi ha confermato una maggiore uniformità
dei flussi nel fascio tubiero del 30%.
Il passo successivo consiste nel trasferire le informazioni di
temperatura e pressione calcolate dall’analisi termo-fluidodinamica al modello strutturale.
In questo modo il modello strutturale utilizza le reali distribuzioni di pressione e temperatura come condizione di carico per
il fascio tubiero.
Un processo di analisi che coinvolge sia la parte fluidodinamica che quella strutturale riduce le semplificazioni e le assunzioni riguardo ai carichi agenti sulla struttura e avvicina i modelli virtuali alla realtà.
Il modello meccanico dello scambiatore ha consentito il calcolo delle deformazioni dei fasci tubieri, della resistenza della
struttura e ha fornito una stima della sua vita.
Come nel caso della
fluidodinamica,
di
fronte alla visualizzazione dello stato di
sollecitazione gli ingegneri di Uniconfort
hanno deciso di inserire alcuni rinforzi che
hanno aumentato la
resistenza ed hanno
allungato la vita dello
scambiatore.
Le modifiche proposte
tramite la simulazione
hanno avuto un impatto molto ridotto in Fig. 3 - Temperature field from CFD (left),
termini di costo, per- stresses and displacements results (right)
ché di lieve entità rispetto alla struttura complessiva, e sono state particolarmente efficienti, perché introdotte nella fase iniziale del progetto,
quando si ha ancora facilità di intervento.
Conclusions
A 1-way fluid-structure interaction study is carried out on a
heat exchanger used for heat recovery from biomass
combustion.
The temperature distribution on the structure is calculated
using a CFD model and is then transferred to a FE model for
stress and creep analyses.
Both the CFD and the FE simulations show that minor and lowcost modifications to the structure can improve both the heat
exchange efficiency and assure a longer life to the system.
The impact of simulation has been relevant not only for the
improvements achieved, but above all because of the
knowledge acquired by UNICONFORT about the phenomena that
determine the performance of their products.
L’investimento di Uniconfort è stato ripagato in termini di qualità dello scambiatore, che significa prestazioni elevate e garanzie di resistenza.
Conoscere il proprio prodotto e sapere come migliorarlo fornisce un ritorno economico e in termini di sicurezza e confidenza su ciò che Uniconfort propone ai propri clienti.
La capacità di “entrare dentro lo scambiatore” per vedere quello avviene ai flussi e alla struttura si è tradotto nella capacità
di intervenire per migliorare il progetto.
Non solo, la conoscenza acquisita diventa un patrimonio aziendale che permette di affrontare i progetti futuri da un gradino
superiore e diventa la base per continuare ad innovare e mantenere la propria posizione di mercato nel lungo termine.
Silvio Geremia - UNICONFORT
Davide Cerizza - EnginSoft
Massimo Galbiati - EnginSoft
Silvio Geremia - UNICONFORT
Davide Cerizza - EnginSoft
Massimo Galbiati - EnginSoft
Newsletter EnginSoft Year 8 n°2 -
29
ANSYS Composite Pre-Post v.13.0: lo
stato dell’arte nella progettazione e
nell’analisi delle strutture in materiale
composito
La struttura alla base di ACP permette infatti all’utente di
gestire in modo organico tutte le fasi dell’analisi numerica di
un componente in materiale composito.
Nella definizione dei materiali, è adesso possibile verificare
le proprietà del laminato risultante sulla base della teoria
classica della laminazione (fig. 2, diagramma polare, matrici
di rigidezza e deformabilità, …).
Fig. 1 – L’approccio Simulation–Driven
Fig. 2 – Proprietà materiali e laminati
Sin dalla sua prima introduzione, ANSYS Composite Prep-Post
(ACP) ha rivoluzionato definitivamente il processo di
progettazione avanzata ed analisi agli elementi finiti delle
strutture in materiale composito, integrando coerentemente
all’interno del progetto WB un’interfaccia intuitiva e
funzionale con tutti gli strumenti necessari alla previsione
accurata delle prestazioni in esercizio, tenendo conto degli
effetti del processo produttivo e mettendo a disposizione
modelli di analisi di ultima generazione (per es. thick-walled
curved laminates shell 3D stresses) con l’accuratezza
numerica garantita dai solutori ANSYS.
Nella nuova versione 13.0 di ACP, ANSYS potenzia
ulteriormente le capacità di analisi e la semplicità d’uso
permettendo di implementare ancora più facilmente una
procedura “simulation–driven” (Fig. 1) nello sviluppo di
nuovi prodotti realizzati in materiale composito o
nell’incremento delle prestazioni di quelli esistenti.
Fig. 3 – Definizione di un laminato asimmetrico
Fig. 4 – Analisi di drappabilità e calcolo dello sviluppo (flat wrap)
30 - Newsletter EnginSoft Year 8 n°2
La tecnologia “Oriented Element Set” permette di assegnare
correttamente il lay-up, a prescindere del sistema di
riferimento elementare, anche in presenza di laminati
asimmetrici (figura 3). L’analisi di drappabilità (con la
previsione del flat wrap ed il calcolo puntuale dell’angolo
corretto di stesura delle fibre rispetto al valore teorico, figura
4) permette di tenere conto degli effetti produttivi.
L’estrusione di modelli solidi è adesso ottenibile anche per
superfici complesse (cambi di curvatura) includendo le zone
di drop-off; inoltre nei laminati sandwich sono
automaticamente introducibili nel modello numerico (via
importazione diretta del cad) “core” realizzabili tramite
macchine a controllo numerico (figura 5).
Per quanto concerne la fase di post-processing, i risultati
sono accessibili in modo efficace (possibilità di comparare
più soluzioni e/o casi di carico), efficiente (“multi-scene”) e
completo (possibilità di individuare immediatamente la
regione critica sul modello 3D, figura 6) e, dalla versione
13.0, è possibile plottare, elemento per elemento (“Sampling
Elements”), lo stato tenso-deformativo e l’IRF (Inverse
Reserve Factor) nello spessore del laminato (Figura 1).
Fig. 5 – Estrusione del modello solido (in alto), definizione di un core a
spessore variabile (in basso)
In definitiva, ANSYS Composite Pre-Post definisce nuovi
standard di riferimento per quanto riguarda le analisi
numeriche di strutture in materiale composito, riducendo
l’incertezza in termini di prestazioni tra modello numerico e
prototipo sperimentale, aiutando l’utente a comprendere al
meglio l’intero processo progettuale (Figura 8).
Per maggiori informazioni:
Marco Spagnolo - EnginSoft
[email protected]
Fig. 7 – Esempio di post-processing tramite “Sampling Elements”
Fig. 6 – Individuazione della regione critica sul modello 3D (modalità di
failure)
Fig. 8 – Riscontro positivo nell’utilizzo di ACP
Newsletter EnginSoft Year 8 n°2 -
31
Tecniche di modellazione in Maxwell 14
1. Introduzione
Maxwell è il principale strumento del pacchetto software
ASYS per le analisi elettromagnetiche in bassa frequenza.
Abbiamo già avuto modo di sottolineare, nelle precedenti
newsletter, come l’integrazione di Maxwell all’interno della piattaforma ANSYS Workbench consenta di poter facilmente integrare all’ambiente di simulazione di Maxwell i
moduli termici e strutturali di ANSYS.
Nel presente testo vogliamo approfondire alcune tecniche
di modellazione a disposizione degli utenti di Maxwell.
In Maxwell si possono specificare gradi di libertà relativi
a moti rotatori o traslatori, ed è possibile all’interno della stessa simulazione definire 2 diversi oggetti mobili.
In Figura 1 questo concetto è applicato a due magneti
permanenti. Al magnete 1 si assegna una legge di moto sinusoidale rispetto al grado di libertà angolare. Al magnete 2 si assegna lo stesso grado di libertà, sebbene riferito
ad un sistema di riferimento cartesiano centrato sullo
stesso magnete 2, ma invece che una legge di moto vi si
attribuiscano delle proprietà di inerzia. Il risultato è la
Fig. 1 - Esempio di accoppiamento in transitorio temporale ai moti di corpo rigido, definizione di 2 magneti permanenti mobili.
2. Tecniche avanzate di modellazione:
Maxwell si presenta come una piattaforma semplice da utilizzare ma completa per quanto riguarda le tecniche di modellazione implementabili.
legge di moto con cui il magnete 2 si allinea al movimento del magnete 1.
2.2 Definizione di segnali di alimentazione nel dominio
del tempo.
In Maxwell è possibile definire il segnale di alimentazione
attraverso due metodologie differenti:
A. Con accoppiamento ad un modello circuitale esterno
definito nel Circuit Editor di Maxwell;
B. Mediante la definizione della forma d’onda del segnale
di alimentazione, sia attraverso una funzione definita
nel dominio del tempo che utilizzando una look-up
table in cui si indicano i valori assunti dal segnale in
2.1 Accoppiamento in transitorio temporale ai moti di
corpo rigido.
Il solutore transient di Maxwell consente di effettuare
analisi elettromagnetiche in accoppiamento temporale ai
moti di corpo rigido. Da un punto di vista strutturale l'accoppiamento avviene in Maxwell sul grado di libertà corrispondente al moto rigido e rappresenta una vera e propria
integrazione 2way. Tra l'altro, il fatto che questa integrazione avvenga su di un solo
grado di libertà strutturale,
permette di fatto questa integrazione. In tecnologie in
cui questo tipo di integrazione non avviene con i moti di corpo rigido, ma con
tutti i gradi di libertà strutturali, si ha un difficile accoppiamento magneto-strutturale, dovuto all'inevitabile
eccitazione dei modi propri
Fig. 2 - Esempio di forma d’onda in Maxwell esprimibile come combinazione di una funzione sinusoidale e di
della struttura.
un’eccitazione triangolare.
32 - Newsletter EnginSoft Year 8 n°2
In tali applicazioni una specifica attenzione è dedicata ad una particolare classe di materiali, quella dei ferromagnetici affetti dal ben noto fenomeno dell’isteresi magnetica da
cui dipendono direttamente le perdite per isteresi magnetica.
Fig. 3 - Esempio di forma d’onda esprimibile in Maxwell caratterizzata da una frequenza crescente
linearmente col tempo.
corrispondenza di diversi istanti
temporali.
In particolare, per quanto riguarda il
punto B, la definizione di una funzione nel tempo e di una table possono
coesistere all’interno della definizione
dello stesso segnale.
Una funzione sinusoidale ed un’eccitazione triangolare sono combinate insieme per dare il segnale di eccitazione di Figura 2.
Gli effetti della magnetizzazione di
un materiale dipendono dal tipo di
materiale stesso; l’intensità di tale
fenomeno viene quantificata tramite
il campo di induzione magnetica B.
L’espressione del campo magnetico B è data da:
dove con µ si indica la permeabilità magnetica del materiale mentre il campo H rappresenta il campo magnetico applicato. È possibile
classificare diversi materiali in funzione delle
proprietà magnetiche che essi presentano e
che sono legate ai valori assunti dalla permeabilità magnetica µ.
L’applicazione di un campo H ad un materiale
Fig. 4 - Ciclo di isteresi magnetica.
di questo tipo produce una sorta di memorizzazione fino ad un valore di saturazione di B, quando poi
L’espressione matematica che esprime la forma d’onda di
si riporta H verso lo zero o valori negativi, il materiale riFigura 2 è la seguente:
mane magnetizzato (Figura 4).
Imax*sin(2*pi*50*time)+pwl_periodic(ds1,time)
Nella Figura 4, oltre alla curva B-H, si osserva un’ulteriore
L’editing
in
interfaccia
dell’espressione:
curva indicata con J=f(H), tale curva è detta curva di mapwl_periodic(ds1,time), consente all’utente di accedere
gnetizzazione intrinseca e si ottiene sottraendo punto per
direttamente al menù di definizione dei dataset per impunto ad ogni valore di B il valore µ0H; J è legato ad M
mettere i punti relativi al periodo dell’eccitazione triangosecondo la relazione J=4πM.
lare considerata.
Il campo di induzione magnetica B può essere scritto coUn altro esempio è la forma d’onda di Figura 3.
me la somma del campo che si otterrebbe in ogni punto
In questo caso la funzione editata è la seguente:
dello spazio occupato dal materiale se si togliesse il maImax*sin(2*pi*(1250*time+50)*time
teriale stesso, più un campo di magnetizzazione propria:
che esprime una frequenza crescente linearmente col tempo.
ove con M si intende l’intensità di magnetizzazione, pro2.3 Curva BH normale ed intrinseca.
porzionale ad H e pari a:
In un vasto range di applicazioni ingegneristiche che vanno dall’analisi e progettazione di motori elettrici sempre
più efficienti, allo
studio e ottimizzazione dei trasformatori, o più in generale di macchine
che sfruttano i principi dell'elettromagnetismo legati ai
flussi variabili, particolare interesse è
rivolto alla scelta
dei materiali.
Fig. 5 - Definizione della curva B-H normale (sinistra) e intrinseca (destra)
Newsletter EnginSoft Year 8 n°2 -
33
2.4 Calcolo dell’induttanza nelle analisi transient e magnetostatiche.
Nel caso di analisi di tipo transient e di tipo magnetostatiche, il calcolo della matrice delle induttanze non può prescindere dalla linearità o
dalla non linearità dei materiali definiti nel modello,
Come mostrato in Figura 6, Maxwell consente di
calcolare la matrice delle induttanze per ciascun
time-step definito nel setup della simulazione.
Le dimensioni della matrice delle induttanze dipendono dal numero di avvolgimenti considerati, se N è il numero di windings allora la matrice ha dimensioni NxN e gli elementi saranno disponibili per successive elaborazioni in postprocessing o tramite il tool di ottimizzazione
embedded: Optimetrics.
Fig. 6 - Interfaccia di Maxwell14: calcolo della matrice delle induttanze nelle analisi
transient.
χm rappresenta la suscettività magnetica e misura l'intensità di magnetizzazione di un corpo indotta dalla presenza di un campo magnetico esterno H.
Dal punto di vista della simulazione numerica, al fine di
tener conto della dipendenza della magnetizzazione di un
materiale dalla temperatura e di calcolare le perdite è di
fondamentale importanza la corretta modellazione delle
proprietà magnetiche del materiale.
Come mostrato in Figura 7, Maxwell consente di
calcolare l’induttanza apparente e l’induttanza
incrementale o differenziale; la prima fornisce il flusso totale come funzione di tutte le sorgenti definite nel modello (corrente nei coil e magneti permanenti), mentre la differenziale fornisce la relazione tra la variazione del flusso
a fronte della variazione di corrente ed è legata al rapporto dB/dH che definisce la permeabilità magnetica.
Nel caso di materiali lineari i valori delle due quantità
coincidono.
A tal fine, dalla versione 14 di Maxwell è possibile definire sia la curva B-H normale che quella intrinseca del materiale, come mostrato in Figura 5.
Per maggiori informazioni
Emiliano D’Alessandro - EnginSoft
[email protected]
Maxwell consente pertanto di:
• Modellare magneti non permanenti non lineari partendo da valori di H pari a zero;
• Modellare magneti permanenti non lineari
partendo da valori di H
negativi definito nelle
tre componenti;
• Considerare come permanente un magnete la
cui curva BH è definita
nel terzo quadrante.
Alice Pellegrini - EnginSoft
[email protected]
Al fine di tener conto dell’effetto della temperatura
sulla magnetizzazione del
materiale, sarà altresì possibile applicare un modificatore termico sia alla permeabilità relativa che all’intensità della forza coercitiva.
Fig. 7 - Interfaccia di Maxwell14: calcolo dell’induttanza apparente e incrementale nelle analisi magnetostatiche.
34 - Newsletter EnginSoft Year 8 n°2
Flowmaster V7.8
Flowmaster system simulation software enables design
engineers and analysts to understand the complex internal
flow and thermal effects within fluid systems at the
concept stage and throughout the development process.
Flowmaster provides users with a greater understanding of
fluid systems much earlier, increasing quality and
performance while shortening the development cycle.
In May 2011, the new release V7.8 was launched. The
features developed for Flowmaster V7.8 are based on
extensive customer feedback and have been designed to
provide users with accurate and comprehensive software
for simulating complex fluid networks, improving accuracy
and reducing costs.
AutoPLANT, AVEVA PDMS and Intergraph SmartPlant 3D.
This becomes increasingly important as the size and
complexity of the system increases. Automating the
process in this way saves time and reduces the risk of
human error. This helps reduce the risk of error when
entering the data and will result in more efficient use of
engineers’ time by importing the data and allowing the
tool to create the network instead of an engineer
manually building the networks.
The GIS Import Tool provides users with an easy to use
interface enabling Shape Files to be imported directly into
Flowmaster without the need for recreation. The interface
Dr Alan Moore, Research and Development Director of
Flowmaster Ltd. says:
“Customer research played a tremendous role in the
development of Flowmaster V7.8. We spoke with many of
our customers to identify what their needs are, and
determine the features and functionalities most important
to them. The result is that Flowmaster V7.8 offers some of
the most advanced technology ever seen in the system CFD
market coupled with intuitive user-friendly features and
functionality.”
Developed with a particular focus on large plant and
piping operations, Flowmaster V7.8 boasts new
functionality including data wizards for Pipe Roughness
and Pipe Schedules, Additional Heat Transfer Options for
Multiple Pipe Layers, Flow Coefficient Curve Creator, new
Heat Exchangers and a new Rigorous Energy Balance
Solver for compressible problems. In addition, two new
Import Tools are available, one for 3D CAD Piping and a
second for GIS. The improved functionalities of
Flowmaster V7.8 reduce the need to spend time preprocessing data and thus reducing the risk of introducing
human error.
3D CAD Piping and GIS Import Tools
The 3D CAD Piping Import Tool provides engineers with an
easy to use interface which enables 3D CAD piping files to
be loaded directly into Flowmaster, utilizing component
mapping to reduce data entry time and minimize the risk
of error through an automated process.
The 3D CAD Piping Import tool automates the process of
creating the Flowmaster network based on work already
completed in other applications such as Bentley
Fig. 1 - Example of CAD piping model and 3D CAD Import Tool (courtesy of
Bentley AutoPLANT)
Newsletter EnginSoft Year 8 n°2 -
provides users with an opportunity to review the imported
information before a Flowmaster model is automatically
generated.
These two tools not only reduce timescales and costs, but
offer system analysts the opportunity to spend more time
running simulations to hone the optimum solution and
less time building the networks. This information can be
shared companywide, facilitated by the Flowmaster secure,
relational database.
Data Wizard for Pipe Roughness
A data wizard has been added that provides the user with
assistance in selecting an appropriate roughness value for
a pipe based on the pipe material and its condition such
as deterioration due to deposits, erosion, corrosion,
bacterial slimes and growths, and marine and fresh water
fouling.
Data Wizard for Pipe Schedules
A new data wizard has been added that allows users to set
pipe schedule specifications to calculate and populate
pipe data such as diameter, material type, and wall
thickness. This will help reduce the time spent preprocessing the data as well as reduce the risk of
introducing human error. The wizard contains default
schedules from the US, Europe, and Japan with a user
35
option to add additional schedules via comma separated
values (CSV) files.
Additional Heat Transfer Options for Pipes
Buried and partially buried pipes are fairly common in the
oil & gas industries. Flowmaster V7.8 introduces new
options for specifying heat transfer information for most
fully exposed, buried, and partially buried pipes. These
options allow the user to specify the conditions external
to the pipe including: burial depth, soil material, external
fluid, and external fluid velocity. Moreover, in Flowmaster
V7.8 it is now possible to specify up to three layers of
insulation at the pipes. Both these options greatly reduce
the pre-processing necessary for the user to calculate an
external heat transfer coefficient for use in Flowmaster,
though this is still an option.
Flow Coefficient Curve Creator
Within Flowmaster V7.8, all control valves have been
enhanced to allow the specification of flow coefficient
versus valve opening both in compressible and
incompressible analysis. Moreover, a new curve creator
tool has been added that allows users to set a single flow
coefficient value and valve opening, and select which type
of inherent flow characteristic to use, including: linear,
hyperbolic, quick opening and equal percentage. This
enables users to use a more common form of
manufacturers’ data without the need to convert to a loss
coefficient.
Rigorous Energy Balance Solver
Flowmaster V7.8 integrates the new Rigorous Energy
Solver for compressible analysis based on the balance of
energy in the form of enthalpy. This solver complements
the existing temperature based compressible solver and is
available to all customers with compressible analysis
capabilities as part of the standard compressible license.
Enhanced Fluid Properties
Flowmaster V7.8 also introduces the larger integration of
NIST REFPROP 9.0. This is a fluid database that is
maintained by the National Institute of Standards and
Technology in the USA and is considered one of the most
complete fluid property databases currently available.
Heat Exchangers
Flowmaster V7.8 delivers 40 new heat exchanger
components and each of these utilizes heat transfer
correlations from the VDI Heat Atlas, 1994 Edition, VDIGesellschaft Verfahrenstechnik U Chemieingenieurwesen.
Fig. 2 - Example of GIS model and GIS Import Tool.
For further information:
Alberto Deponti - EnginSoft
[email protected]
36 - Newsletter EnginSoft Year 8 n°2
MELiSSA PROJECT: Plant
Growing Environment
Characterization
The MELiSSA project is a development program of an artificial
ecosystem conceived as a tool to study and advance technology
for a future life support system required for long term manned
space missions. A critical issue for this kind of mission is the
sustenance of life. It requires supply of food, water and O2 and
removal of generated wastes. As the duration, distance and crew
size increase, so does the shipped mass and volume of food and
waste, leading to unaffordable mass transportation
requirements. The periodic resupply of basic life support
elements from the Earth is not a feasible solution since it’s
associated with high economical costs and risks. Hence the need
of a self-sustainable system able to treat, recover and recycle
edible mass, water and oxygen from human waste and carbon
dioxide.
Based on the principle of an aquatic ecosystem (see Figure 1),
the MELiSSA closed regenerative life support loop consists of
five interconnected compartments. In three of them, waste is
progressively broken down by fermentation processes. In the
fourth compartment, plants are grown to produce food, oxygen
and water. The fifth compartment is where the crew lives – rats
in the case of this experiment, and on real missions – the
astronauts. The schematic representation of five compartments
is shown in Figure 2.
Food Characterization: framework and objectives
Since the project start in 1989, a broad expertise in the various
life support areas has been built up among the organizations
involved. Still, food system development remains an area where
significant advances must yet be achieved. Food
characterization is the frame of activities within the Melissa
Project aimed at enabling an efficient engineering of food
sources. Challenging aspects of food characterization are:
• the choice of a cultivar for food production;
• the detailed characterization of the produced food;
• the characterization of the plant growing environment;
• a relevant data acquisition and management strategy.
Fig. 1 - MELiSSA Concept
Fig. 2 - Melissa closed life support loop
Since these aspects are strictly related, it is necessary to
conduct a multidisciplinary research. The key benefit of
integrating these researches into one framework is that, were
these researches to be developed individually or in a separate
framework, they would have a very limited benefit at the food
system level; however, when focused and combined as in food
characterization, together they simplify the design of new
regenerative life support systems capable of providing a stable
amount of crop-derived food with certified nutritional content.
EnginSoft’s task within Food Characterization
The main role of EnginSoft in the Food Characterization
activities is to bring a contribution to the characterization of
the plant growing environment, a key factor in order to
guarantee satisfactory conditions for food production. Typically,
plant growth chambers used for plant physiology research suffer
from a degree of environmental parameter heterogeneity which
could affect the yield in quality and quantity. Indeed, depending
on light intensity, temperature or air mixing rate, individual
crops will display different growth rates and composition at a
given sampling time. The modeling of the chamber hardware has
Newsletter EnginSoft Year 8 n°2 -
37
prototype hosted in the Chemical
Engineering Department of the Escola
Tècnica Superior d’Enginyeria (ETSE) of
the Universitat Autònoma de Barcelona
(UAB).
Fig. 3 - MPP HPC general layout
The HPC is composed of three main
functional areas as illustrated in Figure
3. The Growth Chamber features are
displayed in Figure 4. The air flow enters
from the inlet placed at the bottom of
the chamber (Figure 4D) and is directed
by a connection duct (Figure 4C) into
the plenum located on one of the side
walls. Then the air moves through the
grilles positioned on the upper side of
the plenum and flows into the growing volume. Finally it reaches
the outlet placed below the tray support (Figure 4D). Directly
connected to the Growth Chamber is the HVAC where air is
conditioned for temperature and humidity and re-circulated
inside the plant growing volume (see the general layout in
Figure 5A).
Finally, located at the top of the chamber is the lights
compartment made up of a lamp loft with two fans for
temperature control (see Figure 5B). Three lamps are placed
inside the loft and provide illumination to the plants through a
tempered glass roof.
In the following the analysis performed for each functional area
is discussed.
Fig. 4 - MPP HPC: Growth Chamber
the potential to give an insight into the phenomena leading to
non-homogenous growing condition and to provide suggestions
on how to mitigate it.
Growth Chamber
The purpose of the CFD analysis on this functional area is to
characterize the fluid dynamic field in the growth volume.
Indeed, as mentioned before, plant growth and crop yield are
very dependent on the climatic conditions experienced from
seeding to harvest. Growth chamber design should be geared
towards the minimization of the environmental stress on plants
and should guarantee a stable product quality.
Simulations are performed in dry conditions where the term
High Plant Chamber (HPC)
“dry” denotes that the plant presence is not taken into account.
The first activity carried out by the EnginSoft CFD team was the
Two geometrical configurations are analyzed. As shown in Figure
investigation of the fluid dynamic performance of the Melissa
6 the configurations differ in the presence or not of a deflector.
Pilot Plant HPC. The design and
construction of the chamber are the
result of close collaboration between
the staff of Angstrom Engineering and
the Controlled Environment Systems
Research Facility (CESRF) at the
University of Guelph.
The geometry of the air handling loop
is modeled according to the technical
drawing provided by the ESA and on
the basis of the measurements made
onsite during the visit to the chamber Fig. 5 - MPP HPC: Air Handling Unit and Lights Compartment
38 - Newsletter EnginSoft Year 8 n°2
index for the evaluation of the performance of the
chamber in terms of flow balancing, the relative
standard deviation (RSD) of the mass flow rate in
the air grilles is calculated (see Table 1). A lower
RSD indicates a more uniform flow distribution
which actually should induce a more homogeneous
growth condition for the plant. With a relative
standard deviation of 110% the configuration with
the deflector installed shows a better performance.
The airflow at plant level has two main objectives:
Fig. 6 - Analyzed configurations of the Growth Chamber: a) No deflector; b) Deflector installed. improving the mass transfer in the foliage and
cooling the plants from the lamps’ heat load.
Looking at Figure 7 it is possible to observe how the presence
Although sufficient mass transfer can be achieved with fairly low
of the deflector influences the velocity field in the plenum
flow rates, the discharge of the heating load coming from the
region. Without the deflector the air flow goes to the top of the
illumination system requires a suitable air recirculation. Hence
plenum and then moves in the lateral directions while, with the
the velocity field is constrained to be limited in magnitude in
deflector installed, the main part of the flow is forced to move
order to avoid stress on plants and uniformly distributed to
laterally when in contact with the perforated plate.
guarantee a good quality of the crop.
By using the same approach applied to the flow distribution at
The fluid dynamics in the growth volume is strictly related to the
the grille level, the velocity field in proximity of the trays is
velocity field in the plenum region since it
affects the distribution of the flow to the
air grilles. A balanced air distribution
results in a homogeneous air flow on the
plants. Assuming that in the optimal
scenario each air grille is responsible for
feeding 1/9 of air to the correspondent
sub-region of the chamber, the objective is
the balancing of the flow distribution on
the air grilles. In order to have a reliable Table 2 - Velocities and RSDs comparisons
evaluated. Nine planes have been placed in proximity of the top
of the trays in correspondence to each air grille. The planes’
locations are shown in the figure below.
As shown in Table 2, higher mean velocities are present on plane
6 and 7 of the configuration without the deflector. These values
are lower than the upper limit of 1[m/s] assumed to be the
threshold value for plant stress.
Table 1 - Relative standard deviation of Mass Flow rate in the air grilles
The obtained results fully agree with the ones given by the flow
rate distribution and confirm that the flow distribution is more
uniform in the configuration with the deflector installed.
Fig. 7 - Growth Chamber: velocity contours in the plenum region
HVAC
The HVAC is a critical area in the management of the closed life
support loop. Healthy and safe conditions of the plants in the
growth chamber are herein regulated. The CFD model aims to
assess the fluid dynamic performance and highlights critical
regions of the flow field.
Figure 10 displays the streamlines colored by pressure and
velocity. Recirculation regions are located upstream of the
cooler. It can be noticed that flow recirculation originates from
the presence of a strict elbow at the inlet of the chilling coils.
The elbow forces the flow to roughly turn before passing through
the water coils and gives rise to a shadow area close to the
topside of the cooler amplified by the inlet screen. High
pressure values are displayed in correspondence of the screen
where the flow runs into the cooler and stagnates.
Newsletter EnginSoft Year 8 n°2 -
39
range was discretized by using three bands, and Figure 12
shows the distribution of the irradiation flux at the glass
surface for each band.
Fig. 9 - Chamber: location of the reference planes
Fig. 10 - HVAC: streamlines
As a consequence of the flow recirculation, the velocity profiles
at the entrance and at the exit of the cooler are not uniform and
thus the heat transfer performance of the HVAC is reduced with
a negative impact on its efficiency.
Computational simulations gave important indications for the
improvement of the HVAC design.
Conclusions
The prospect for use of biologically based life support systems
rests on the development of a robust methodology for detailed
characterization of plant production. Since the Mars mission
requirement is to supply the crew for
approximately 1 year with a minimum
of 40% dry mass of in-situ harvested
plant food, the produced plants have
to be of guaranteed stable quality to
avoid long-term mission critical
nutritional and medical issues for the
crew members.
The results derived from the study of
the ground demonstrator MPP HPC
gave useful information on the actual growing conditions of the
plants which directly affect the quality of the harvested food.
Moreover the knowledge herein gained has been used in the
following activities of the Melissa Project to develop the design
of a new concept chamber named Plant Characterization Unit
Lights Compartment
The separation of the light compartment from the growth
chamber allows more efficient cooling with ventilation
systems that are more compact and less demanding of
power. Computational fluid dynamics coupled with the
radiant transport equation was used to assess the airflow
circulation, evaluate the temperature distribution in the
loft and obtain the light incident radiative flux at the
boundaries mainly in the glass regions.
Figure 11 reveals the details of the flow field within the
loft by means of the velocity streamlines. Due to the
geometrical (inlet and outlet mutual position) and the
physical parameters (mass flow at the inlet), recirculation Fig. 12 - Lights: wall irradiation fluxes at the glass surface
areas are inevitably present in the light loft.
Concerning radiation, it was taken into account following the
(PCU). This chamber is going to be used to characterize the
Montecarlo model. Indeed the electromagnetic radiation in the
relative performance of cultivars of the crops selected for food
visible range is a key factor for plant life, since visible light
production in a space based Food Production Unit (FPU).
allows the photosynthetic process to take place. Hence the
importance of characterizing this spectral region. The visible
For further information about Melissa Project, please visit:
http://www.esa.int/SPECIALS/Melissa/index.html
M. Nobili, L. Bucchieri
EnginSoft
A. Fossen, E. Peiro
Universität Autònoma de Barcelona
M. Weihreter, D. Van Der Straeten
Ghent University
Fig. 11 - Lights: streamlines
40 - Newsletter EnginSoft Year 8 n°2
EnginSoft Successfully Finishes the
NEWAC Project
ABOUT NEWAC
The ‘New Aero Engine Core Concepts’ (NEWAC) project was
set up in 2005. It formed part of a series of projects
including EEFAE, SILENCER and VITAL that were initiated
by the aero engine industry to satisfy society’s
continuously rising mobility needs while sparing the
environment and resources. Specific targets have been
into service. After five years of intensive collaborative
research work, NEWAC has developed numerous
technologies up to Technology Readiness Levels (TRL) of
three to five. Most of these technologies have proven their
maturity on rigs, and key constraints have been assessed.
Each of the four core concepts investigated in NEWAC has
demonstrated considerable potential to enhance the
efficiency of future aero-engines. Three combustion
concepts (LDI, PERM, LPP) have made considerable
progress within the NEWAC project and will be developed
to higher TRL in national and European research projects
like the LEMCOTEC project which is about to start in
autumn this year.
EnginSoft: ACTIVITY IN NEWAC
EnginSoft has been active with its CFD team in
combustion activities for aero-engines for more than a
decade. Particularly the team has been contributing in EC
funded research projects as well as several engineering
consultancies investigating reacting flows with different
physical models, with injection optimization studies and
finally focusing on low emissions.
Fig. 1 - PERM injection system
formulated by the Advisory Council for Aeronautics
Research in Europe (ACARE).
Fuel consumption, CO2 emissions and noise levels will
have to be cut in half by 2020 relative to year 2000
aircraft, while also slashing emissions of oxides of
nitrogen by 80 per cent. Regarding noise and NOx
emissions, future engines will need to contribute the
lion’s share to this reduction. The NEWAC technology
project addresses novel engine cycles permitting
quantum leap improvements and the necessary
technologies required to realize those concepts.
Aero engines that are in service today have
reached a mature status, combining first
of all safe design and operation with
environmental and economic issues.
To ensure that new engine designs
will satisfy the same standards
requires intensive and thus long
lasting and high risk investigations
before new designs may be introduced Fig. 2 - Complete combustor
Thanks to a wide expertise in CAE (process simulation,
CFD, optimization of design), EnginSoft was one of the 40
partners of NEWAC. The main role of EnginSoft in NEWAC
was in the combustion research group relative to the PERM
combustor, a contribution to the Computational Fluid
Dynamics design of Ultra Low NOx AVIO Single Annular
Combustor, by means of:
1 Flow field verification of an innovative injection system
called PERM, designed by the University of Karlsruhe and
Avio, applied for medium overall pressure ratios (20 < OPR
< 35): The device consists of a co-rotating
double swirler centripetal injector
Newsletter EnginSoft Year 8 n°2 -
(see Figure 1). This technology is intended to achieve
partial evaporation and rapid mixing within the combustor,
optimizing the location of the flame and the stability of the
lean system.
The purpose of CFD analysis and experimental tests on the
injection system is to identify the swirler working flow
function, and hence the mass flow required in order to
reduce emissions under the available pressurization
(depending on engine layout) and to verify that the
injection system provides good mixing and recirculation for
flame stability. In particular, the aim of this activity is to
point out any meaningful differences in the injection
system performance, depending on plenums sensitivity
(geometrical downstream chamber shape strongly affect air
distribution) and transient vs. steady state flow field.
2 Optimization of the external flow field of the Ultra Low
NOx combustor chamber, focusing on the optimization of
some specific components such as cowls and bleeds. In
particular, a preliminary 2D optimization study has been
performed to provide a general suggestion of the behavior
of the fluid upstream the combustor chamber due to
different cowl shapes. Then, the results derived from the 2D
study have been applied in a 3D investigation on a periodic
sector of the complete actual annular combustor (see 2).
The objective in this stage is to reach the best layout for
dilution holes in order to optimize the combustion process.
Acting on the holes’ diameter and position, it is possible to
Fig. 3 - Final results
41
change the air distribution and dilution flow diffusion:
these aspects contribute to creating a recirculation region
which guarantees flame stability as well as cooling.
3 Robust design of the combustion flow field in order to
verify the exhaust temperature and the NOx production was
finally performed (see Figure 3). This activity is split into
two stages: the first regards the CFD software validation on
a real experimental test campaign performed by ONERA; the
latter applies the models developed in the previous step to
the complete and final geometry, as built, of the annular
combustor.
In conclusion the PERM combustor with medium OPR
achieved the NOx target reduction set at 80% and was
fully tested and verified both on the ONERA and AVIO test
rigs. Therefore the initial challenge of strong emission
reduction was reached after 5 years of research,
computation and testing. Special thanks go to the
international team of experts who shared their knowledge
and supplied significant contributions throughout the
whole project.
For further information:
Alessandro Marini - EnginSoft
[email protected]
Lorenzo Bucchieri - EnginSoft
[email protected]
42 - Newsletter EnginSoft Year 8 n°2
Optimization? Do It with Scilab!
Several times in this Newsletter we have written about the
importance of optimization in companies’ daily activities.
We never miss the opportunity to stress the importance of
optimization and to explain how optimization can play a
significant role in the design cycle. When we talk about
optimization, we always refer to real-life applications, as
we know that our readers are interested in methods and
software for solving industrial cases. Particularly, we refer
to problems where multiple and nonlinear objectives are
involved.
In this article we will introduce you to Scilab1, a numerical
computing environment that should be considered as a
powerful
multiobjective
and
multidisciplinary
optimization software. Scilab is a high-level matrix
language with a syntax that is very similar to MATLAB®.
Exactly as MATLAB® does, Scilab allows the user to define
mathematical models and to connect to existing libraries.
As for MATLAB®2, optimization is an important topic for
Scilab. Scilab has the capabilities to solve both linear and
nonlinear
optimization
problems,
single
and
multiobjective, by means of a large collection of available
algorithms.
Here we are presenting an overall idea of the optimization
algorithms available in Scilab; the reader can find some
code that can be typed and used in the Scilab console to
verify the potential of this numerical computing
environment for solving very common industrial
optimization problems3.
Linear and nonlinear optimization
As our readers may already know, “optimize” means
selecting the best available option from a wide range of
possible choices. Doing this as a daily activity can be a
complex task as, potentially, a huge number of choices
should be tested when using a brute force approach. The
mathematical formulation of a general optimization
problem can be stated as follows:
(x1, …, xn) are the variables, the free parameters which
can vary in the domain S. Any time that k>1, we speak
about multiobjective optimization.
Graphical methods
Scilab is very helpful for solving daily optimization
problems even simply by means of a graphical method.
For example, suppose that you would like to find out the
minimum point of the Rosenbrock function. The contour
plot can be a visual aid to identify the optimal area. Start
up Scilab, copy the following Scilab script and you obtain
the plot in Figure 1.
function f=rosenbrockC(x1, x2)
x = [x1 x2];
f = 100.0 *(x(2)-x(1)^2)^2 + (1-x(1))^2;
endfunction
xdata = linspace(-2,2,100);
ydata = linspace(-2,2,100);
contour( xdata , ydata , rosenbrockC , [1 10 100 1000])
The contour plot can be the first step for finding an
optimal solution. By the way, solving an optimization
problem by means of graphical methods is only feasible
when we have a limited number of input variables (2 or
3). In all other cases we need to proceed further and use
numerical algorithms to find solutions.
Fig. 1 - Contour plot (left) and 3d plot (right) of the Rosenbrock function. With this chart we can identify that the minimum is in the region of the black
contour with label 1. These means that a good starting point for further investigations could be x=(0.5,0.5)
Newsletter EnginSoft Year 8 n°2 -
Optimization algorithms
A large collection of different numerical methods is
available for further investigations. There are tens of
optimization algorithms in Scilab, and each method can
be used to solve a specific problem according to the
number and smoothness of functions f, the number and
type of variables x, the number and type of constraints g.
Some methods can be more suitable for constrained
optimization, others may be better for convex problems,
others can be tailored for solving discrete problems.
Specific methods can be useful for solving quadratic
programming, nonlinear problems, nonlinear least squares,
nonlinear equations, multiobjective optimization, and
binary integer programming. Table 1 gives an overview of
the optimization algorithms available in Scilab. Many
other optimization methods are made available from the
community every day as external modules using the ATOMS
Portal, http://atoms.scilab.org/.
For showing the potentiality of Scilab as an optimization
tool, we can start from the most used optimization
43
function: optim. This command provides a set of
algorithms for nonlinear unconstrained and boundconstrained optimization problems.
Let’s see what happens if we use the optim function for
the previous problem:
function [ f , g, ind ] = rosenbrock ( x , ind )
f = 100*(x(2)-x(1)^2)^2+(1-x(1))^2;
g(1) = - 400. * ( x(2) - x(1)^2 ) * x(1) -2. * ( 1. - x(1) )
g(2) = 200. * ( x(2) - x(1)^2 )
endfunction
x0 = [-1.2 1];
[f, x] = optim(rosenbrock, x0);
// Display results4
mprintf("x = %s\n", strcat(string(x)," "));
mprintf("f = %e\n", f);
If we use x0=[-1.2 1] as initial point, the function
converges easily to the optimal point x*=[1,1] with f=0.0.
The previous example calculates both the value of the
Rosenbrock function and its gradient, as the gradient is
required by the optimization method. In many real case
applications, the gradient can be too complicated to be
computed or simply not available since the function is not
known and available only as a black-box from an external
function calculation. For this reason, Scilab has the ability
to compute the gradient using finite differences by means
of the function derivative or the function numdiff.
For example the following code define a function f and
compute the gradient on a specific point x.
function f=myfun(x)
f=x(1)*x(1)+x(1)*x(2)
endfunction
x=[5 8]
g=numdiff(myfun,x)
Fig. 2 - Convergence of the Nelder-Mead Simplex algorithms (fminsearch
function) on the Rosenbrock example.
These two functions (derivative and numdiff) can be used
together with optim to minimize problem where gradient
is too complicated to be programmed.
The optim function uses a quasi-Newton
method based on BFGS formula that is an
accurate algorithm for local optimization.
On the same example, we can even apply
a different optimization approach such as
the derivative-free Nelder-Mead Simplex
[1] that is implemented in the function
fminsearch. To do that we just have to
substitute the line:
[f, x] = optim(rosenbrock, x0);
With
[x,f] = fminsearch(rosenbrock, x0);
Table 1 - This table gives an overview of the optimization algorithms available in Scilab and the type
of optimization problems which can be solved. For the constraints columns, the letter “l” means
“linear”. For the problem size s,m,l indicate small, medium and large respectively that means less
than ten, tens or hundreds of variables
This Nelder-Mead Simplex algorithm,
starting from the same initial point,
44 - Newsletter EnginSoft Year 8 n°2
converges very closely to the optimal point and precisely
to x*=[1.000022 1.0000422] with f=8.177661e-010. This
shows that the second approach is less accurate than the
previous one: this is the price to pay in order to have a
more robust approach that is less influenced by noisy
functions and local optima.
Figure 2 shows the convergence of the Nelder-Mead
Simplex method on the Rosenbrock function.
It is important to say that, in the previous example, the
function is given by means of a Scilab script but this was
only done for simplicity. It is always possible to evaluate
the function f as an external function such as a C, Fortran
or Java program or external commercial solver.
Parameter identification using measured data
In this short paragraph we show a specific optimization
problem that is very common in engineering. We
demonstrate how fast and easy it can be to make a
parametric identification for nonlinear systems, based on
input/output data.
Suppose for example that we have a certain number of
measurements in the matrix X and the value of the output
in the vector Y. Suppose that we know the function
describing the model (FF) apart from a set of parameters
p and we would like to find out the value of those
parameters. It is sufficient to write few lines of Scilab
code to solve the problem:
//model with parameters p
function y=FF(x, p)
y=p(1)*(x-p(2))+p(3)*x.*x;
endfunction
Z=[Y;X];
//The criterion for evaluating the error
function e=G(p, z)
y=z(1),x=z(2);
e=y-FF(x,p),
endfunction
Fig. 3 - Optimization of the Rosenbrock function by means of a Genetic
Algorithm. Initial random population is in yellow, final population is in red
and converges to the real optimal solution.
algorithms are largely used in real-world problems as well
as in a number of engineering applications that are hard
to solve with “classical” methods.
Using the genetic algorithms in Scilab is very simple: in a
few lines it is possible to set the required parameters such
as the number of generations, the population size, the
probability of cross-over and mutation. Fig. 3 shows a
single objective genetic algorithm optim_ga on the
Rosenbrock function. Twenty initial random points (in
yellow) evolve through 50 generations towards the
optimal point. The final generation is plotted in red.
Multiobjective
Scilab is not only for single objective problems. It can
easily deal with multiobjective optimization problems.
Just to list one of the available methods, Scilab users can
take advantage of the NSGA-II. NSGA-II is the second
version of the famous “Non-dominated Sorting Genetic
Algorithm” based on the work of Prof. Kalyanmoy Deb [3].
//Solve the problem giving an initial guess for p
p0=[1;2;3]
[p,err]=datafit(G,Z,p0);
This method is very fast and efficient, it can find
parameters for a high number of input/output data.
Moreover it can take into consideration parameters’
bounds and weights for points.
Evolutionary Algorithms: Genetic and Multiobjective
Genetic algorithms [2] are search methods based on the
mechanics of natural evolution and selection. These
methods are widely used for solving highly non-linear
real-life problems because of their ability to remain robust
even against noisy functions and local optima. Genetic
Fig. 4 - ZDT1 problem solved with the Scilab’s NSGA-II optimization
algorithm. Red points on the top represents the initial populations, black
points on the bottom the final Pareto population. The solid line represents
the Pareto frontier that, in this specific example, is a continuous convex
solution.
Newsletter EnginSoft Year 8 n°2 -
NSGA-II is a fast and elitist multiobjective evolutionary
algorithm.
Figure 4 shows a multiobjective optimization run with
NSGA-II using the test problem ZDT1. The test problem
states:
function f=zdt1(x)
f1_x1 = x(:,1);
g_x2 = 1 + 9 * ((x(:,2)-x(:,1)).^2);
h
= 1 - sqrt(f1_x1 ./ g_x2);
45
Solving the cutting stock problem: reducing the waste
The cutting stock problem is a very common optimization
problem in industries and it is economically significant. It
consists on finding the optimal way of cutting a semiprocessed product into different sizes in order to satisfy a
set of customers’ demands by using the material in the
most efficient way. This type of problem arises very often
in industries and can involve a variety of different goals
such as minimizing the costs, minimizing the number of
f(:,1) = f1_x1;
f(:,2) = g_x2 .* h;
endfunction
With the ZDT1 we want to minimize both f1 and f2: this
means that we are dealing with a multiobjective problem.
With these problems, the notion of optimal solutions
changes. A multiobjective optimization does not produce
a unique solution but a set of solutions. These solutions
are named non-dominated5 or Pareto solutions, the set of
solutions can be called Pareto frontier.
Figure 4 shows the solutions given by the Scilab’s NSGAII optimization algorithm for solving the ZDT1 problem.
Red points on the top are the initial random populations,
black points on the bottom the final Pareto population.
The solid line represents the actual Pareto frontier that, in
this specific example, is a continuous convex solution and
is known. In this example, the concept of Pareto
dominance is clear.
Red points on the top are dominated by black points on
the bottom because red points are worse than black points
with respect to both objectives f1 and f2. On the contrary,
all black points on the bottom figure are not dominating
each other, and we may say in this case that all the black
points represent the set of efficient solutions.
To understand how Scilab recognizes the importance of
multiobjective optimization, we can even note that it has
an internal function named pareto_filter that is able to
filter non-dominated solutions on large set of data.
X_in=rand(1000,2);
F_in=zdt1(X_in);
[F_out,X_out,Ind_out] = pareto_filter(F_in,X_in)
drawlater;
plot(F_in(:,1),F_in(:,2),'.r')
plot(F_out(:,1),F_out(:,2),'.b')
drawnow;
The previous code generates 1,000 random input values,
evaluates the zdt1 function and computes the nondominated solutions. The last four lines of the code
generate the following chart (Figure 6) with all the points
in red and the Pareto points in blue.
Fig. 5 - zdt1 function evaluate on 1,000 random points. Blue points are
non-dominated Pareto solutions. The code for selecting the Pareto solution is
reported in the text. The main function to be used is “pareto_filter”.
cuts, minimizing the waste of material and consequently
costs, and so on. Whatever the target is, it is always true
that small improvements in the cutting layout can result
in remarkable savings of material and considerable
reduction in production costs.
In this section we will show how to solve a onedimensional (1D) cutting stock problem with Scilab.
Solving a 1D cutting stock problem is less complex than
solving a 2D cutting stock problem (e.g. cutting
rectangles from a sheet), nevertheless it represents an
interesting and common problem. The 1D problem can
arise, for example, in the construction industries where
steel bars are needed in specified quantities and lengths
and are cut from existing long bars with standard lengths.
It is well-known that cutting losses are perhaps the most
significant cause of waste. Suppose now that you are
working for a company producing pipes that have usually
a fixed length waiting to be cut. These tubes are to be cut
into different lengths to meet customers’ requests. How
can we cut the tubes in order to minimize the total waste?
The mathematical formulation for the 1D cutting stock
problems can be:
Where, i is the index of the patterns, j the index of the
lengths, xi are the number of cutting patterns i (decision
46 - Newsletter EnginSoft Year 8 n°2
variables) and ci are the costs of the pattern i. A=(aij) the
matrix of all possible patterns and qj the customers’
requests. We may say that the value aij indicates the
number of pieces of length j within one pipe cut in the
pattern i. The goal of this model is to minimize the
objective function which consists of the total costs of the
cutting phase. If ci is equal to 1 for all the patterns, the
goal corresponds to the total number of pipes required to
accomplish the requirements.
Let’s make a practical example and solve it with Scilab.
Suppose that we have 3 possible sizes, 55mm, 26mm, and
24mm in which we can cut the original pipe of 100 mm.
The possible patterns are:
1. One cut of type one and one of type two and zero of
type three [1 1 0]
2. One cut of type one and one of type three [1 0 1]
3. Two cut of type two and two of type three [0 2 2]
These patterns define the matrix A. Then we have the
costs that are 4, 3 and 1 for the pattern 1, 2 and 3
respectively. The total request from the customers are:
150 pieces of length 55mm, 200 with length equal to
26mm and 300 pieces with length 24mm.
For solving this problem in Scilab we can use this script.
//pattern
aij=[ 1 1 0;
1 0 1;
0 2 2];
//costs
ci=[4; 3; 1];
//request
qj=[150; 200; 300];
xopt = karmarkar(aij',qj,ci)
Running this script with Scilab you obtain xopt=[25, 125,
87.5], this means that to satisfy the requests reducing the
total number of pipes we have to cut 25 times the pattern
(1), 125 times with pattern (2) and 87.5 times the pattern
(3).
We show here a simple case with only three different
requests and three different patterns. The problem can be
much more complicated, with many more options, many
different dimensions, costs and requests. It may include
the maximum number of cuts on a single piece, it may
require a bit of effort in generating the list of feasible
patterns (i.e. the matrix A). All these difficulties can be
coded with Scilab and the logic behind the approach
remains the same.
The previous script uses the Karmarkar’s algorithm [4] to
solve this linear problem. The result gives an output that
is not an integer solution, hence we need to approximate
because we cannot cut 87.5 pipes with the third pattern.
This approximated solution can be improved with another
different optimization algorithm, for example evaluating
the nearest integer solutions or using a more robust
genetic algorithm. But even if we stop with the first step
and we round off the solution, we have a good reduction
of waste.
Conclusions
As the solution of the cutting stock problem
demonstrates, Scilab is not just an educational tool but a
product for solving real industrial problems. The cutting
stock problem is a common issue in industries, and a good
solution can result in remarkable savings. By the way, in
this article we presented only a small subset of the
possibilities that a Scilab user can have for solving realworld problems.
For the sake of simplicity, this paper shows only very
trivial functions that have been used for the purpose of
making a short and general tutorial. Obviously these
simple functions can be substituted by more complex and
time consuming ones such as FEM solvers or other external
simulation codes.
MATLAB users have probably recognized the similarities
between the commercial software and Scilab. We hope all
other readers have not been scared by the fact that
problems and methods should be written down as scripts.
Once the logic is clear, writing down scripts can result in
an agile and exciting activity.
For more information and for the original version of Scilab
scripts:
Silvia Poles – EnginSoft
[email protected]
References
[1] Nelder, John A.; R. Mead (1965). "A simplex method
for function minimization". Computer Journal 7:
308–313
[2] David E. Goldberg. Genetic Algorithms in Search,
Optimization & Machine Learning. Addison-Wesley,
1989.
[3] N. Srinivas and Kalyanmoy Deb. Multiobjective
optimization using nondominated sorting in genetic
algorithms. Evolutionary Computation, 2:221{248,
1994
[4] Narendra Karmarkar (1984). "A New Polynomial Time
Algorithm for Linear Programming", Combinatorica, Vol
4, nr. 4, p. 373–395.
1
Download Scilab for free at http://www.scilab.org/
2
MATLAB is a registered trademark of The MathWorks, Inc
3
Contact the author for the original version of the Scilab
scripts
4
The symbol “//” indicates a comment
5
By definition we say that the design a dominates b if [f1(a)
<= f1(b) and f2(a) <= f2(b)...and fk(a) <= fk(b)], for all the
f and [f1(a) < f1(b) or f2(a) < f2(b)...or fk(a) < fk(b)] for at
least one f
Newsletter EnginSoft Year 8 n°2 -
47
Weather Forecasting with Scilab
The weather is probably one of the most discussed topics
all around the world. People are always interested in
weather forecasts, and our life is strongly influenced by
the weather conditions. Let us just think of the farmer and
his harvest or of the happy family who wants to spend a
weekend on the beach, and we understand that there
could be thousands of good reasons to be interested in
knowing the weather conditions in advance.
This probably explains why, normally, the weather forecast
is the most awaited moment by the public in a television
newscast.
Sun, wind, rain, temperature… the weather seems to be
unpredictable, especially when we consider extreme
events. Man has always tried to develop techniques to
master this topic, but practically only after the Second
World War the scientific approach together with the
advent of the media have allowed a large diffusion of
reliable weather forecasts.
To succeed in forecasting, it is mandatory to have a
collection of measurements of the most important
physical indicators which can be used to define the
weather in some relevant points of a region at different
times. Then, we certainly need a reliable mathematical
model which is able to predict the values of the weather
indicators at points and times where no direct
measurements are available.
Nowadays, very sophisticated models are used to forecast
the weather conditions, based on registered
measurements such as the temperature, the atmospheric
pressure, the air humidity as so forth.
It is quite obvious that the larger the dataset of
measurements the better the prediction: this is the reason
why the institutions involved in monitoring
and forecasting the weather usually have a
large number of stations spread on the
terrain, opportunely positioned to capture
relevant information.
This is the case of Meteo Trentino (see [3]),
which manages a network of measurement
stations in Trentino region and provides
daily weather forecasts.
Among the large amount of interesting
information we can find in their website,
there are the temperature maps, where the
predicted temperature at the terrain level for
the Trentino province is reported for a
chosen instant. These maps are based on a
set of measurements available from the
stations: an algorithm is able to predict the temperature
field in all the points within the region and, therefore, to
plot a temperature map.
We do not know the algorithm that Meteo Trentino uses to
build these maps, but we would like to set up our own
procedure able to obtain similar results. To this aim, we
decided to use Scilab (see [1]) as a platform to develop
such a predictive model and gmsh (see [2]) as a tool to
display the results.
Probably one of the most popular algorithms in the geosciences domain used to interpolate data is Kriging (see
[5]). This algorithm has the notable advantage of exactly
interpolating known data; it is also able to potentially
capture non-linear responses and, finally, to provide an
estimation of the prediction error. This valuable last
feature could be used, for example, to choose in an
optimal way the position of new measurement stations on
the terrain.
Scilab has an external toolbox available through ATOMS,
named DACE (which stands for Design and Analysis of
Computer Experiments), which implements the Kriging
algorithm. This obviously allows us to implement more
rapidly our procedure because we can use the toolbox as
a sort of black-box, avoiding in this way spending time
implementing a non-trivial algorithm.
The weather data
We decided to download from [3] all the available
temperatures reported by the measurement stations. As a
result we have 102 formatted text files (an example is
given in Figure 1) containing the maximum, the minimum
and the mean temperature with a timestep of one hour.
In our work we only consider the “good” values of the
Fig. 1 - The hourly temperature measures for the Moena station: the mean, the minimum and the
maximum values are reported together with the quality of the measure.
48 - Newsletter EnginSoft Year 8 n°2
mean temperature: there is actually an additional column
which contains the quality of the reported measure which
could be “good”, “uncertain”, “not validated” and
“missing”.
The terrain data
Another important piece of information we need is the
“orography” of the region under exam. In other words we
need to have a set of triplets giving the latitude, the
longitude and the elevation of the terrain. This last
information is mandatory to build a temperature map at
Fig. 2 - An example of the DTM file formatted to the ESRI standard. The
matrix contains the elevation of a grid of points whose position is given
with reference to the Gauss Boaga Roma 40 system.
the terrain level.
To this aim we downloaded the DTM (Digital Terrain Model)
files available in [4] which, summed all together, contain
a very fine grid of points (with a 40 meters step both in
latitude and longitude) of the Trentino province. These
files are formatted according to the ESRI standard and
they refer to the Gauss Boaga Roma 40 system.
Set up the procedure and the DACE toolbox
We decided to translate all the terrain information to the
UTM WGS84 system in order to have a unique reference for
our data. This operation can be done just once and the
results stored in a new dataset to speed up the following
computations.
Then we have to extract from the temperature files the
available data for a given instant, chosen by the user, and
Fig. 4 - 6th May 2010 at 17:00. Top: the predicted temperature at the
terrain level using Kriging is plotted. The temperature follows very closely the
height on the sea level. Bottom: the temperature map predicted using a
linear model relating the temperature to the height. At a first glance these
plots could appear exactly equal: this is not exact, actually slight differences
are present especially in the valleys.
Fig. 3 - The information contained into one DTM file is graphically rendered. As a results we obtain a plot
of the terrain.
store them. With these data we are
able to build a Kriging model, thanks
to the DACE toolbox. Once the model
is available, we can ask for the
temperature at all the points
belonging to the terrain grid defined
in the DTM files and plot the obtained
results.
One interesting feature of the Kriging
algorithm is that it is able to provide
an expected deviation from the
prediction. This means that we can
have an idea of the degree to which
our prediction is reliable and
eventually estimate a possible range
Newsletter EnginSoft Year 8 n°2 -
Fig. 5 - 6th May 2010 at 17:00. The measured temperatures are plotted versus the height on the sea
level. The linear regression line, plotted in red, seems to be a good approximation: the temperature
decreases 0.756 [°C] every 100 [m] of height.
49
the linear model is appropriate to
capture the relation between the
temperature and the height. If we
compare the results obtained with
Kriging and this last approach some
differences appear, especially down in
the valleys: the Kriging model seems to
give more detailed results.
If we consider January 20th, the
temperature can no longer be computed
as a function of only the terrain height.
It immediately appears, looking at
Figure 8, that there are large deviations
from a pure linear correlation between
the temperature and the height. The
Kriging model, whose result is drawn in
Figure 7, is able to capture also local
of variation: this is quite interesting when forecasting an
environmental temperature.
Some results
We chose two different days of 2010 (the 6th of May,
17:00 and the 20th of January, 08:00) and ran our
procedure to build the temperature maps.
In Figure 5 the measured temperatures at the 6th of May
are plotted versus the height on the sea level of the
stations. It can be seen that a linear model can be
considered as a good model to fit the data. We can
conclude that the temperature decreases linearly with the
height of around 0.756 [°C] every 100 [m]. For this reason
one could be tempted to use such model to predict the
temperature at the terrain level: the result of this
prediction, which is reported in Figure 4, is as accurate as
Fig. 6 - 6th May 2010 at 17:00. The estimated error in predicting the
temperature field with Kriging is plotted. The measurement stations are
reported on the map with a code number: it can be seen that the smallest
errors are registered close to the 39 stations while, as expected, the highest
estimated errors are typical of zones where no measure is available.
Fig. 7 - 20th January 2010 at 08:00. Top: the predicted temperature with
the Kriging model at the terrain level is plotted. Globally, the temperature
still follows the height on the sea level but locally this trend is not
respected. Bottom: the temperature map predicted using a linear model
relating the temperature to the height.
50 - Newsletter EnginSoft Year 8 n°2
starting from a set of measurements
and from information regarding the
terrain of the region.
We have shown that the Kriging
algorithm can be used to get an
estimated value and an expected
variation around it: this is a very
interesting feature which can be used
to give a reliability indication of the
prevision.
Fig. 8 - 20th January 2010 at 08:00. The measured temperatures are plotted versus the height on the
sea level. The linear regression line, plotted in red, says that the temperature decreases 0.309 [°C]
every 100 [m] of height but it seems not to be a good approximation in this case; there are actually
very large deviations from the linear trend.
This approach could be used also with
other atmospheric indicators, such as
the air pressure, the humidity and so
forth.
References
[1] http://www.scilab.org/ to have more information on
Scilab.
[2] The Gmsh can be freely downloaded from:
http://www.geuz.org/gmsh/
[3] The official website of Meteo Trentino is
http://www.meteotrentino.it from where the
temperature data used in this work has been
downloaded.
[4] The DTM files have been downloaded from the official
website of Servizio Urbanistica e Tutela del Paesaggio
http://www.urbanistica.provincia.tn.it/
sez_siat/siat_urbanistica/pagina83.html.
[5] Søren N. Lophaven, Hans Bruun Nielsen, Jacob
Søndergaard, DACE A Matlab Kriging Toolbox, download
from http://www2.imm.dtu.dk/~hbn/dace/dace.pdf.
Fig. 9 - 20th January 2010 at 08:00. The estimated error in predicting the
temperature field with the Kriging technique is plotted. The measurement
stations are reported on the map with a code number: it can be seen that
the smallest errors are registered close to the 38 stations.
Contacts
For more information on this document please contact the
author:
Massimiliano Margonari - EnginSoft S.p.A.
[email protected]
positive or negative peaks in the
temperature field, which cannot be
predicted otherwise.
In this case, however, it can be
seen that the estimated error
(Figure 9) is larger than the one
obtained for 17th of May (Figure
6): this lets us imagine that the
temperature is in this case much
more difficult to capture correctly.
Conclusions
In this work it has been shown how
to use Scilab and its DACE toolbox
to forecast the temperature field
Fig. 10 - 20th January 2010 at 08:00. The estimated temperature using Kriging: a detail of the Gruppo
Brenta. The black vertical bars reports the positions of the meteorological stations.
Newsletter EnginSoft Year 8 n°2 -
51
Il processo di stampaggio a caldo di acciaio in stampi chiusi è stato storicamente uno dei primi processi investigati attraverso le tecniche di simulazione numerica. Il principale
motivo risale ad un elevato grado di ripetitibilità ed una
“massiva” produzione dell’ordine di qualche centinaia o migliaia di pezzi durante la quale tutti i parametri di processo,
quali ad esempio il riscaldo in forno, il trasferimento, la cinematica della pressa e la lubrificazione, possono essere
mantenuti pressoché costanti. In questo tipo di processo i tipici difetti di ripiega o mancanza di riempimento si presentano normalmente in modo sistematico. Essi sono spesso riconducibili ad una scelta non ideale delle condizioni iniziali
di stampaggio quali la dimensioni e posizione della barra di
partenza, oppure, nel caso di processi in più operazioni, dovuti ad una scelta non corretta della stazione di preformatura. Proprio la preformatura ha come obiettivo lo spostamento opportuno del materiale in prossimità delle aree massive
del pezzo forgiato finito per agevolare le operazioni successive con il minor flusso e deformazione possibile del materiale. Per ottenere questo risultato nella pratica si possono utilizzare delle macchine quali dei magli a formare, rollatrici assiali o tangenziali, oppure altre macchine a cinematica più
complessa con più azioni. Terminata la fase di finitura, i pezzi vengono normalmente sbavati e/o tranciati (eccetto i pochi particolari producibili near-net-shape), talvolta ritorti
e/o coniati che infine vengono sottoposti a trattamento termico di tempra o bonifica.
Nel caso di formatura al maglio o mediante pressa a vite ove
i particolari siano molto massivi o sia necessario formare in
più colpi, è necessario definire anche tutti i raffreddamenti
(in aria o a contatto con lo stampo) tra le fasi. Risolti i problemi di qualità del pezzo, sarà infine possibile quantificare
la forza necessaria per ottenere la geometria voluta e quindi
verificare lo stato di sollecitazione sugli stampi, con l’obiettivo di identificare le zone più critiche a rischio di rottura in
modo da migliorare nel complesso il processo di produzione.
L’obiettivo di questo articolo è presentare una rassegna di applicazioni industriali reali, nei quali il software Forge, prodotto da Transvalor S.A. e distribuito in Italia da EnginSoft, ha
permesso di ottenere dei miglioramenti sensibili della qualità dei pezzi prodotti, oltre che una riduzione del materiale in
bava. Molti degli esempi che verranno mostrati fanno parte
dell’esperienza accumulata dai tecnici di EnginSoft in oltre
15 anni di attività di consulenza e supporto nel settore dello stampaggio. Quali sono gli aspetti che rendono Forge lo
strumento adatto alla simulazione del processo di stampaggio a caldo di acciaio? Normalmente gli stampi hanno una
forma anche molto complessa e provengono da CAD anche
molto diversi: Forge garantisce la massima compatibilità nell’importazione, attraverso i formati stl o step ed il rapido ottenimento di superfici adatte alla simulazione attraverso meshatori 2D e 3D rapidi e precisi. Secondo aspetto, la conoscenza del materiale in funzione delle temperature e velocità di deformazione: Forge ha un database di oltre 800 leghe
ferrose e non, dove sono definite le funzioni sforzo-deformazione elasto-visco-plastiche dei materiali alla temperatura di
stampaggio. Per quanto riguarda il contatto pezzo-stampi, in
Le caratteristiche meccaniche finali del prodotto sono la conseguenza di tutte le fasi sommariamente descritte in precedenza. A questo riguardo, per essere efficiente, uno strumento di simulazione deve essere in grado di consentire l’impostazione
“a-priori” di tutta la sequenza di
stampaggio, in modo da effettuare il
trasferimento delle informazioni (deformazione e temperature) in modo
automatico tra le fasi. Questo aspetto risulta essenziale infine se si voglia ottenere una ottimizzazione automatica del processo di stampaggio,
tema che affronteremo in chiusura.
Un esempio di una sequenza complessa di formatura, nello specifico di
un mozzo, è mostrato in fig. 1.
Fig. 1 – mozzo – sequenza complessa - la simulazione è molto prossima alla realtà
SIMULAZIONE DI PROCESSO PER OTTENERE COMPONENTI STAMPATI DI QUALITÀ
Ottimizzare il processo per ottenere dei
componenti stampati di elevata qualità:
esperienze di simulazione di stampaggio a
caldo di acciaio con pressa o maglio
52 - Newsletter EnginSoft Year 8 n°2
Forge sono implementate le leggi di attrito e di scambio termico validate mediante confronto con la realtà, con la possibilità di applicare lubrificazioni o riscaldi localizzati del pezzo. Per quanto riguarda la definizione della cinematica, è
possibile sfruttare un database completo di presse meccaniche tradizionali, a ginocchiera, link-drive, magli semplici, a
doppio effetto, a contraccolpo, preformatrici assiali e tangenziali, ma si possono anche definire presse innovative con
azionamenti a piacere di tutti gli stampi ed i punzoni. Tale
flessibilità non va però a scapito della semplicità d’uso: per
ogni tipologia di processo sono presenti un template ed un
help on-line che li rende di semplice ed immediato apprendimento. Iniziamo quindi il nostro percorso attraverso le varie fasi necessarie ad ottenere un pezzo stampato a caldo.
Fasi pre-formatura: riscaldo in forno e
tranciatura della billetta
Il riscaldo del materiale avviene in forno a gas o
forno ad induzione e può essere effettuata prima
o dopo il taglio della billetta. Normalmente questa fase non viene simulata, in quanto si assume
che la billetta esca dal forno ad una temperatura
costante (1150-1250°C per l’acciaio), impostando
quindi tale temperatura come condizione iniziale
delle operazioni successive. In alcuni casi è tut-
Operazioni di preformatura
La preformatura della barra può avvenire con delle semplici
fasi di ricalcatura verticale o piegatura, oppure mediante
macchine con rulli in rotazione, in grado di spostare il materiale nelle zone dove il pezzo da produrre deve essere più
massivo. Nelle fig. 4 e 5 due esempi di preformatura per rollatura. Spesso si preferisce non effettuare la simulazione anche di queste fasi e partire quindi dalla billetta rollata, per
la cui definizione è stata sviluppata in Forge una funzione
ad-hoc, che come vedremo verrà utilizzata nell’esempio conclusivo di ottimizzazione.
Fig. 4 - preformatura per rollatura tangenziale
Fig. 5 - preformatura per rollatura assiale
Operazioni di finitura
La caratteristica principale dello stampaggio a
caldo in stampi chiusi è la ripetibilità, che si
ottiene innanzitutto garantendo una posizione univoca della barra nello stampo. Questo
non è sempre facile quando si utilizza una billetta cilindrica e quindi la simulazione della
stabilizzazione della stessa per gravità, con o
senza accorgimenti (fig. 6), può avere notevole interesse.
Fig 2 – riscaldo estremità barra preformata
Fig 3 – taglio a caldo di una billetta
Gli stampi di finitura ricalcano fedelmente, in
negativo, il pezzo da produrre, quindi è fondamentale in quetavia necessario impostare un riscaldamento del materiale
sta fase andare a valutare se il riempimento dell’impronta è
solo in una determinata zona, quella che poi verrà effettivacompleto o vi sono della mancanze. Nella fig. 7 è mostrato
mente deformata. Nella fig. 2 è mostrato il riscaldamento
un albero a gomiti, per il quale nelle zone rosse sono evidendifferenziato della barra. Allo stesso modo, la fase di tranciaziate le mancanze di riempimento nell’impronta. Il grosso
tura della billetta normalmente non viene simulata, a meno
vantaggio della simulazione è che consente di “mettere la teche i difetti riscontrati sul pezzo reale, oppure una ripiega laterale in fase di ricalcatura,
non siano riconducibili ad
una forma iniziale non regolare della billetta.
Solo in questi casi si ricorre
alla simulazione della tranciatura della billetta, che
viene effettuata abilitando
in Forge le funzioni di danneggiamento del materiale,
con il risultato mostrato in
fig. 3.
Fig 6. – appoggio per gravità – sedi
ricavate su stampo inferiore
Fig. 7 – albero a gomiti – mancanze di riempimento dell’impronta (in rosso)
Newsletter EnginSoft Year 8 n°2 -
sta tra gli stampi” e capire, istante dopo istante, come il materiale viene deformato e quindi il motivo della formazione
delle mancanze o delle ripieghe. È nelle fasi di formatura che
la maggior parte dei difetti viene originata, motivo per cui di
seguito saranno illustrati alcuni esempi pratici di previsione
di difetti.
53
Corona: la lavorazione meccanica effettuata sul pezzo evidenzia una ripiega di materiale in una posizione ben definita. L’analisi della fibratura e l’utilizzo di superfici traccianti
(vedi Fig. 10) ha consentito di valutare come si muove il materiale, comprendendo la causa del difetto ed intervenendo
quindi in modo opportuno per eliminarlo.
Ipotesi A – viene alzata la
cartella centrale.
NO, richiede rifacimento stampi.
Ipotesi B – modifica del raggio
di curvatura.
OK, si può fresare la curvatura.
Fig. 8 – corpo riduttore– analisi del difetto e contromisure verificate con la
simulazione.
ticipato la parte inferiore del pezzo. Durante il riempimento
della parte superiore si genera quindi uno scorrimento di materiale lungo una direzione privilegiata, che richiama verso
l’interno l’acciaio della superficie. Sono stati valutati due
possibili interventi, entrambi in grado di ridurre questo effetto: uno spostamento verso l’alto della cartella, scartato in
quanto avrebbe comportato il rifacimento completo degli
stampi, oppure un raggio inferiore maggiore, accettato in
quanto comportava unicamente una fresatura dello stampo,
che era già stato realizzato. In fig. 8. sono mostrati i risultati di questo studio.
Fig. 10 – corona – grazie alle fibre ed alle superfici traccianti il difetto
sottopelle viene individuato.
Albero a gomiti: per questo particolare è stato richiesto di
certificare che la parte centrale della billetta, notoriamente
con caratteristiche inferiori al resto, non andasse a interferire con una zona che viene successivamente lavorata alla macchina utensile (indicato in rosso in fig. 11). È stata applicata, a-posteriori rispetto alla simulazione di stampaggio, una
superficie cilindrica in corrispondenza del cuore della barra
per seguirne la deformazione durante tutto il processo di
stampaggio. La simulazione ha mostrato come la zona di interesse non sia attraversata dal cuore della billetta. La corrispondenza molto elevata con il test reale a partire da una billetta bi-materiale ha reso pratica comune utilizzare questo
Mozzo ruota: come risulta evidente in fig. 9, il materiale
tende a riempire la flangia inferiore troppo in anticipo rispetto al completamento dell’estrusione verso il mozzo. Il mate-
Fig. 9 – mozzo ruota – la simulazione evidenzia i motivi di formazione della
ripega.
riale viene quindi richiamato verso la bava e trascina con se
il materiale interno, formando la ripiega riscontrata nel pezzo reale. L’analisi della simulazione ha consentito di calibrare il processo per evitare la formazione del difetto.
Fig. 11 – albero a gomiti – deformazione della zona centrale e confronto con
la realtà.
SIMULAZIONE DI PROCESSO PER OTTENERE COMPONENTI STAMPATI DI QUALITÀ
Corpo riduttore: in questo particolare assialsimmetrico,
stampato in due passaggi mediante maglio a contraccolpo, si
è riscontrato in fase di tranciatura del foro un difetto nella
parte inferiore. La simulazione ha consentito, attraverso
l’analisi delle velocità e delle fibre, di comprendere che il difetto si origina a causa del materiale che riempie in modo an-
54 - Newsletter EnginSoft Year 8 n°2
approccio per la validazione di tutti gli alberi simili prodotti.
Valvola biomedicale: quando i prodotti sono destinati a settori particolari, quali ad esempio l'industria farmaceutica, la
qualità richiesta è assoluta ed ogni imperfezione potrebbe
dar luogo a non conformità disastrose. Forge ha permesso di
individuare una ripiega insidiosa (vedi fig. 12) e sviluppare
una modifica dello stampo in grado di eliminare il difetto.
Fig. 12 – valvola biomedicale – pezzo reale con difetto di stampaggio,
evidenziato e risolto con Forge.
Protesi d’anca: lo stampaggio di un particolare biomedicale,
quale una protesi d’anca, richiede materiali particolari (es. titanio) ed un processo in grado di eliminare ogni tipo di difetto. Per la tracciatura dei difetti, il programma è stato recentemente migliorato, aggiungendo al risultato “folds”, in
grado di indicare le zone soggette a ripiega, un nuovo risultato “auto-contact” che, tramite dei traccianti generati in
automatico, consente di valutare forma, dimensioni e quindi
Fig. 13 – protesi d’anca in Ti – la ripiega rimane nel pezzo e non esce
completamente in bava.
profondità di una ripiega, indicando se il processo è in grado di portare il difetto verso la bava o se questo rimane nella zona d’impronta. Nella fig. 13 è mostrata una protesi d’anca in titanio, nella quale la ripiega non è completamente
esterna all’impronta.
Cappello valvola: per questo ultimo particolare l’analisi ha
avuto come obiettivo il risparmio di materiale. Mediante la
Fig. 14 – cappello valvola – risparmio del 25% di materiale.
simulazione di differenti ipotesi iniziali di billetta si è ottenuto un risparmio di ben 1kg rispetto ai 4.6kg iniziali, pari
ad un 25% di materiale, come evidenzia la fig. 14.
Tranciatura, sbavatura, foratura
Terminata la fase di formatura, normalmente il pezzo viene
tranciato e/o forato. Può essere utile simulare anche questa
operazione se si riscontrano sul pezzo della distorsioni di forma importanti o delle ricalcature di materiale. Forge consente di impostare a piacere il movimento degli utensili di trancia e di valutare, abilitando le funzioni di danneggiamento
del materiale, come
avviene la rottura del
materiale, fornendo
anche la forza necessaria per la tranciatura stessa. Nella fig.
15 è mostrato il processo di tranciatura
contemporanea delle
bave e del fondello Fig. 15 – semirullo in acciaio – tranciatura
per un semirullo in delle bave e del fondello.
acciaio.
Trattamento termico di tempra
Completate le operazioni di formatura del materiale, il particolare viene temprato per migliorarne le caratteristiche meccaniche e la durezza. La tempra può avvenire secondo diverse modalità, ma sostanzialmente consiste in un riscaldamento del pezzo alla temperatura di austenitizzazione, seguito da
un brusco raffreddamento in un mezzo opportuno in grado di
indurre le trasformazioni di fase nell’acciaio e la formazione
di martensite nelle zone che necessitano di maggiore durez-
Fig. 16 – albero a gomiti – in rosso le zone con microstruttura
martensitica.
za e proprietà meccaniche. La tempra deve essere effettuata
in maniera controllata, in quanto l’espansione del reticolo
cristallino legata alla formazione di martensite può portare,
soprattutto in particolari lunghi quali gli alberi, ad una distorsione macroscopica per flessione degli stessi. Per quanto
riguarda la simulazione, è possibile studiare sia la fase di austenitizzazione che di tempra dal punto di vista termico con
un modello meccanico-termico-microstrutturale accoppiato
legato alle curve TTT del materiale, per determinare correttamente le fasi che si vengono a formare, le relative distorsioni e la durezza finale del particolare, come è mostrato in fig.
16.
Analisi del carico pressa e dei carichi sugli stampi
Una volta messo a punto il pezzo è utile valutare le azioni
sulla pressa e sugli stampi, per capire se la linea che abbia-
Newsletter EnginSoft Year 8 n°2 -
Albero bicilindrico: l’analisi della risultante sugli stampi
evidenzia come nella sezione longitudinale la risultante sia
allineata rispetto al centro stampi, mentre nella sezione trasversale vi sia un disallineamento legato al fatto che il pezzo risulta più lungo da un lato (fig. 17). Questo nella realtà
provoca delle misure in chiusura non corrette la cui causa è
difficile da individuare. La simulazione ha mostrato questo
effetto di momento torcente sulla pressa in grado di influenzare le misure in chiusura. Una volta individuato il motivo,
l’azione di torsione è stata annullata con una revisione dello
stampo in grado di centrare la risultante degli sforzi a cuore
del porta stampo.
stampo e portastampo. La simulazione ha consentito di valutare il valore e le componenti della forza risultante sugli
stampi. Sono state considerate diverse geometrie, identiche
in termini di impronta, ma differenti per quanto riguarda l’inclinazione dei piani degli stampi ottimizzandone la calibrazione in modo da contrastare la componente orizzontale della forza. La configurazione scelta ha consentito di ridurre la
componente orizzontale da 1800 a 600 tonnellate, come mostrato in fig. 18, con un deciso allungamento della vita degli stampi.
Albero a gomiti: in alcune configurazioni gli stampi denotano una rottura prematura in zone ben specifiche come nel caso illustrato in fig. 19. Mediante una rapida simulazione della deformazione elastica subita dagli stampi per effetto degli
sforzi trasferiti dal pezzo, è possibile individuare le zone
Fig. 19 – albero a gomiti – l’analisi degli stampi evidenzia le zone a rischio
di rottura.
Fig. 17 – albero bicilindrico – la risultante degli sforzi nella sezione
trasversale genera una torsione.
maggiormente sollecitate. Il confronto tra differenti configurazioni di stampaggio consente quindi, a parità di scala, di
valutare le soluzioni più efficaci per ridurre il sovraccarico e
portare quindi la configurazione ad un incremento spesso infinito della vita degli stampi. In altri casi si riscontra una
Suola per cingoli: la produzione di suole per cingoli generalmente è ottenuta per tranciatura e punzonatura, ma per tipi
di forma complessa è necessario ricorrere allo stampaggio,
con preformatura su pressa idraulica e finitura sulla maxipressa. La sezione delle suole si sviluppa generalmente su tre piani inclinati da cui deriva la nascita di forze orizzontali molto
pericolose per la vita degli stampi e dei portastampi. Nella
versione originale si è disposta la figura della suola nel modo tradizionale, con il piano centrale parallelo al piano degli
stampi. Tale soluzione origina nella realtà delle componenti
orizzontali in grado di rompere le chiavette di fissaggio tra
Fig. 20 – albero a gomiti – l’analisi degli stampi evidenzia i setti a rischio di
flessione.
Fig. 18 – suola per cingoli – la modifica dell’inclinazione del piano di sformo
riduce dell’80% le tensioni tangenziali sugli stampi
flessione dei setti tale da originare, dopo un certo numero di
particolari stampati, una rottura per fatica dei setti stessi.
Anche in questo caso la simulazione della deformazione degli stampi, come mostra la fig. 20, è in grado di evidenziare
i setti soggetti a flessione ed il confronto tra diverse configurazioni, a parità di scala, consente di individuare quella
più efficace.
SIMULAZIONE DI PROCESSO PER OTTENERE COMPONENTI STAMPATI DI QUALITÀ
mo a disposizione è in grado di produrre effettivamente il
particolare, se la pressa lavora bilanciata e se gli sforzi sugli
stampi non siano eccessivi. Alcuni risultati sono disponibili
in Forge già con le analisi semplificate a stampi “rigidi”,
mentre per risultati avanzati è necessario ricorrere all’analisi
elastica degli stampi considerati deformabili durante lo stampaggio.
A seguire vengono riportati alcuni esempi di valutazioni possibili mediante l’analisi dei risultati sugli stampi.
55
56 - Newsletter EnginSoft Year 8 n°2
Ottimizzazione automatica
Ogni modifica che si apporta in fase di progettazione ha come fine quello di migliorare la qualità del particolare prodotto e minimizzare il materiale in eccesso. La metodologia tradizionale è basata sul trial-and-error e le prove vengono effettuate dopo aver lavorato gli stampi con delle campionature, che necessitano di fermi macchina e spesso delle revisioni anche pesanti degli stampi, fino al loro completo rifaci-
camente la configurazione migliore di stampaggio.
L’operatore definisce gli obiettivi dell’analisi ed i vincoli definendo un range di variabilità dei parametri utili al software per effettuare una prima serie di simulazioni. Le soluzioni
dominanti con i risultati migliori in termini di obiettivi saranno i campioni favorevoli per la creazione di nuove generazioni, che si ottengono automaticamente attraverso algoritmi genetici, che convergono verso la soluzione ottimale ro-
Fig. 21 – albero a gomiti – l’ottimizzazione consente un risparmio di materiale e preserva gli stampi.
mento in alcuni casi. L’avvento della simulazione, utilizzata
inizialmente per valutare a priori le singole operazioni di
stampaggio o successivamente delle sequenze di operazioni,
ha ridotto in modo sensibile le prove in macchina, ma ogni
modifica nella configurazione o nei parametri di processo richiede sempre l’intervento diretto del progettista. Il software Forge ha introdotto recentemente uno strumento in grado
di lasciare al programma il compito di individuare automati-
La versione 2011 di Forge, il cui rilascio è previsto a giugno, vedrà implementate tutta una serie di migliorie nei modelli relativi
ai vari processi produttivi ed ai risultati ottenibili con la simulazione, suggerite anche da EnginSoft e dagli utenti italiani:
EnginSoft stessa ha curato la traduzione completa di Forge in italiano, una feature richiesta da molti utenti. Tra le principali novità che verranno introdotte la principale è però il “report manager”, in grado di generare in automatico un report di calcolo in
formato MS Word, MS Powerpoint o HTML, mantenendo il template definito dall’utente e generando le pagine in base ai contenuti selezionati in fase di analisi dei risultati. Tale strumento consentirà quindi una drastica riduzione del tempo necessario alla
produzione di documentazione, da archiviare poi per usi futuri.
Continua inoltre lo sviluppo dell’ottimizzatore automatico di
Forge, con esempi pratici di utilizzo anche nello specifico ambito
dello stampaggio a caldo di acciaio.
busta. In questa sede si vuole solo portare un esempio di ottimizzazione automatica di un particolare complesso quale
uno degli alberi a gomiti descritti in precedenza (vedi fig.
21).
Il processo si divide in tre operazioni: una rollatura iniziale,
la cui geometria viene generata in Forge grazie al modulo descritto in precedenza, una sbozzatura ed una finitura (seguite da tranciatura e trattamento termico, che non sono state
oggetto dell’ottimizzazione). Il tecnico ha indicato i range di
variabilità del diametro maggiore della barra rollata e della
sua lunghezza con l’obiettivo di minimizzare il volume necessario per ottenere il completo riempimento dell’impronta ed
una assenza di ripieghe. Forge ha raggiunto l’obiettivo in soli 7 passaggi, consentendo una riduzione di peso da 160 Kg
a 141 Kg, una riduzione del carico pressa in finitura del 20%,
che localmente ha migliorato le condizioni di carico e di usura degli stampi allungandone notevolmente la vita utile.
Le tecniche di ottimizzazione possono essere anche adottate
per diversi scopi come ad esempio la calibrazione dei parametri del materiale mediante analisi inversa.
Conclusioni
La presente panoramica ha evidenziato come oggi sia possibile simulare tutte le operazioni necessarie alla produzione di
un particolare in acciaio stampato a caldo in stampi chiusi,
incluse le fasi di tranciatura e trattamento termico. I principali vantaggi dell’introduzione di Forge come strumento di riferimento per la progettazione dei processi di forgiatura a
caldo di acciaio sono la possibilità di valutare a priori, a tendere ancora in fase di preventivazione, la realizzabilità di un
particolare, minimizzando il materiale in bava.
Con la simulazione si eliminano quasi completamente gli aggiustamenti necessari quando si mette a punto un nuovo pro-
Newsletter EnginSoft Year 8 n°2 -
L’acquisto del software Forge e il know-how che l’azienda acquisisce con la formazione specifica di EnginSoft costituiscono un vantaggio competitivo che ha immediate ricadute con-
Dichiarazioni di utilizzatori di
Forge nello stampaggio a caldo di
acciaio in stampi chiusi
FEAT GROUP
L'introduzione di Forge in
Feat risale al 2003, quando i
test effettuati ci hanno convinto che questo tipo di software potesse aiutarci ad ottenere risparmi di materia prima e un approccio più metodico alla progettazione degli stampi
con conseguente codifica del know-how aziendale acquisito.
L'utilizzo delle simulazioni è diventato un passaggio d'uso comune
ogni volta che vogliamo studiare una nuova famiglia di prodotto
oppure re-ingegnerizzare uno stampato esistente. È ormai diventata una prassi per tutto lo staff tecnico, incontrarsi in sala corsi per
potere analizzare e discutere in team le simulazioni sviluppate. Da
soddisfazione vedere i responsabili di produzione essere oggi i primi a voler simulare prima di emettere una quotazione o definire
un'attrezzatura. Riteniamo che Forge ci abbia aiutato ad ottenere
benefici sensibili nei seguenti campi: riduzione sfrido, prevenzione
problematiche di stampaggio, individuazione difettologie come
mancato riempimento, cricche o ripieghe, analisi dell'andamento
delle fibre, robotizzazione della movimentazione, vita stampi. Il
beneficio più importante è stato quello di stimolare il lavoro di
gruppo, con un linguaggio scientifico comune per integrare le varie competenze in soluzioni innovative. Il supporto di EnginSoft,
attraverso l’assistenza telefonica ed affiancamenti dedicati, è fondamentale per essere aggiornati sui miglioramenti dello strumento
e ci consente di applicarlo a problemi nuovi e sempre più complessi.
crete sul miglioramento del proprio modo di produrre, consentendo un rapido ammortamento dell’investimento necessario. EnginSoft ha una esperienza di oltre 15 anni nell’utilizzo di Forge ed è in grado di ascoltare le più svariate esigenze provenienti dalle industrie e rispondere con delle soluzioni su misura, dai servizi alla formazione, base ed avanzata, all’uso del software, agli affiancamenti on-job.
Per informazioni, rivolgersi a:
Ing. Marcello Gabrielli – EnginSoft
[email protected]
RIGANTI
L'uso di magli di medie-grandi
dimensioni è una delle caratteristiche che distinguono il prodotto Riganti ed il software Forge è
stato personalizzato ed implementato secondo le particolari
necessità del processo di formatura con magli a contraccolpo e
doppio effetto. Il continuo affinamento del programma ha reso i risultati delle simulazioni sempre più realistici, rendendo Forge insostituibile sia in fase di valutazione preventiva che nella fase di ottimizzazione. Possiamo dire
che l'esperienza analitico-scientifica con Forge non sostituisce
completamente la conoscenza pratica dell'esperto forgiatore, ma la
affianca e la sostiene, dando logica e spiegazione ad un patrimonio quasi esoterico, frutto di tramandate conoscenze e di svariati
anni di lavoro sul campo, legate però al singolo individuo e non al
know-how aziendale.
L'uso di Forge si è rivelato fondamentale nell'esame di fattibilità
preventiva dando così modo alla parte commerciale di esplorare
nuovi mercati e nuove tipologie di prodotto, con la sicurezza di
soddisfare una fornitura, anche al limite delle possibilità produttive dei magli a disposizione.
Forge si è dimostrato indispensabile sia per l'ottimizzazione di
commesse ad elevato numero di pezzi, ma ancor di più per lotti di
produzione con basso numero di particolari di grossa dimensione,
per i quali non è fattibile una fase di prototipazione e per i quali
un errore progettuale è inaccettabile, per il grosso dispendio economico e per i conseguenti ritardi nella consegna dei pezzi.
Il dott. Marco Riganti ci ha detto: “Ho visitato la Transvalor nel
1999 per rendermi conto personalmente del livello tecnico di questa azienda e del suo software Forge, prima di deciderne l’acquisto. L’impressione di eccellenza che ne ricavai allora si è confermata negli anni e per questo continuo a sostenere l’importanza di
questa scelta per il progresso della mia azienda. Il continuo lavoro di sviluppo del programma, a cura di Transvalor, e l'assistenza
continua di EnginSoft nell’implementazione di progetti sempre più
complessi, sono elemento essenziale per utilizzare quotidianamente questo strumento e trarne il massimo vantaggio”, dichiarano
Dario Bressan, responsabile dell’Ufficio Tecnico, e Franco
Cermisoni, l’utilizzatore del programma.
SIMULAZIONE DI PROCESSO PER OTTENERE COMPONENTI STAMPATI DI QUALITÀ
cesso, evitando i costi relativi alla lavorazione di stampi prototipo e i fermi macchina necessari per la campionatura. Se
le simulazioni sono fatte a-posteriori, ogni modifica apportata agli stampi ed il relativo effetto sulla qualità del pezzo sono valutabili senza la necessità di costosi test fisici sotto la
pressa. L’introduzione di Forge in ufficio tecnico consente infatti una profonda comprensione delle dinamiche di flusso del
materiale tra gli stampi e delle criticità del proprio processo.
Risolvere una problematica attraverso la simulazione consente ai tecnici di acquistare via via una maggiore sicurezza nell’affrontare famiglie di prodotti simili, ma anche di fare delle
valutazioni, ancora in fase di preventivazione, delle criticità
di nuovi particolari da produrre: tutte le esperienze fatte con
il software possono infatti essere archiviate e diventano patrimonio dell’azienda, utile anche a far crescere rapidamente
delle nuove figure che andranno via via ad integrare e poi sostituire le figure storiche esperte di stampaggio.
57
58 - Newsletter EnginSoft Year 8 n°2
GNUTTI CIRILLO
Elevato standard qualitativo,
orgogliosamente “Made in Italy”
La Gnutti Cirillo S.p.A.
azienda capogruppo di
Gnutti Group situata a
Lumezzane (Bs) e ad Odolo
(Bs), nasce nel 1951 ed
acquisisce negli anni la
posizione di leader nel
settore dello stampaggio a caldo dell’ottone, delle leghe
speciali e delle lavorazioni meccaniche, con una batteria di 37
presse e 5 macchine automatiche Hatebur. Gli elevati standard
tecnologici e qualitativi, il know-how maturato in oltre
sessant’anni di esperienza, mettono in grado l’azienda di
L’analisi dei contatti e le avanzate funzioni per l’individuazione
e la tracciatura delle ripieghe hanno evidenziato con precisione
i difetti riscontrati nella realtà.
È stata quindi acquistata una prima licenza del programma con
la quale i tecnici hanno seguito il corso base di formazione, a
cura di EnginSoft, e sono iniziate le prime attività di
simulazione. La facilità di utilizzo e la flessibilità dello
strumento hanno consentito fin da subito di impostare
configurazioni complesse con diversi punzoni, il cui movimento
è stato legato alla discesa del pacco stampi contro il cuscino:
configurazioni a forare e in campana sono state impostate
senza difficoltà. I risultati ottenuti per i diversi casi affrontati
hanno consentito di seguire passo-passo il flusso del
materiale tra gli stampi, valutando i motivi delle
ripieghe e suggerendo modifiche che hanno risolto “in
virtuale” gran parte dei problemi riscontrati, eliminando
le fasi di lavorazione degli stampi e di test in macchina:
gli stampi e la sequenza di produzione sono stati
deliberati solo una volta che questi problemi sono stati
risolti con la simulazione Forge.
rispondere
adeguatamente
a
qualsiasi esigenza che può spaziare
dall’elaborazione di un progetto
specifico, alla realizzazione del più
sofisticato dei prodotti, richiesto
dalla clientela. Questo ha permesso
alla Gnutti Cirillo S.p.a. di acquisire
la posizione di leader europeo nelle
lavorazioni dell’ottone OEM, con
oltre 33.000 tonnellate di ottone
forgiato ogni anno: si producono particolari da 10gr a 30kg.
Perché EnginSoft e Forge in Gnutti Cirillo
S.p.A.?
L’esigenza di utilizzare un software di
simulazione dello stampaggio quale Forge,
è nata per affrontare con maggiore
sicurezza particolari sempre più complicati
e difficili da realizzare. La possibilità di
prevedere i problemi e di risolverli a priori
è stata giudicata uno strumento
fondamentale per migliorare la fase di coprogettazione con il cliente e risparmiare nelle fasi di
campionatura. La competenza e la professionalità mostrata dai
tecnici di EnginSoft fin dai primi test sulla geometria campione
è stata poi pienamente confermata durante il corso di
formazione e negli affiancamenti: è importante poter contare su
un supporto di qualità, che garantisca un aiuto nell’analisi dei
risultati e nell’impostazione di casi non standard.
L’utilizzo di Forge nella progettazione
Origine della filiera produttiva sono la progettazione e la
realizzazione direttamente negli stabilimenti di Lumezzane
degli stampi, delle matrici di tranciatura e di tutte le
attrezzature che sono utilizzate nelle successive fasi di
lavorazione. L’elevata competenza tecnica permette di
soddisfare qualsiasi richiesta, di realizzare prodotti dalla fase di
progettazione fino alla produzione offrendo un completo
supporto tecnico nel corso di questo processo (co-engineering).
La necessità di rispondere con rapidità e precisione alle
richieste anche più complesse dei propri clienti ha portato
Gnutti Cirillo a valutare il software Forge per la simulazione del
processo di forgiatura: un caso critico, che nella realtà
produttiva mostrava delle mancanze e delle ripieghe è stato
affidato ad EnginSoft, che l’ha impostato e risolto con Forge.
Newsletter EnginSoft Year 8 n°2 -
59
Tohoku, the beauty of Japan
*Tohoku means ”east-north”, the
region comprises 6 prefectures:
Aomori, Iwate, Miyagi, Akita,
Yamagata and Fukushima which
are located in the northeast of
Japan’s main island. Iwate, Miyagi
and Fukushima on the Pacific side
have been the worst affected by
the disaster of March 11, 2011.
May 2011. It has been 2 months
since the terrible earthquake
disaster hit the east of Japan. It
claimed the lives of many
Fig.1 - Sunrise at Matsushima in
Japanese people within moments. Miyagi
Normally, we would think that 2
months later, rehabilitation and reconstruction activities would
be moving forward. However, the truth is that a lot of problems
have arisen concerning the reconstruction of Tohoku that has
suffered 3 catastrophes: a major earthquake, a tsunami and a
nuclear accident. More than 120,000 are forced to live as
evacuees for a longer period of time. Far more people are in
distress after having lost their families, homes and jobs. The
disasters have also caused serious damage and problems to
several industries including the agricultural and fishing sectors.
Moreover, the manufacturing industries express their severe
concerns about the consequences of the crisis because of the
direct damage to their factories and the component supply
chain, and the persisting electricity shortage. In this situation,
I have been thinking about what I should convey to the readers
of the Japan Column. Now, the Japanese are starting to think
“We do what we can to the best of our ability” to help the
people in the affected areas. This made me think that I should
write about the beautiful Japanese culture. Beyond beauty, one
of the topics of this Japan Column is time. I hope that that all
our readers understand Japan in a deeper way and wish to visit
us in the future. While I write I am praying for Tohoku.
First of all, I would like to thank the EnginSoft Team and the
readers of this Newsletter for caring about Japan and for their
help. I can’t really express it in words, but like many Japanese
people, I am very grateful for the support and prayers from
around the world. I pray that the light of hope will reach all
victims in Japan and all the people who suffer for different
reasons in the world.
Beautiful Tohoku
--- Miyagi --Sendai in the Miyagi prefecture is the economical and political
center of Tohoku with a population of more than 1 million
people. It is a truly beautiful city surrounded by rich greenery
and nature, such as the Hirose River and Mt. Aobayama. On the
hills of Mt. Aobayama in eastern Sendai, there is the Sendai
Castle ruin and the statue of Masamune Date, one of the most
famous wartime military commanders and the 1st Sendai domain
lord. His statue is standing there looking over the city. (Fig.2).
Masamune was a diligent worker and very interested in foreign
diplomacy. He dispatched an envoy to Spain and Rome and thus
made an innovative diplomatic step forward in the Japan of
1613 which kicked-off the relationships between Sendai and
Italy. Today, the Miyagi Prefecture and the Provincia di Roma are
sister cities.
Close to the Sendai castle ruin, the campus of the esteemed
Tohoku University is based, which is renowned for its highest
level educational programs in Natural Sciences. Ever since it was
established in 1907, Tohoku University’s philosophy has been to
put “Research First”. In recent years, it has ranked top among
Japanese universities for the number of patents published and
the leading technologies developed at the Campus, which
contributed to the wealth
and well-being of the
community of Sendai.
20 km northeast of Sendai,
we can find one of the
three most scenic spots in
Japan “Matsushima”. More
than 260 big and small
islands create the unique
beautiful scenery (Fig.1).
Matsushima is also a
famous moon viewing Fig.2 - Statue of Masamune Date
spot. It is believed that
Albert EINSTEIN once said, "No great artisan could reproduce its
beauty” when he visited Matsushima in 1922. Miyagi is the
worst-hit area and Matsushima was also damaged heavily.
However, several of the islands of Matsushima had weakened the
Tsunami blow, which reduced the damage for the mainland,
compared to other areas. Now, Matsushima has recovered and is
ready to welcome visitors again. Matsushima and Sendai are very
positive about the future and foster the reconstruction efforts in
Tohoku.
--- Fukushima --Unfortunately, Fukushima is now well-known because of the
nuclear accident. However, please let us keep in mind that such
facilities are often based in beautiful spots that are surrounded
by nature.
Fukushima is located in southern Tohoku, it spreads from the
east, the Pacific side, to the west and the Sea of Japan. It is
situated in the heart of nature, right in the middle of many
national and natural parks, lovely places by the sea or by the
shores of the Lakes Inawashiro and Goshikinuma (lit. five
colored lakes) in the mountains. When we visit Aizu, the heavy
snowfall area in the region, we can view different historic sites.
Ouchi-jyuku in Minami Aizu is an important traditional building
preservation area. It had been an important post station
60 - Newsletter EnginSoft Year 8 n°2
between Aizu and
Kanto, the metropolitan
area in the Edo period.
It is famous for its
numerous traditional
thatched buildings from
the old times that line
up on its main street.
Fig.3 - Ouchi-jyuku covered with snow
The landscape varies
depending
on
the
season, but it always welcomes us with a special taste of the
past. Ouchi-jyuku in particular has a calm and gentle
atmosphere when it is covered with snow.
There is a castle in Aizu-Wakamatsu city, north of Ouchi-jyuku,
called Tsuruga-jyo (it is also known as Aizu-Wakamatsu-jyo).
Aizu was the battlefield of the Aizu-war, one of the civil wars
during the era when Japan transitioned from 265 years of
continued Edo period to a modern state run by the Meiji
government. The Aizu
area was chosen as the
center of the Shogunate
power (the government
of the Edo period). Back
then, the young and the
old were called to the
battle to protect Tsurugajyo. Teenage boys of Fig.4 - Aizu Tsurugajyo Castle
Samurai families were (reconstructed in 1965)
also gathered as a backup force called Byakko-tai (lit. White tiger force). Byakko-tai are
known for their tragic history because they killed themselves in
the end with their swords, even though they knew that Tsurugajyo had not fallen yet. Their immense loyalty to their hometown
and Bushido (the soul of the Samurai) have been passed down
from generation to generation.
--- Iwate --Iwate is the second largest prefecture after Hokkaido. Iwate’s
beautiful landscape is surrounded by mountains, rivers, and
lakes. The people in Iwate have coexisted with nature and its
severity for a long time. It is the coldest area on the main island
of
Japan,
where
temperatures can fall to
-30 degrees Celsius in
winter. Many areas of
the prefecture are hit by
heavy snow in the
winter months. Iwate
has also suffered often
from earthquakes and
Fig.5 - Koiwai farm in Iwate in springtime
Tsunamis.
Please let me introduce you to a beautiful poem from Iwate…
Ame nimo makezu by Kenji Miyazawa
Unbeaten by rain
Unbeaten by wind
Unbowed by the snow and the summer heat
Strong in body
Free from greed
Without any anger
Always serene
With a handful of brown rice a day
Miso and a small amount of vegetables suffice
Whatever happens
Consider yourself last, always put others first
Understand from your observation and experience
Never lose sight of these things
In the shadows of the pine groves in the fields
Live modestly under a thatched roof
In the east, if there is a sick child
Go there and take care of the child
In the west, if there is an exhausted mother
Go there and relieve her from her burden
In the south, if there is a man near death
Go there and comfort him and tell him don’t be afraid
In the north, if there is an argument and a legal dispute
Go there and persuade them it’s not worth it
In a drought, shed tears
In a cold summer, carry on even with a sense of loss
Being called a fool
Being neither praised
Nor a burden
Such a person
I want
to be
*This English translation refers to a reading at the memorial ceremony
held at Washington National Cathedral on April 11, 2011.
Kenji Miyazawa is a famous poet and author of children's
literature. He was born in Iwate in 1896, 2 months later, the
Meiji-Sanriku earthquake caused a terrible Tsunami and
catastrophe in Tohoku. More than 20000 people had been killed.
Since he was born, he had experienced repeated pains, such as
earthquakes, Tsunami, typhoon and damages caused by cold
summers. This is why he was worrying about natural disasters,
always praying for everyone’s happiness. Kenji Miyazawa passed
away in 1933, at the age of 37. He wrote this poem as a memo
in his diary in his later years. It was found and published after
his death. In the years after and still today, “Ame Nimo Makezu”
is introduced in school books as one of Kenji’s best works, and
both children and adults are familiar with his poem today.
I realized the beauty of Tohoku again when writing this article.
Its timeless beauty that touches us and that the Japanese
people cherish so much, maybe lays in its warm words, the
caring for others, humility, tact, thankfulness, and the strength
from having overcome numerous natural disasters. I hope that
beautiful Tohoku will recover very soon and that it will be able
to welcome people from all over the world with its warm
hospitality.
Akiko Kondoh,
Consultant for EnginSoft in Japan
Newsletter EnginSoft Year 8 n°2 -
61
EnginSoft UK Key Partners with
Cranfield University
Supporting the EPSRC Centre for
Innovation Manufacturing in Through-life
Engineering Services to boost UK
manufacturing industries
The University of Cranfield and EnginSoft
UK have worked closely together since the
opening of the UK office. Sharing their
passion for the automotive and aerospace
industries, EnginSoft UK have offered their Fig. 1 - Turbine Engine
expertise in the industry supporting a
number of different Schools and Departments within, from
the School of Engineering to the School of Applied Sciences.
Renowned for being the only postgraduate institute in the
UK, Cranfield University highly values the relevance of their
research applied in the industry. EnginSoft UK has provided
continuous support to Cranfield University, with support
resources for research projects, and aid students in their
career development. Cranfield University has since presented
papers at the last two CAE Conferences. The long relationship
with Cranfield University has seen EnginSoft hold Technical
Seminars and Workshops at Cranfield, as well jointly
collaborating in a 2 day Multi-Disciplinary Optimization
Training Course.
EnginSoft UK are pleased to announce they are now key
industrial partners with Cranfield University in the Research
and Development initiative for the EPSRC Centre for
Innovation Manufacturing in Through-life Engineering
Services. The aim of this new venture is to boost the UK
manufacturing industries in delivering high value products at
the lowest life cycle costs.
Fig.3 - Research context for the EPSRC Centre
EnginSoft contributes their applied
optimization expertise to the partnership,
as well as state-of-the-art technology
software modeFRONTIER which has helped
many companies save time and money
during the design, manufacturing and
distribution stages.
For further information please visit:
http://www.through-life-engineeringservices.org/through-life-eng.pdf
Or Contact:
Professor Rajkumar Roy
Director Head of Manufacturing Department
Cranfield University, UK
Tel: +44 (0)1234 758335
Caren Vay
Marketing, EnginSoft UK Ltd
[email protected]
Tel: +44(0)2476 997160
Fig. 2 - Harrier
62 - Newsletter EnginSoft Year 8 n°2
EnginSoft gained a new partner:
M3E S.r.l.,
On 25th May 2011 EnginSoft gained a new partner,
M3E S.r.l., a recently founded spin-off company of
the University of Padua. M3E is an acronym: the
letter M is taken to the power of three and stands
for “Mathematical”, “Methods” and “Models”,
while the E for “Engineering”.
So, the complete title is: “Mathematical Methods
and Models for Engineering”.
The main goals of this new company are the
development and distribution of numerical
software packages in order to find an efficient
solution to advanced problems in scientific
computing, especially regarding linear algebra tools,
optimization algorithms, and their application to several
engineering problems. For its customers M3E provides not
only software packages, but also maintenance and
consultancy services, especially when dealing with
problems related to surface and underground
environmental processes, such as management of
groundwater resources, exploitation of gas and oil from
deep reservoirs, coupling between surface and subsurface
flow, transport and diffusion of contaminants into
freshwater aquifers, prediction of land subsidence
phenomena and design of their possible mitigation.
The expertise the new company applied in the applications
described above is due to the international
acknowledgement of the research carried out in the last
two decades by the founding members. The founders of
M3E S.r.l. are also members of the research group, which
is headed by Professor Giuseppe Gambolati at the
University of Padua. The research group also includes
associate and assistant professors, as well as younger
Geomechanical model of a deep gas reservoir
post-doc students. Only over this last decade, the group
has published over 200 papers in scientific peer-reviewed
journals and collected few million Euro funds to invest in
developing and implementing new numerical algorithms
for an effective solution to several linear algebra
problems, along with their application in engineering
projects accounting for environmental surface and
underground processes. The models coded by the founding
members have been already used in high performance
computing systems in a large amount of research studies,
including projects funded by the European Union and the
US Department of Energy.
EnginSoft gives a warm welcome to M3E S.r.l. and is proud
to have it as a member of its network. This partnership
aims at attracting and connecting new actors which could
take advantage of the services offered by the M3E
expertise. The target is not only represented by a large
public or private companies and agencies operating in the
field of energy resources and the related environmental
impact, but also small companies that need specific
software tools which cannot be
easily found in the universe of
computer aided engineering.
Furthermore, the advanced
numerical algorithms provided
by M3E, taking into account the
latest
achievements
of
numerical analyses, can be
attractive also for a substantial
improvement of the packages
distributed by large and
renowned software producers.
For more information:
[email protected]
www.m3eweb.it
Newsletter EnginSoft Year 8 n°2 -
63
FIAT: Storie di Innovazione Tecnologica
nelle Automobili
Pubblicato sul numero di marzo/aprile 2011 di "Ingegneria dell'Autoveicolo"
Testo di Lorenzo Morello
Edito da ATA – Associazione Tecnica dell’Automobile
(www.ata.it) - marzo 2011, in 4° (21 x 29,7 cm), pagine
XIII + 544, con sovracoperta stampata in bianca su carta
patinata, con 480 figure, di cui 101 a colori, 73 tabelle, 51
citazioni bibliografiche e 55 modelli riportati con il periodo
di produzione. ISBN 978-88-905815-1-9 € 120,00
Nel numero di maggio – giugno 2010
di “Ingegneria dell’Autoveicolo” era
apparso nelle “Recensioni”, come “libro in preparazione”: “Evoluzione
Tecnologica delle Automobili Fiat”, come titolo provvisorio.
Ora, a marzo 2011, è stato pubblicato
“FIAT - Storie di innovazione tecnologica nelle automobili”, un volume che
inaugura una nuova serie nei prodotti
editoriali di ATA, la “Collana Storica”, dedicata alla storia della
tecnologia automobilistica.
Con circa 600 pagine e dovizia di illustrazioni, dedicate ai principali modelli della casa, vengono descritte le innovazioni tecnologiche, che hanno trasformato per gradi successivi la prima
vettura, la 4 HP, classificabile nella categoria degli “horseless
carriage”, i carri senza cavalli, nelle moderne vetture, che tutti
conosciamo, con scocca portante, trazione anteriore e sospensioni indipendenti, la cui nascita risale alle 128 e 127.
Poiché la FIAT appartiene ad un ristretto gruppo di costruttori,
caratterizzato dall’aver superato 110 anni di attività e dall’essere dotato, fin dalla fondazione, di tecnologia e know-how propri, la storia del suo prodotto può essere considerata, non solo
in quanto tale, ma anche come guida abbastanza esauriente per
interpretare l’evoluzione dell’automobile in termini generali.
Le automobili del libro sono descritte attraverso le fotografie ufficiali dell’epoca della prima presentazione e quelle di esemplari sopravvissuti, realmente esistenti, che possono essere ancora
oggi contemplati presso il Centro Storico FIAT ed il Museo dell’automobile (MAUTO), recentemente ampliati e restaurati, per la
celebrazione dei 150 anni dell’Unità d’Italia.
Ma ciò che rende unico il libro è la presentazione, per ogni modello, dei principali disegni tecnici, recuperati dall’Archivio storico e restaurati per l’occasione.
In effetti, l’idea del libro è nata come conclusione del lavoro
svolto dal progetto STAF (Studi Storici sulla Tecnologia delle
Automobili FIAT), istituito per il recupero selettivo delle principali documentazioni tecniche sulle automobili FIAT.
Tale progetto ha operato grazie ad un gruppo di tecnici volontari, dall’inizio del 2009 sino alla pubblicazione del libro, ed è
consistito nella consultazione di quasi tutti i disegni tecnici
(circa 1.500.000!), nella loro classificazione e nella selezione
dei documenti principali: circa 1.300.
Questi, scelti secondo la rilevanza del modello da essi descritto
e la ricchezza di informazioni in essi contenute, sono stati acquisiti in formato digitale e restaurati grazie al contributo del
Centro Ricerche FIAT, di ATA e di FIAT Group.
Nei limiti del possibile, sono stati eliminati dalle copie digitali
i danni del tempo, presenti sotto forma di pieghe, lacerazioni e
macchie.
La scelta dei modelli considerati nel libro è stata effettuata secondo criteri indipendenti: quello della rilevanza numerica, della produzione e quello dell’eccellenza tecnologica, includendo
anche modelli di lusso e da competizione.
I modelli sono stati raccolti in capitoli ispirati a tecnologie
omogenee, con capisaldi comuni, declinati in automobili di dimensioni e segmenti di prezzo diversi.
Il volume è diviso in due parti: la parte prima contempla i
“Riferimenti storici” ed è divisa in 7 capitoli, che riguardano i
principali componenti dell’automobile (motore, trasmissione,
impianto elettrico, telaio e carrozzeria, sospensioni e sterzo,
pneumatici).
I 17 capitoli, dedicati alle automobili FIAT, contenuti nella seconda parte del libro, sono preceduti da una prima parte con 7
capitoli, dedicati alla descrizione delle prime automobili, comprendenti: la 4 HP e le sue numerose evoluzioni, la famiglia delle vetture Tipo, con la prima utilitaria, la Tipo 0 e le prime vetture da competizione e da record.
I rimanenti capitoli spaziano dallo sviluppo della famiglia delle
FIAT da Gran Premio dal 1921 al 1927, ai modelli più popolari in
Italia.
In particolare, si citano:
• la Balilla, la Topolino, la 1400 e la 1100 103;
• la 500, la 600 e la 850, serie di utilitarie a motore posteriore;
• la 128 e la 127, prime vetture a trazione anteriore, con le
quali termina il libro.
Il termine tecnologico, riportato nel titolo, intende sottolineare che, nel descrivere le innovazioni introdotte, non si è considerata l’evoluzione del know-how tecnico progettuale, ma anche
di quello tecnico-produttivo, il cui corretto sfruttamento è stato spesso origine del progresso in campo tecnico.
Il libro è dedicato a tutti i progettisti della FIAT, in particolare
a quelli che hanno ideato i modelli oggetto di presentazione, e
può costituire una stimolante lettura anche per i tecnici e per
gli appassionati dell’automobile, in generale.
A cura di Giuseppe Righes
Segretario Generale ATA
64 - Newsletter EnginSoft Year 8 n°2
Nuove pubblicazioni di NAFEMS
La Nafems, “the International association for the engineering analysis community”, sostiene una collana di pubblicazioni particolarmente completa ed utile soprattutto a
chi si occupa concretamente di applicazioni della simulazione all’ingegneria.
La collana si è, recentemente, arricchita di due nuovi libretti.
Il primo, “ WHAT IS a probabilistic or stochastic analysis?”
funge da sommario rispetto all’argomento, trattato più
estesamente in altre pubblicazioni, quali “ WHAY DO probabilistic analysis?” e “WHAT IS sensistivity analysis?”, e,
comunque, nei documenti prodotti dal gruppo di lavoro
•
•
•
sull’analisi stocastica. Partendo dalla considerazione del
problema del trattamento delle incertezze, e del rischio
associato, viene precisata la differenza che esiste tra un
approccio probabilistico ed un approccio stocastico.
•
Vengono, inoltre, indicati e sommariamente classificati i
metodi che trattano dell’analisi dell’affidabilità, dal
Metodo Montecarlo, agli ORM (Order Reliability Methods),
mettendo in luce il valore che si può trarre da un’analisi
di sensitività, e, soprattutto, da un’analisi di affidabilità
(Reliability Analysis). Infine il libretto da indicazione delle direzioni di sviluppo dei metodi, nell’ottica dei software commerciali.
•
Il secondo libretto appartiene alla collana “HOW TO”, ed,
in questo caso, suggerisce “HOW TO Analyse Practical
Problems using FE Software”. Il libretto può essere considerato una guida all’impiego di software commerciali basati sul metodo degli elementi finiti, nell’ottica di realizzare modelli affidabili, e di evitare gli errori che possono
derivare dall’impiego scorretto dei software stessi.
Il libretto è diviso in sei capitoli, ciascuno dedicato ad un
tema specifico, ed è corredato da otto casi di studio, che
possono servire per apprendere – con riferimenti pratici –
i ‘trucchi del mestiere’. I temi trattati riguardano:
• la scelta dell’elemento finito più adatto al problema,
ed i criteri per portare il modello a convergenza verso
la soluzione compatibile con le scelte fatte, relativa-
mente ad applicazioni mono, bi, tri-dimensionali e
miste;
l’applicazione delle condizioni al contorno, in situazioni non banali, illustrate sia attraverso esempi ricorrenti nella pratica quotidiana – quali quello della simulazione degli ingranaggi – che attraverso esempi ‘esotici’ – quali lo studio di cesoie per la regolarizzazione
delle siepi -;
la corretta gestione delle porzioni strutturali trattate
come rigide, inclusi i problemi relativi alla connessione di sotto-sistemi trattati con elementi finiti tra loro
incompatibili; applicazioni tipiche agli assemblaggi,
alle giunzioni bullonate, alle connessioni tra porzioni
simulate con elementi guscio, e porzioni simulate in
3D;
il problema dei contatti , nelle varie forme in cui questi possono essere o sono descritti nei codici di calcolo commerciali (punto-punto, superficie-superficie);
tecniche di iterazione del problema non-lineare; grandi deformazioni; determinazione delle pressioni di
contatto;
la simulazione dell’impatto ed il ‘drop test’, a partire
dalla classificazione delle azioni dinamiche, delle corrispondenti equazioni del moto e modalità di soluzione; smorzamento; problemi relativi alla lettura ed
interpretazione dei risultati;
il trattamento delle simmetrie e delle a-simmetrie;
simmetrie cicliche in presenza di carichi non-ciclici;
applicazione agli assemblaggi; azioni dinamiche; trattamento delle non-linearità.
La lettura di questi libretti è molto facile. E l’utilità – specie per chi si affaccia al calcolo numerico senza esperienze specifiche – notevole. Il principio seguito è quello
espresso da Peter Drucker, il famoso guru dei manager: “Do
the Right Thing first, The Thing Right afterwards”, in cui
il concetto del fare “the right thing” esprime l’efficacia, e
quello del fare “the thing right”, esprime l’efficienza.
Quando si parla di elementi finiti, fare “the right thing”
significa utilizzare il modello giusto, applicare le condizioni al contorno in modo congruente, e rappresentare adeguatamente la fisica del problema; fare the “thing right”
significa affinare il modello, aggiungere quanto ne possa
aumentare l’utilità, e facilitarne la lettura.
Per informazioni:
[email protected]
www.nafems.org
Newsletter EnginSoft Year 8 n°2 -
65
TechNet Alliance Spring Meeting 2011
29th – 30th April 2011
Hotel Barceló Asia Gardenz, Alicante - Spain
During the last days of April, members of the TechNet
Alliance and their invited guests met at the Hotel Barceló
Asia Gardens in Alicante, in Southern Spain. As always, the
TechNet Alliance had selected a charming venue that
underlined the good spirit, positive outlook and the
promising future projects of the Alliance. The meeting saw
a high attendance; it was organized and hosted in the
typical TechNet Alliance style: attention to detail, a high
quality agenda, excellent speakers from around the globe
and different fields - a format that has proven to be
successful since the late 90s.
The TechNet Alliance is a unique consortium in the
Computer Aided Engineering (CAE) or Simulation Based
Engineering Sciences industry. It is comprised of a large
network of engineering solution providers, dedicated to
the application, development, training, support and
marketing of CAE best-of-class software.
Today, the global alliance comprises more than 2500 CAE
employees in 56 companies, 25 countries, communicating
in 20 languages.
The management of EnginSoft is on the board of the
TechNet Alliance and attends the bi-annual meetings,
often presentations are contributed to the agenda.
At the 2011 Spring Meeting, potential synergies between
ANSYS and the Alliance were discussed. Several ideas came
up including the possible sponsorship of a project in the
training and educational sector which may involve the TCN
Consortium and esocaet. During the talks, the EnginSoft
Management suggested that ANSYS should take the lead in
organizing 1-day events, possibly workshops, at which a
selected number of TechNet Alliance Members would
promote the ANSYS proposals and technologies by
illustrating specific advanced case histories. In this way,
the TechNet Alliance concept and the ANSYS brand would
be supported simultaneously.
The presentations, that were delivered on Saturday 30th
April in Alicante, covered such interesting topics and talks
as:
o the use of Social Media to help promoting the TechNet
Alliance on a global level;
o a Material Database for ANSYS 13.0;
o potential new Charter Members. EnginSoft had
suggested Flowmaster, and Morgan Jenkins of
Flowmaster UK, gave a lively presentation based on the
tuning of a Ferrari Dreamcar engine. Further
presentations were contributed by organizations from
the USA and Spain;
o Representatives from the Polytechnic University of
Madrid and UNED in Spain were welcomed as potential
Honorary Members.
The presentations of TechNet Alliance Members included:
o Dynardo’s description of their ANSYS RDO
implementation;
o InuTech and FTT and the upgrade of their technologies
and product portfolios;
o Ingeciber Spain presented a series of convincing
applications in the fields of hydraulics and
environmental applications of CFD;
o EnginSoft continued the series of presentations on
metal processing. The aim here is also to develop a
comprehensive documentation for this area of
EnginSoft’s expertise. This time the topic was forgingmetal forming. It built on the previous presentation at
the TechNet Alliance Fall Meeting 2010 in Aachen,
Germany, which had been focused on casting. In the
future, machining, heat treatments, databases, thermal
fatigue will be outlined as further topics;
o The new design of the TechNet Alliance Website was
discussed. This is an important activity to most
members as it will further strengthen the brand of the
Alliance and provide a window to promote their
specific competencies.
The Spring Meeting 2011 was another excellent
networking occasion for the attendees. It underlined once
more the validity of the working model of the TechNet
Alliance and its bi-annual Meetings at alternating venues
in Europe.
Stefano Odorizzi,
CEO of EnginSoft
EnginSoft is a Member of the TechNet Alliance since 2003
For more information on the TechNet Alliance, please visit:
www.technet-alliance.com
and contact Mrs Kristin Schuhegger at:
[email protected]
66 - Newsletter EnginSoft Year 8 n°2
La piattaforma SW Benimpact Suite di
Enginsoft premiata alla mostraconcorso Fare Green
È giunta alla seconda edizione la mostra-concorso Fare
Green, organizzata nell’ambito del Festival dell’Economia
di Trento 2011 “I confini della libertà economica”.
Quest’anno “Fare Green. Saperi e pratiche sostenibili per
nuovi modelli di sviluppo consapevole” ha selezionato e
presentato le migliori proposte delle imprese e dei
professionisti trentini in termini di progetti, prodotti e
servizi ad alto livello di sostenibilità ambientale.
Tra 40 candidati, ne son stati selezionati 9 per
l’esposizione presso palazzo Roccabruna a Trento dal 2 al
19 giugno; tra questi ultimi sono stati scelti i vincitori,
proclamati poi il 15 giugno.
EnginSoft si è aggiudicata il Premio Comune di Trento,
consegnato dall'Assessore all'Ambiente e alla Mobilità
Michelangelo Marchesi, grazie alle potenzialità per il
settore delle costruzioni del progetto "Benimpact Suite.
Piattaforma software per la progettazione di edifici
ecosostenibili".
Mostra-concorso Fare Green
Fare Green è una mostra-concorso
dell’eccellenza green trentina che
prevede la selezione su base
concorso e l’esposizione di
progetti, servizi e prodotti
caratterizzati da un elevato livello di sostenibilità
ambientale.
Nell’edizione di quest’anno, in sintonia con la tematica
scelta per il Festival dell’Economia di Trento “I confini
della libertà economica”, i criteri di selezione erano basati
sul concetto di sostenibilità piena così come definito dal
“Framework per lo Sviluppo Sostenibile e Strategico”
(http://en.wikipedia.org/wiki/
Strategic_Sustainable_Development)
Valorizzazione del territorio e risparmio energetico, social
housing, benessere della persona, modelli economici
innovativi, gestione etica produttiva delle piccole aziende
agricole, progettazione integrata di edifici ecosostenibili,
case in legno, mobilità alternativa: questi le migliori
proposte selezionate dal
Comitato di Valutazione
presieduto da Eric Ezechieli (Presidente di The Natural
Step Italia) e composto da Thomas Miorin (Direttore di
Habitech), Roberto Cariani (Ambiente Italia) e Luca
Bertamini (Aquafil), rappresentante della società
vincitrice del primo premio della scorsa edizione.
Foto: ©Hugo Munoz - tutti i diritti riservati.
La mostra è stata organizzata da Habitech, il Distretto
tecnologico trentino, in partnership con Trentino Sviluppo
ed il Comune di Trento.
Festival dell’Economia 2011 a Trento
Il Festival dell’Economia di Trento si
pone l’obiettivo di far avvicinare il
pubblico ai grandi esperti di economia a
livello internazionale e di sensibilizzarlo
su questioni d’attualità e di fondamentale importanza.
Giunto quest’anno alla sesta edizione, il Festival propone
ogni anno una tematica sulla quale si concentrano tutti i
dibattiti e le iniziative. Le prime cinque edizioni hanno
affrontato le seguenti tematiche: “Ricchezza e Povertà”,
“Capitale umano e capitale sociale”, “Mercato e
democrazia”, “Identità e crisi globale”, “Informazioni,
scelte, sviluppo”. L’edizione di quest’anno, dal titolo “I
confini della libertà economica”, si è posta l’obiettivo di
permettere al pubblico di farsi un'idea sulle questioni
complesse che definiscono i nuovi confini alla libera
iniziativa privata che vengono posti in essere in diverse
parti del pianeta. La manifestazione trentina in parallelo
al consueto format di dibattiti con economisti, sociologi,
filosofi, imprenditori, giornalisti di primissimo livello (tra
di essi, solo per citarne alcuni, l’economista premio Nobel
Amartya Sen che ha pronunciato una lectio magistralis
come apertura del Festival e il sociologo Zygmunt
Bauman che, introdotto dall’editore Giuseppe Laterza, ha
chiuso la kermesse) ha incluso numerose attività che
andavano da spettacoli cinematografici e teatrali, ad
esposizioni d’arte visiva, da laboratori sul riciclo per adulti
e bambini a mostre-concorso su progetti, servizi e
prodotti sostenibili come Fare Green.
Newsletter EnginSoft Year 8 n°2 -
Benimpact Suite: piattaforma software per la
progettazione integrata di edifici ecosostenibili
La domanda di energia dell’Unione Europea è dovuta per il
41% alle attività di costruzione, utilizzo, mantenimento e
“dismissione” degli edifici residenziali e commerciali. Alla
luce di questi dati concepire, progettare e realizzare
edifici a ridotto impatto ambientale complessivo è ormai
diventata un’esigenza non più rimandabile. Una diffusione
estensiva di queste costruzioni potrà però avvenire
soltanto se queste si dimostreranno economicamente
sostenibili o, ancora meglio, economicamente più
vantaggiose degli edifici attuali.
Sostenibilità “piena” per un edificio vuol dire
soddisfacimento dei bisogni (sicurezza, comfort ed
estetica) delle persone che ci vivono o lavorano, massima
indipendenza energetica e ridotto impatto ambientale
complessivo (risorse naturali, materiali, emissioni durante
il suo ciclo vita). Ed il tutto tenendo conto della
sostenibilità economica, vera chiave per uno sviluppo
estensivo di queste tipologie di costruzioni.
Per raggiungere questi obiettivi, molte volte contrastanti
tra loro, occorre cambiare il modo attuale di progettare gli
edifici, mutuando quanto già si fa nella progettazione di
manufatti industriali.
Una casa “passiva” deve essere progettata come un
sofisticato macchinario, utilizzando strumenti software e
metodologie di progetto idonee a cogliere ed integrare
tutte le opportunità offerte dai materiali e dalle
tecnologie: BENIMPACT Suite è una risposta a questa
esigenza.
Si tratta, infatti, di una piattaforma software che permette
di verificare come diverse combinazioni di scelte
67
progettuali (inerenti l’involucro, gli impianti, e l’utilizzo di
energie rinnovabili) influenzano i livelli prestazionali
(verso gli occupanti e verso l’ambiente esterno) di un
edificio. Il tutto è pilotato da un sistema software che
individua anche le soluzioni “ottime”, cioé quelle che
garantiscono il miglior compromesso tra consumi
energetici, impatto ambientale globale e costi per l’intero
ciclo di vita dell’edificio.
BENIMPACT
Suite,
una
volta
l’industrializzazione, potrà essere
efficacemente
utilizzata
da
professionisti operanti in ambiti
quali: studi di architettura e di
ingegneria, società di costruzioni,
imprese di installazione di sistemi
ed impianti, aziende di gestione
dell’edilizia abitativa e società di
servizi energetici.
completatane
Il prototipo della piattaforma software è stato sviluppato
nell’ambito del Progetto di Ricerca “BENIMPACT –
Buildings ENviromental IMPACT evaluator & optimizer” cofinanziato dalla Provincia Autonoma di Trento utilizzando
risorse del Programma Operativo FESR 2007-2013.
www.benimpact.it
http://www.enginsoft.it/ricerca/prgbenimpact.html
Per maggiori informazioni:
Ing. Angelo Messina - EnginSoft
[email protected]
68 - Newsletter EnginSoft Year 8 n°2
EnginSoft France Presents Flowmaster
V7.8 Aerospace and modeFRONTIER
V4.4 to the Aerospace Industries
EnginSoft France is pleased to showcase its flagship
products modeFRONTIER™ V4.4 and Flowmaster™ V7.8,
and to introduce charLES in Hall 4 (stand 4-E132) at this
year’s International Paris Air Show in Le Bourget.
modeFRONTIER is a multiobjective design optimization
software produced by ESTECO - EnginSoft Tecnologie per
l’Ottimizzazione Srl Trieste – Italy, widely and increasingly
used in the aerospace industries as an efficient, state-of-theart optimizer. modeFRONTIER allows easy coupling to
virtually any CAE package available today, and in particular
to the CFD commercial codes commonly applied in the
aerospace and defense sector. Among the key features of
modeFRONTIER are statistical analysis and data mining tools,
wizards for the creation of meta-models, and special tools to
enhance the navigation between different programs and
many more. In fact, modeFRONTIER v4.4 also provides the
new hybrid algorithm, new integration capabilities and an
update of the new embedded GRID system.
The Flowmaster Group with its Headquarters in the United
Kingdom has over 18 years experience providing industry
leading fluid systems simulation software to the aerospace
and other industrial sectors. Flowmaster V7.8 Aerospace
helps design engineers to efficiently design and simulate
aircraft fluid systems. Flowmaster’s industry tailored
modeling tools, advanced security and team collaboration
tools enable key aerospace organizations worldwide to
evaluate system designs earlier and to reduce development
costs, optimize performances and track system design
changes throughout development processes and lifecycles of
aircraft. In particular, venting system modeling or inerting
simulations have never been so fast and easy.
charLES is a Large Eddy Simulation (LES) software package,
representing simply the latest, most advanced generation of
flow simulation technology for industrial applications. The
numerical schemes embedded in charLES provide
representation of turbulent fluctuations without introducing
any artificial damping, thus allowing high fidelity results for
aeroacoustic, combustion, multiphase complex flows.
charLES is produced by Cascade Technologies which is a spinoff of Stanford University headed by professor Parvis Moin
(also responsible of the Centre for Turbulence Research).
Cascade Technologies is a partner company of EnginSoft
holding.
EnginSoft started business operations in France in 2006 to
market modeFRONTIER and support its users in the Frenchspeaking market. Since February 2009 – under the new
partnership agreement signed with Flowmaster France EnginSoft France is also responsibility for the sales
distribution and support of the Flowmaster software products
in Southern Europe: France, Italy, Spain. In March 2011, a
global agreement between EnginSoft and Flowmaster
extended this partnership to all Flowmaster customers.
“The International Paris Air Show will see EnginSoft France
showcasing modeFRONTIER, Flowmaster and charLES, three
best-in-class simulation software products, tailored for
aerospace experts”, emphasized Marie Christine Oghly,
President of EnginSoft France.
For more information, please contact:
Marie Christine Oghly, President of EnginSoft France
[email protected]
For more information on the internet, please visit:
• EnginSoft France – www.enginsoft-fr.com
• Flowmaster – www.flowmaster.com
• modeFRONTIER – www.esteco.com
• EnginSoft International – www.enginsoft.com
Newsletter EnginSoft Year 8 n°2 -
69
Grande successo di WTT 2011
La seconda giornata del Wind Turbine Technology Forum 2011 ha
evidenziato come sia sempre più importante migliorare
l’approccio alla progettazione delle turbine eoliche.
organizzatrice - WTT è destinato, quindi, a diventare un
appuntamento fisso per tutti gli operatori di questo settore in
forte evoluzione.
Venezia, 13 maggio 2011 - In fase di progettazione di turbine a
vento un approccio che si proponga diversi obiettivi può essere
molto importante per aiutare gli ingegneri a evitare l'errore di
dare priorità direttamente al prodotto, piuttosto che all'intero
processo. Anche se questo è purtroppo un problema diffuso, è
ormai chiaro che qualsiasi fattore che accorcia i tempi della
ricerca, dei test e del processo di progettazione e di produzione,
avrà un impatto importante sulla qualità globale. Questo è
quanto è stato dichiarato da Silvia Poles di EnginSoft, in
occasione della seconda e conclusiva giornata WTT - Wind
Turbine Technology Forum 2011, la prima conferenza nel
Mediterraneo esclusivamente dedicata alla filiera manifatturiera
delle turbine eoliche, che si è svolta nel Centro Congressi
dell’Arsenale di Venezia.
Secondo quanto ha affermato Silvia Poles, è necessario prendere
in considerazione, in un’unica ottica di ottimizzazione, tutte le
discipline e i parametri che intervengono nel processo di
progettazione delle turbine, in particolar modo l'uso di algoritmi
evolutivi come l’algoritmo genetico multiobiettivo. Sarebbe
inoltre preferibile utilizzare un metodo di interpolazione
intelligente per avvicinarsi al miglior risultato possibile.
Abbiamo analizzato la strategia di controllo più adatta per
piccole turbine eoliche in siti a bassa ventosità e per
quantificare i vantaggi reali (in termini di ROI) derivanti
dall'adozione di sistemi di controllo e funzionamento a velocità
variabile - ha spiegato Lorenzo Battisti dell’Università di Trento.
Nella ricerca sono stati analizzati i vantaggi economici previsti
dall’aumento del diametro del rotore e, quindi, della superficie
di ingombro. I risultati preliminari hanno dimostrato l'efficacia
economica della progettazione di turbine eoliche con dischi più
grandi, una strategia valida per migliorare la produzione di
energia, con piccoli costi aggiuntivi, in siti a bassa ventosità.
Lorenzo Bianco di Peikko, infine, ha presentato la nuova
soluzione Eco per la protezione contro la corrosione delle
turbine. Anche la pericolosa caratteristica della fragilità da
idrogeno è stata sottoposta a ricerca. La fragilità da idrogeno è
il processo attraverso il quale diversi metalli, soprattutto in
acciaio ad alta resistenza (come l'acciaio utilizzato per
l'ancoraggio delle torri delle turbine del vento) diventano fragili
e possono rompersi in seguito all'esposizione a idrogeno. Questo
è spesso il risultato dell’introduzione accidentale di idrogeno in
metalli sensibili, ad esempio durante le operazioni di finitura ad
alte temperature. Con Eco, abbinato all’utilizzo di bulloni ad alta
resistenza, il problema è ora superato.
Siamo molto soddisfatti di questa prima edizione di WTT, che ha
dimostrato di rispondere a un’esigenza di confronto e
aggiornamento professionale molto diffusa in tutta la filiera
manifatturiera delle turbine eoliche - ha dichiarato Marco
Pinetti, presidente di Artenergy Publishing, la società
L’appuntamento con la prossima edizione di WTT - Wind Turbine
Technology Forum è a maggio 2012.
Ulteriori informazioni su WTT 2011 sono disponibili nel sito
www.windforum.pro http://www.windforum.pro/
Il “Forge Italian Team” è
presente a Cannes per lo Users’
Meeting 2011 di Transvalor
Cannes, 6-7 giugno 2011
Una nutrita rappresentativa di utenti italiani ha preso parte
ai primi di giugno alla Conferenza Internazionale degli
utilizzatori del software Forge, che ha visto la presenza di
oltre un centinaio di persone nella splendida cornice di
Cannes, Costa Azzurra. EnginSoft, distributore in esclusiva
dei prodotti di Transvalor per l’Italia, è stata pubblicamente
elogiata da Marc Antonicelli, general manager di Transvalor,
per gli eccellenti risultati di vendita ottenuti nel 2010 e per
la continua e proficua collaborazione, che dura ormai da 15
anni. Nelle sessioni tecniche è stata presentata la release
2011 del software FORGE, ormai rilasciata, che migliora in
modo significativo l’efficienza del lavoro di preparazione ed
analisi dei risultati (una release notes completa verrà
pubblicata nel prossimo numero della newsletter). Durante la
serata di gala gli ospiti hanno avuto la possibilità di
cimentarsi in una sfida tra i tavoli alla rolulette ed al
blackjack, nella quale però l’”Italian Team” non ha avuto
molta fortuna.
Come di consueto, EnginSoft da appuntamento a tutti gli
interessati il 21 ottobre a Verona, dove all’interno della
International CAE Conference 2011 (www.caeconference.com)
sarà organizzata una sessione dedicata, il “Forge Users’
Meeting Italiano”, nel quale verranno riassunte le novità
dell’ultima release e sarà inoltre possibile assistere alle
presentazioni di alcuni utilizzatori italiani.
70 - Newsletter EnginSoft Year 8 n°2
EnginSoft Event Calendar
ITALY
EnginSoft is pleased to announce the next Seminars and
Webinars. For more information, please contact:
[email protected]
Please visit www.enginsoft.com (Events)
19 July - Seminario Presso la Magneti Marelli di Bologna
Come essere competitivi con l'utilizzo della simulazione
Seminar: How to stay competitive by using simulation!
sedi/venue: Magneti Marelli, Bologna
20-21 October - EnginSoft International Conference 2011
CAE Technologies for Industry and ANSYS Italian Conference
Fiera Verona. Please stay tuned to www.caeconference.com
for Italy’s premier conference on Engineering Simulation
and one of the most important events of its kind globally!
The conference program will feature applications of CAE in:
mechanics, industrial applications, structural engineering,
optimization,
manufacturing
process
simulation,
computational fluid dynamics, emerging technologies,
durability and fatigue, rapid and impact dynamics, CAD/CAE
integration, …
FRANCE
EnginSoft France 2011 Journées porte ouverte
dans nos locaux à Paris et dans d’autres villes de France, en
collaboration avec nos partenaires.
Pour plus d'information visitez: www.enginsoft-fr.com,
contactez: [email protected]
20-26 June - Salon du Le Bourget - Paris Air Show
Le Bourget, Paris
Talk to our experts at the EnginSoft / Flowmaster booth!
http://www.paris-air-show.com/en
28-29 June – Teratec Conference
Ecole Polytechnique Palaiseau
Meet us at the EnginSoft / Flowmaster booth!
http://www.enginsoft-fr.com/events/index.html
12 October - User Group Meeting modeFRONTIER France
Paris. http://www.enginsoft-fr.com/events/index.html
13 October - User Group Meeting Flowmaster France
Paris. http://www.enginsoft-fr.com/events/index.html
GERMANY
Please stay tuned to: www.enginsoft-de.com
Contact: [email protected] for more information.
modeFRONTIER Seminars 2011
EnginSoft GmbH, Frankfurt am Main
Attend our regular Webinars and Seminars
to learn more on how design optimization with
modeFRONTIER can enhance your product development
processes!
Seminars Process Product Integration. EnginSoft GmbH,
Frankfurt am Main. How to innovate and improve your
production processes!
Seminars hosted by EnginSoft Germany and EnginSoft Italy
SPAIN
Programa de cursos de modeFRONTIER and other local
events
Please contact our partner, APERIO Tecnología:
[email protected]
Stay tuned to: www.aperiotec.es
21-30 June ESAComp eTraining
Introduction to Design of Composite Structures with
ESAComp Software. Web-based training course
Componeering offers an e-learning course for composite
structures design with ESAComp software. Web-based training
is an effective and cost-efficient way to get started with the
use of ESAComp. Live training can be followed without
leaving the desk.
For more information, please contact: Juan Lorenzo,
[email protected]
SWEDEN
2011 Training Courses on modeFRONTIER - Drive your
designs from good to GREAT.
EnginSoft Nordic office in Lund, Sweden
The Training Courses are focused on optimization, both
multi- and single-objective, process automation and
interpretation of results. Participants will learn different
optimization strategies in order to complete a project
within a specified time and simulation budget.
Other topics, such as design of experiments, meta modeling
and robust design are introduced, as well. The two day
training consists of a mix of theoretical sessions and
workshops.
• 11-12 August
• 5-6 September
• 4-5 October
• 2-3 November
• 1-2 December
To discuss your needs, for more information and to register,
please contact EnginSoft Nordic: [email protected]
Newsletter EnginSoft Year 8 n°2 -
UK
The workshops are designed to give delegates a good
appreciation of the functionality, application and benefits
of modeFRONTIER. The workshops include an informal blend
of presentation plus ‘hands-on’ examples with the objective
of enabling delegates to be confident to evaluate
modeFRONTIER for their applications using a trial license at
no cost.
modeFRONTIER Workshops
Warwick Digital Laboratory, Warwick University
• 17 August
• 14 September
• 13 October
• 22 November
• 14 December
modeFRONTIER
Workshops
Warwick Digital Laboratory
• 20 July
• 9 November
with
InfoWorks
Please register for free on www.enginsoft-uk.com
Multi-Disciplinary
Optimisation
Training
International Digital Lab, Warwick University
• 16-17 May
• 6-7 September
CS
Course
For more information and to register, please visit
www.enginsoft-uk.com
Contact: Bipin Patel, [email protected]
14-16 July – GECCO 2011 Genetic and Evolutionary
Computation Conference. Dublin, Ireland
EnginSoft will be presenting on 15 July
http://www.sigevo.org/gecco-2011/ecp.html
USA
Courses and Webinars on Design Optimization with
modeFRONTIER.Sunnyvale, CA
For
more
information,
please
contact:
[email protected]
www.ozeninc.com
EUROPE, VARIOUS LOCATIONS
modeFRONTIER Academic Training
Please note: These Courses are for Academic users only. The
Courses provide Academic Specialists with the fastest route
to being fully proficient and productive in the use of
modeFRONTIER for their research activities. The courses
combine modeFRONTIER Fundamentals and Advanced
Optimization Techniques.
For more information, please contact Rita Podzuna,
[email protected]
To meet with EnginSoft at any of the above events, please
contact us: [email protected]
71
12th International Summer
School on Aluminum Alloy
Technology
Light Alloys Casting: from Innovative Design to
Advanced Application - 25th-29th July – Vicenza
The 2011 International Summer School is a joint effort
among NTNU (Norway), WPI (USA)
and DTG (Italy). The school has previously been offered in
Trondheim, Norway and Worcester, USA. Topics concerning
light alloys solidification and processing have been
traditionally debated during Summer School, but this year
the focus will be on the path to be followed from
innovative design to advanced applications in order to
make light alloys castings suitable to sustain the
challenges
of
product
reliability,
industrial
competitiveness and technological sustainability.
As demonstrated by recent Integrated Research Projects,
such challenges require, from light alloys
casting industry, innovative and integrated approaches
based on:
• metallurgy fundamentals;
• process modeling and simulation;
• knowledge of conventional and innovative treatments
and processing solutions;
• availability of advanced criteria and tools for casting
and component design.
The Panel of Lecturers is very qualified, and includes
Diran Apelian, MPI, Worcester Polytechnic Institute, USA
Lars Arnberg, NTNU, University of Trondheim, Norway
Franco Bonollo, DTG, University of Padova, Italy
Diego Cacciatore, Automobili Lamborghini S.p.A
Arne Dahle, University of Queensland, Australia
Paolo Ferro, DTG, University of Padova, Italy
Alois Franke, Aluminium Rheinfelden, Germany
Nicola Gramegna, EnginSoft, Padova, Italy
Lindsay Greer, Cambridge University, UK
Karl Kainer, GKSS Forschungszentrum Geesthacht, Germany
Lothar Kallien, GTA, University of Applied Science, Aalen,
Germany
John Jorstad, JLJ Technologies, USA
Claudio Mus, Consultant, Italy
Rodney Riek, Harley-Davidson Motor Company
Giulio Timelli, DTG, University of Padova, Italy
David Weiss, Eck Industries, USA
The School will be held at the Department of Management
and Engineering in Vicenza (DTG, www.gest.unipd.it), a
town in the North-East of Italy (30 min by train from
Venice, less than 2 hours by train from Milan).
For further information, visit:
http://static.gest.unipd.it/iss12/home.html
®
ENGINSOFT INTERNATIONAL
CONFERENCE 2011
CAE TECHNOLOGIES FOR INDUSTRY
ANSYS ITALIAN
CONFERENCE 2011
ing
m
o
c
s
t
n
e
v
e
Two major
ificant
n
ig
s
t
s
o
m
e
h
dar
n
together for t
le
a
C
E
A
C
n
he Italia
t
in
n
io
s
a
c
c
o
VERONA -IT
20-21 OCTOBER
www.caeconference.com
GOLD SPONSORS
®
Scarica

Tecniche di modellazione in Maxwell 14 MELiSSA PROJECT: Plant