TEST al 12 aprile 2022
-Generazioni: 300 (un programma con più generazioni funziona meglio)
-Batch: 16
-Tasso di apprendimento: 0,001
Nel test del riconoscimento fra carta e plastica abbiamo riscontrato i seguenti problemi:
- Oggetti di plastica bianchi opachi vengono scambiati per carta
- Oggetti sul bordo della videocamera vengono scambiati per il materiale opposto
- Oggetti piccoli vengono (raramente) scambiati per il materiale opposto
- Ed oggetti vengono scambiati per il materiale opposto in base a come sono posizionati nell' inquadratura, o come sono ruotati (sperimentato soprattutto con le penne bic).
Pictoblox:
Google Teachable Machine:
https://drive.google.com/file/d/1i248o13e2E2XRZqMhUZ6KXCqtO_gTpy5/view?usp=sharing (Video funzionamento rete neurale)
https://drive.google.com/file/d/114LNUeXe3gZv3DPNi8q_4P81BSR8mGxx/view?usp=sharing (Programma Pictoblox)
https://teachablemachine.withgoogle.com/models/guDhYVlxz/ (Link rete neurale)
TEST 18 aprile 2022
Generazioni: 500
Batch: 36
Tasso di apprendimento:0,00111
Nel test abbiamo riscontrato solo questo problema:
Le mascherine chirurgiche vengono scambiate per Organico
Dei problemi che si potrebbero riscontrare aggiungendo questo progetto a quello CARTA-PLASTICA sono:
la carta unta potrebbe essere scambiata per carta normale
gli oggetti che vanno nell' INDIFFERENZIATA potrebbe essere riconosciuti in altre categorie.
Pictoblox
Google teachable Machine
Link Rete neurale: https://teachablemachine.withgoogle.com/models/UzD-XvloF/ (più lento di pictoblox)
Pictoblox: https://drive.google.com/file/d/1XeyGu38uQkciclWDvlbnQDkhmExJD2D6/view?usp=sharing
Video: https://drive.google.com/file/d/1H5hSFYWw9yB9j9oyFoYExfs_k43vxAQy/view?usp=sharing
Test 26 Aprile 2022
Generazioni: 3000
Batch: 16
Tasso di apprendimento:0,00104
Nel test non abbiamo riscontrato particolari problemi:
(certe volte, non sempre, quando lascia la mano nell' immagine, l'identificazione non è corretta, il sistema confonde le categorie)
Problemi che si potrebbero manifestare aggiungendo questo progetto a quello finale:
Gli oggetti di MULTIRACCOLTA potrebbero essere confusi con INDIFFERENZIATO
Pictoblox
Google Teachable Machine
Link rete neurale: https://teachablemachine.withgoogle.com/models/Hf-eCv_U8/
Video: https://drive.google.com/file/d/1j_ZJyyPsnlhH7MAiPGaZNyM8JPgj5LyX/view?usp=sharing
Per Ora le migliori impostazioni per l'addestramento sono:
Generazioni: > 1500/2000 le generazioni più basse danno risultati insoddisfacenti .
Batch: 16/32 Il risultato non cambia molto ma con 16 la rete neurale era migliormente addestrata.
Tasso di apprendimento: compreso fra: 0,00098 e fra 0,00102 è meglio non toccare questo fattore oltre questi 2 valori visto che il minimo alteramento causa un cambiamento enorme nella precisione della rete neurale.
Test Finale per CARTA e PLASTICA del 27 aprile 2022
Completanto e Presentato al Si... Geniale 2021-2022
Generazioni: 4500
Batch: 16
Tasso di apprendimento:0,00101
Test per evento Rigenerazione Scuola 11 novembre 2022
Completanto e Presentato al Si... Geniale 2021-2022
Generazioni: 4500
Batch: 16
Tasso di apprendimento:0,00101
Qui sotto il nostro fiel html + javascript che potete salvare in un file RIFIUTI.HTML, caricarlo nel browser e provare a riconoscere i rifiuti da smaltire per un corretto conferimento
Jv script:
<div>Teachable Machine Image Model</div>
<button type="button" onclick="init()">Start</button>
<div id="webcam-container"></div>
<div id="label-container"></div>
<script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs@1.3.1/dist/tf.min.js"></script>
<script src="https://cdn.jsdelivr.net/npm/@teachablemachine/image@0.8/dist/teachablemachine-image.min.js"></script>
<script type="text/javascript">
// More API functions here:
// https://github.com/googlecreativelab/teachablemachine-community/tree/master/libraries/image
// the link to your model provided by Teachable Machine export panel
const URL = "https://teachablemachine.withgoogle.com/models/sFBex2OZS/";
let model, webcam, labelContainer, maxPredictions;
// Load the image model and setup the webcam
async function init() {
const modelURL = URL + "model.json";
const metadataURL = URL + "metadata.json";
// load the model and metadata
// Refer to tmImage.loadFromFiles() in the API to support files from a file picker
// or files from your local hard drive
// Note: the pose library adds "tmImage" object to your window (window.tmImage)
model = await tmImage.load(modelURL, metadataURL);
maxPredictions = model.getTotalClasses();
// Convenience function to setup a webcam
const flip = true; // whether to flip the webcam
webcam = new tmImage.Webcam(200, 200, flip); // width, height, flip
await webcam.setup(); // request access to the webcam
await webcam.play();
window.requestAnimationFrame(loop);
// append elements to the DOM
document.getElementById("webcam-container").appendChild(webcam.canvas);
labelContainer = document.getElementById("label-container");
for (let i = 0; i < maxPredictions; i++) { // and class labels
labelContainer.appendChild(document.createElement("div"));
}
}
async function loop() {
webcam.update(); // update the webcam frame
await predict();
window.requestAnimationFrame(loop);
}
// run the webcam image through the image model
async function predict() {
// predict can take in an image, video or canvas html element
const prediction = await model.predict(webcam.canvas);
for (let i = 0; i < maxPredictions; i++) {
const classPrediction =
prediction[i].className + ": " + prediction[i].probability.toFixed(2);
labelContainer.childNodes[i].innerHTML = classPrediction;
}
}
</script>
Responsabile dei test: Andrea Orsucci, classe 1IA - 2IA