Les deux révisions précédentes
Révision précédente
Prochaine révision
|
Révision précédente
|
wiki:projet:m2innov19g1 [2019/10/22 15:40] iot1 |
wiki:projet:m2innov19g1 [2019/11/08 15:42] (Version actuelle) iot1 |
Jour 1 (14/10/2019): | Jour 1 (14/10/2019): |
Prise en main du tutoriel app inventor et connexion des smartphones. | Prise en main du tutoriel app inventor et connexion des smartphones. |
| On ne peut pas connecter deux smartphones sur le même app inventor. |
| Il faut scanner le QRcode à chaque modification de code effectuée sur l'appli. |
Concertation pour créer un objet connecté innovant : | Concertation pour créer un objet connecté innovant : |
* Guitare qui s'auto accorde ? | * Guitare qui s'auto accorde |
* Distributeur de croquette connecté | * Distributeur de croquettes connecté |
* Détecteur UV | * Détecteur UV |
| |
Jour 2 (16/10/2019) | Jour 2 (15/10/2019) |
| Evolution de l'idée du distributeur de croquettes connecté |
| |
| |
| {{:wiki:projet:evolution_idee_distributeur_de_croquettes.jpg?200|}} |
| |
| Question: Y a-t-il des capteurs de poids au FabLab ? |
| |
| |
| Jour 3 (16/10/2019) |
Prise en main d'app inventor en testant plusieurs capteurs de notre smartphone. | Prise en main d'app inventor en testant plusieurs capteurs de notre smartphone. |
Tout d'abord, nous avons testé le capteur ProximitySensor qui permet de mesurer la proximité d'un objet en centimètre. | Tout d'abord, nous avons testé le capteur ProximitySensor qui permet de mesurer la proximité d'un objet en centimètre. |
Lorsqu'un objet est proche de notre smartphone l'application affiche un fond vert sinon un fond rouge. | Lorsqu'un objet est proche de notre smartphone l'application affiche un fond vert sinon un fond rouge. |
{{:wiki:projet:capture_d_e_cran_2019-10-22_a_16.50.20.png?400|}} | |
| |
Jour 3 (17/10/2019) | {{:wiki:projet:capture_d_e_cran_2019-10-22_a_16.50.20.png?400|}} {{:wiki:projet:img_0873.jpg?400|}} {{:wiki:projet:img_0874.jpg?400|}} |
| |
| |
| Jour 4 (17/10/2019) |
Aujourd'hui, nous avons voulu voir s'il était possible d'afficher une vidéo. La réponse est oui mais pour cela nous devons découper la vidéo image par image et les afficher les uns à la suite des autres sur une durée déterminée. Nous avons donc voulu commencer par afficher un petit gif animé. | Aujourd'hui, nous avons voulu voir s'il était possible d'afficher une vidéo. La réponse est oui mais pour cela nous devons découper la vidéo image par image et les afficher les uns à la suite des autres sur une durée déterminée. Nous avons donc voulu commencer par afficher un petit gif animé. |
| |
{{:wiki:projet:capture_d_e_cran_2019-10-22_a_16.51.54.png?600|}} | {{:wiki:projet:capture_d_e_cran_2019-10-22_a_16.51.54.png?600|}} |
| |
Jour 4 (22/10/2019) | {{:wiki:projet:img_0875.jpg?400|}} |
La suite logique de cette prise en main est de fusionner les deux codes ci-dessus. L'idée est donc de play le gif lorsque que le ProximitySensor détecte qu'un objet est proche du smartphone. | |
| Jour 5 (22/10/2019) |
| La suite logique de cette prise en main est de fusionner les deux codes ci-dessus. L'idée est donc de lancer le gif lorsque que le ProximitySensor détecte qu'un objet est proche du smartphone. Nous avons eu des difficultés à lié les deux différents code car nous avons pas toute suite eu l'idée d'imbriquer deux bloques contrôles c'est à dire un "quand-faire" et un "si-alors". |
| |
{{:wiki:projet:capture_d_e_cran_2019-10-22_a_16.51.19.png?600|}} | {{:wiki:projet:capture_d_e_cran_2019-10-22_a_16.51.19.png?600|}} |
| |
| {{:wiki:projet:img_0876.jpg?400|}} |
| |
| |
| |
| |