FAO AGRIS - Sistema Internacional para la Ciencia y Tecnología Agrícola

A physically-based model for retrieving foliar biochemistry and leaf orientation using close-range imaging spectroscopy | Un modèle physique pour l'estimation de la biochimie foliaire et de l'orientation de la feuille à partir d'imagerie hyperspectrale de proxi-détection

Jay, S. | Bendoula, R. | Hadoux, X. | Féret, Jean-Baptiste | Gorretta, N. | Information – Technologies – Analyse Environnementale – Procédés Agricoles (UMR ITAP) ; Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA)-Institut national d’études supérieures agronomiques de Montpellier (Montpellier SupAgro) | Centre for Eye Research Australia ; Royal Victorian Eye and Ear Hospital | Territoires, Environnement, Télédétection et Information Spatiale (UMR TETIS) ; Centre de Coopération Internationale en Recherche Agronomique pour le Développement (Cirad)-AgroParisTech-Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA)-Centre National de la Recherche Scientifique (CNRS) | ANR-11-BTBR-0007,AKER,Innover pour une filière française durable : réinvestir la diversité allélique de la betterave par l(2011)


Información bibliográfica
Editorial
CCSD, Elsevier
Otras materias
Traitement d'image; Hyperspectral image; Modele physique; [sde]environmental sciences; Image hyperspectrale
Idioma
Inglés
Licencia
info:eu-repo/semantics/OpenAccess
ISSN
01804958
Tipo
Journal Article; Journal Part; Journal Article; Journal Part
Fuente
ISSN: 0034-4257, EISSN: 1879-0704, Remote Sensing of Environment, https://hal.science/hal-01804958, Remote Sensing of Environment, 2016, 177, pp.220-236. ⟨10.1016/j.rse.2016.02.029⟩

2024-09-05
2026-02-03
Dublin Core
Proveedor de Datos

Este registro bibliográfico ha sido proporcionado por AgroParisTech

Descubra la colección de este proveedor de datos en AGRIS

Buscar en Google Scholar
Si observa algún dato incorrecto en este registro bibliográfico, póngase en contacto con nosotros en [email protected]