Vuforia Android SDK explicó las muestras?

Apreciaría si alguien puede proporcionar cualquier fuente que pueda ayudarme a entender cómo las muestras de Vuforia para el trabajo de Androide? He instalado todo y puedo ejecutarlos en mi teléfono, pero es difícil entender la estructura del proyecto.

Sería genial si hay algún tutorial sobre cómo crear la aplicación AR más simple con Android Studio (no Unity ).

También he aprendido cómo crear escenas de AR con Unity, exportarlas a Android y ejecutarlas en el dispositivo, pero todavía no entiendo cómo trabajar con el proyecto exportado en Android Studio más.

Mi objetivo es tener un objetivo de imagen y varios objetos 3D. Quiero tener interfaz de usuario simple como ListView para elegir qué objeto colocar en el destino.

Además, ¿es posible construir ListView con Android y en el objeto de clic de clic del objeto switch 3D con otro en una sola escena creada en Unity? Sé que puedo cargar dinámicamente modelos 3D con Unity C # script, así que puedo activar alguna función en ese script a través de Android?

Realmente aprecio cualquier consejo.

Resumen:

Primero subes una imagen a la nube de Vuforia para que devuelva un archivo xml y .dat. Aquellos que se almacenan en los activos de transmisión. El archivo dat contiene toda la información en formato binario sobre su marcador. El xml contiene información sobre el nombre y el tamaño y está vinculado al componente C #.

Vuforia permite crear un marcador de tiempo de ejecución o un marcador de nubes, pero los dejaremos por ahora. La idea sigue siendo la misma.

Cuando ejecuta la aplicación, el hardware de la cámara CH (no la cámara Unity, tenga en mente esta distinción), proporciona un feed. Ese feed se representa en una textura en la escena de Unity, una Unity camera UC se enfrenta a esa textura. Estos se fijan en el espacio, sólo el contenido de la textura se actualiza con lo que el CH proporciona cada marco. Esta es la realidad de tu aplicación.

Al mismo tiempo, Vuforia escanea el feed CH y realiza un reconocimiento de patrones https://en.wikipedia.org/wiki/Pattern_recognition intentando encontrar una coincidencia con el archivo dat que proporcionaste. Cuando se encuentra un patrón, realiza una segunda carrera para definir la distancia y la rotación de ese patrón con respecto al CH. Esto es posible ya que el archivo xml contiene las dimensiones de su marcador real. Si el xml dice 50×50 y su marcador es 25×25, será el doble de lo esperado, ya que el sistema entiende que el marcador está más lejos de lo que realmente es.

Cuando se reconoce el marcador, Vuforia llama al detector de estado en DefaultTrackableEventHandler (compruebe el script en el padre del modelo), implementa este método:

 public void OnTrackableStateChanged( TrackableBehaviour.Status previousStatus, TrackableBehaviour.Status newStatus) { if (newStatus == TrackableBehaviour.Status.DETECTED || newStatus == TrackableBehaviour.Status.TRACKED || newStatus == TrackableBehaviour.Status.EXTENDED_TRACKED) { OnTrackingFound(); } else { OnTrackingLost(); } } 

Básicamente, si Vuforia detecta un cambio, llama a ese método. A continuación, puede propagar el evento haciendo más OnTrackingFound / Lost un evento público en cualquier cosa puede registrarse. O crear una nueva secuencia de comandos que implementa ITrackableEventHandler. Esto es sólo escuchar si un modelo se encontró o se perdió. En el ejemplo, cuando se encuentra, muestra el modelo y viceversa. Este es el escenario más probable y básico, pero cualquier cosa puede ser activada.

El resultado de los cálculos representa una transformación (posición, rotación). Esa Transformada se transmite a una segunda cámara Unity en la escena. Las coordenadas se definen con (0,0,0) como la posición del marcador. Lo más probable es que apunte al modelo 3D que colocó allí. Tenga en cuenta que puede colocar el modelo en cualquier lugar de la escena, sólo se compensará. La cámara de Vuforia NO PUEDE ser controlada, si tuvieras que probar y pasar valor a la Transform, ellos serán sobrescritos por Vuforia. Usted simplemente no está destinado a jugar con esos valores. Usted puede por otro lado ponerlo en y fuera, afectar a algunos de la prestación y así sucesivamente.

La primera UC tiene una profundidad inferior, por lo que hace que la escena real primero, el segundo se representa en la parte superior, que aumenta la realidad con el modelo 3D. Con un conjunto de máscara de capa, la segunda cámara ignora el resto de la escena por lo que sólo el modelo se considera.

Usted realmente no quiere jugar con la alimentación de fondo, pero seguramente desea interactuar con el modelo, para hacerlo, al igual que cualquier escena normal. Agarra el componente de cámara de la cámara Vuforia y raycast de ella en la dirección de avance. Compruebe su golpe y haga su acción.

  • No se puede instanciar la aplicación com.android.tools.fd.runtime.BootstrapApplication
  • FlipAndroid es un fan de Google para Android, Todo sobre Android Phones, Android Wear, Android Dev y Aplicaciones para Android Aplicaciones.