언젠가 증강현실(AR) 개발/AR 파운데이션 (AR Foundation)
[유니티_AR파운데이션(AR Foundation)] 증강현실로 구현한 가상의 가로등을 현실의 빛 세기 추정으로 On/Off하기
AR Foundation에 있는 기능인 Light Estimation(빛 추정) 기능을 활용하여, 지면인식된 곳에 가상의 공원을 생성시킨후, 방 안의 불을 껏다켰다함으로써, 가상의 공원 가로등 불빛을 On/Off하는 콘텐츠를 만들어보았습니다. https://youtu.be/Ki6eYWZKb24
[유니티_AR파운데이션(AR Foundation)] Light Estimation을 활용한 빛 세기 추정
안녕하세요. AR Foundation의 빛 관련 기능인 Light Estimation의 빛 세기 추정 기능에 대해 영상을 공유드립니다. 주변의 빛의 세기에 따라 값을 측정할 수 있습니다. https://www.youtube.com/watch?v=RVXrQ_dU1Mk&list=PLdg1Xdv9tSmAjkgqEkO2qoaNKXIJMX-ie&index=7
[유니티_AR파운데이션(AR Foundation)] 얼굴인식 기능(Face Tracking)
안녕하세요. 이번에는 AR Foundation의 Face Tracking 영상을 찍어보았습니다. 기본으로 제공되는 Default Face Material과 직접 그림을 그린 Custum Face Material를 가지고 유튜브 런닝맨 편집본을 비추면서 테스트해보았습니다~ https://www.youtube.com/watch?v=4Strc7Z0URk&list=PLdg1Xdv9tSmAjkgqEkO2qoaNKXIJMX-ie&index=5
[유니티_AR파운데이션(AR Foundation)] AR Raycast로 관련 정보를 가져오기
안녕하세요~ AR Foundation에서 지면인식, 벽면인식, 포인트 클라우드~ 얼굴인식 등 여러 종류의 정보를 트래킹하여 가져와야 하는 경우가 있는데 오늘은 그것에 대해 알아볼 예정입니다. 아직 기능 확인하는 단계라서 정리를 제대로 못했네요😂😂 이렇게 코드를 영어처럼 번역해서 생각하시면 편하답니다~ ㅁ 노션 주소 https://13-32.notion.site/AR-Raycast-7bff850aa82544148e06849e775249eb
[유니티_AR파운데이션(AR Foundation)] Asset ARFoundation Remote 설치 순서 및 사용 방법!
해당 에셋은 제가 에셋을 만들거나 홍보하기 위한 것이 아니라 작업 효율을 위해 한번 공유드리는 것이니 편하게 보셔도 됩니다! AR 개발 작업을 할 때 힘든 점은 뭘까요? AR 프로젝트를 진행하게 되면 가장 큰 문제가 해당 디바이스의 카메라를 써야한다는 것인데요. 모바일 기반 AR을 사용할 때는 모바일에 빌드를 해서 확인해야 합니다ㅠㅠㅠ 물론 뷰포리아는 캠을 연결해서 에디터상에서 확인할 수 있는 방법이 있어 편리하지만 상업적으로 사용할 경우 뷰포리아의 마커 인식당 가격이 비싸기 때문에 AR Foundation을 사용하는 경우도 있습니다. 그런데 AR Foundation은 캠을 지원하지 않습니다!!😭😭😭 프로젝트를 진행하면 정말 수도 없이 빌드를 해서 테스트를 진행해야 하는데(특히나 IOS의 경우는 XCod..
[유니티_AR파운데이션(AR Foundation)] Depth API / Occlusion AR Plane Shader 방법
저번에 포스팅한 'Depth API / Occlusion'을 보면 아래와 같은 결과가 나왔습니다. 뎁스 처리 분류는 Disable / Fastest / Midium / Best로 총 4개로 구성되있는데, 위의 분류는 Best입니다. 그런데 Best치고는 조금 계단현상이 보이죠? ㅠㅠ 물론 탁자와 같은 각이진 공간을 한 것이 아니라 더 심한 걸 수도 있지만 그래도 계단현상이 보기 좀 불편하신다면, 다른 방법도 있습니다. 저번에 버튼을 눌러 PlaneMaterial 바꾸었던 것 기억하시나요? 그때처럼 PlaneMaterial을 Depth Material로 변경하면 됩니다. 바로 진행해보겠습니다. Project 씬에서 Material을 하나 생성합니다. 그리고 Shader를 변경해주면 됩니다! 이제 생성한 M..
[유니티_AR파운데이션(AR Foundation)] Depth API / AR Occlusion Manager 방법
안녕하세요~ 이번에는 Google ARCore에서 나온 Depth API를 활용하여 만들어진(?) AR Foundation의 Occlusiondp 대해 알아보겠습니다. 증강현실 콘텐츠를 제작하다보면 깊이 측정 카메라가 없기 때문에 나무 뒤에 토끼를 배치해도 토끼가 나무를 뚫고 보이게 됩니다. 일부 아이폰에는 Depth 카메라가 존재하여, 예전부터 그런 기능을 사용하고 있었지만 안드로이드에서는 사용할 수 없는 기능이였죠. 그런데 AR Core에서 해당 기능을 API로 만들겠다고 한 지 6개월(?)만에 드디어 배포가 됐습니다. 그 소식을 듣고 유니티에서도 바람같이 Depth API 기능을 추가해주셨더라고요~ 먼저 해당 기능을 적용하는 방법은 매우 간단합니다! ARCamera에 AROcclusionManage..
[유니티_AR파운데이션(AR Foundation)] 콘텐츠 활용
안녕하세요. 이번 포스팅에는 저번에 만들었던 AR Foundation Tutorial 씬을 가지고 기능을 추가해보도록 하겠습니다. 인식한 지면의 머테리얼을 변경하는 방법을 영상으로 녹화하였습니다. https://youtu.be/15mqXAePpNE 저번에 만들었던 콘텐츠는 단순히 터치하면 오브젝트가 생성 되는 기능만 있었죠? 이번에는 단순한 UI 버튼을 클릭하여 생성할 오브젝트와 지면인식 머테리얼을 변경하는 기능을 추가해보겠습니다. 먼저 추가할 에셋과 텍스쳐입니다. (물론 다른 에셋과 텍스쳐를 사용하셔도 됩니다~) 토끼와 나무는 유니티 에셋 스토어에서 추가했고, 텍스쳐는 무료 텍스쳐 사이트인 cc0 Textures에서 'grass'로 검색해서 다운로드 했습니다. 사용할 토끼와 나무들 입니다. (토끼 애니..
[유니티_AR파운데이션(AR Foundation)] SDK 사용 및 구현 방법
안녕하세요. 이번에는 Unity에서 만든 증강현실 SDK인 AR Foundation을 사용하는 법에 대해 포스팅을 진행합니다. 프로젝트 셋팅과 지면인식 씬 세팅에 대한 영상을 유튜브에 업로드 하였습니다. https://youtu.be/GBlUsZThXYo AR Foundation은 Google의 AR Core의 기능과 Apple의 AR Kit의 기능을 가지고 만들어낸 통합 SDK입니다. 기존의 AR 개발에서 AOS와 iOS를 둘 다 개발해야만 하는 상황이라면 플랫폼이 다르기 때문에 2 종류의 SDK를 사용하여 구현했어야만 했죠. 그러나 이제 Unity의 AR Foundation을 사용하면 두 플랫폼(AOS, iOS) 둘 다 구현 가능할 수 있게 됐습니다. 이번 포스팅은 AR Foundation을 사용하여..