1、three.js https://threejs.org/build/three.js
2、搭建项目环境 我使用的live-server
3、720°全景图
目录结构
mian.js
(function () {
// 在THREEjs中,渲染一个3d世界的必要因素是场景(scene)、相机(camera)、渲染器(renderer)。渲染出一个3d世界后,可以往里面增加各种各样的物体、光源等,形成一个3d世界。
// 创建场景
const scene = new THREE.Scene()
// 创建透视摄像机
// new THREE.PrespectiveCamera('视角', '指投影窗口长宽比例', '表示重距离摄像机多远的位置开始渲染', '表示距离摄像机多远的位置截止渲染')
// 正交摄像机是一个矩形可视区域,物体只有在这个区域内才是可见的物体无论距离摄像机是远或事近,物体都会被渲染成一个大小。一般应用场景是2.5d游戏如跳一跳、机械模型
// 透视摄像机是最常用的摄像机类型,模拟人眼的视觉,近大远小(透视)。Fov表示的是视角,Fov越大,表示眼睛睁得越大,离得越远,看得更多。如果是需要模拟现实,基本都是用这个相机
const camera = new THREE.PerspectiveCamera(90, window.innerWidth / window.innerHeight, 1, 1000)
// 创建ThreeJs渲染器
const renderer = new THREE.WebGLRenderer({ antialias: true })
// 设置渲染器场景的大小
renderer.setSize(window.innerWidth, window.innerHeight)
// 渲染器添加到页面
document.body.appendChild(renderer.domElement)
// 上面的确是把3d世界画出来了,只是没有什么东西。在three.js中,我们需要增加光源和mesh
// mesh即是网格。在计算机里,3D世界是由点组成的,无数的面拼接成各种形状的物体。这种模型叫做网格模型。一条线是两个点组成,一个面是3个点组成,一个物体由多个3点组成的面组成
// 而网格(mesh)又是由几何体(geometry)和材质(material)构成的
// 我们所能想象到的几何体,框架都自带了,我们只需要调用对应的几何体构造函数即可创建。几何体的创建方法都是new,如BoxBuffer:const geometry = new THREE.BoxBufferGeometry( 1, 1, 1 )
// 创建的时候,一般定义了渲染一个 3D 物体所需要的基本数据:Face 面、Vertex 顶点等信息。THREE.xxxGeometry指的是框架自带的几何体,不同几何体所需要的参数有所不同,大概是width、height、radius、depth、segment、detail、angle等属性
// 更多geometry相关api
// BufferGeometry和Geometry有什么不同?就实现的效果来说它们都是一样,但是BufferGeometry的多了一些顶点属性,且性能较好。对于开发者来说,Geometry对象属性少体验更好。THREE解析几何体对象的时候,如果是Geometry,则会把对象转换成ufferGeometry对象,再进行下一步渲染
// 创建几何模型
// THREE.BoxGeometry('x轴长', 'y轴长', 'z轴长')
const geometry = new THREE.SphereGeometry(50, 256, 256)
// 创建贴图 720°图片,需要硬件支持 这里的图是借用网络上面的
const texture = new THREE.TextureLoader().load('https://qhyxpicoss.kujiale.com/r/2019/07/01/L3D137S8ENDIADDWAYUI5L7GLUF3P3WS888_3000x4000.jpg?x-oss-process=image/resize,m_fill,w_1600,h_920/format,webp')
//创建材质
const material = new THREE.MeshBasicMaterial({ map: texture })
// 渲染球体的双面
material.side = THREE.DoubleSide
// 创建网格对象
const mesh = new THREE.Mesh(geometry, material)
// 网格对象填加到场景
scene.add(mesh)
// 摄像机放球体中心
camera.position.set(-0.3, 0, 0)
// 控制器(如果报错去github自己拷贝一个OrbitControls.js https://github.com/mrdoob/three.js/blob/dev/examples/js/controls/OrbitControls.js )
const controls = new THREE.OrbitControls(camera, renderer.domElement)
controls.addEventListener("change", () =>{
renderer.render(scene, camera)
})
controls.minDistance = 1
controls.maxDistance = 2000
controls.enablePan = false
// 调整max
controls.minDistance = 1 // controls.maxDistance = 200
controls.maxDistance = 2
function animate () {
requestAnimationFrame(animate)
renderer.render(scene, camera)
}
animate()
window.onresize = function () {
camera.aspect = window.innerWidth / window.innerHeight
camera.updateProjectionMatrix()
renderer.setSize(window.innerWidth, window.innerHeight)
}
})()
目前VR看房的技术,总体分为两大类:
需要戴上VR眼镜(比如HTC vive)等头显式VR的方式进行VR看房的,
通过电脑、平板电脑或者手机通过网络端进行在线裸眼式的VR看房。
在这两种方式中,第一种方式无疑是体验效果最好的,在VR的世界里,能够做到身临其境,可以完全沉浸在虚拟的环境里面,适合大型项目,让客户能感受到整个项目的宏伟气势。但是缺点就是不方便,需要戴上VR眼镜还有配套的电脑,搭建环境整体方案价格比较高,制作成本也偏高,在售楼部现场,如果采用此方案,需要有专人为客户讲解如何使用VR眼镜以及各项使用事项,所花费的时间和人力成本让这种方式慢慢地成为鸡肋,客户也对其VR眼镜的卫生和使用方面产生距离感,到最后被开放商弃之不用。
第二种方式主要是通过手机和电脑端等进行裸眼观看,也可以放在手机VR盒子里面观看,其中又分为三种方式:
第一种就是最早出现的全景VR,相信大家早已经在手机或者其他地方体验到了,可以是全景照片,也可以是全景效果图,然后在里面的菜单进行场景的跳转。这种方式方便简洁,但是缺点就是观察点是固定的,每个房间取决于拍摄者所选的位置,而且在场景跳转的时候,往往让客户不知道身处何处,缺乏对场景的重构感,对于空间的逻辑性及理解没法产生全局感。还有在观看全景的时候,边缘会产生强烈的畸变,严重影响观看效果。这种方式其实根本算不上VR,只是因为最早出现的手机盒子+全景照片的普及程度较高,加上眼镜商家的宣传,大家就慢慢约定俗成以为这就是VR。
第二种方式,是适合于实体房屋(比如二手房和实体样板间等),主要是利用专业的扫描相机对场景进行扫描和拍摄,然后生成一个大体的模型可供浏览,你可以理解为它是一连串路径点(就是设了多个机位拍摄)的全景照片,在场景切换时,加载模型信息,感觉好像是能在里面自由活动一样,保持了空间路径的逻辑感,帮助空间概念的形成。这种方式目前像贝壳看房还有众趣科技等等采用的是这一方式。它的局限性目前在于模型精度不够,且只能是实体房间,比如你得先有样板间才行。
还有一种方式就是针对于没有实体样板间的,但是又不想通过全景效果图来表达空间,毕竟全景效果图对于空间的逻辑性表达很差,那就是通过例如tree.js或其他WebGL技术来进行建模渲染,然后生成轻量化的html文件,可以通过微信、H5网页或者网站等等进行传播分享。这种方式做出来的就是完全的真三维的文件,你可以完全自由无拘无束的在房间里面游走观看,还可以进行空间的任意切换,平面图或环绕图或直达各个房间,然后通过点击直接就可以在房间里面行走,还可以增加链接的热点,也可以进行材质的替换,比如样板间的装修材质给客户几种选择方案,客户可以自己搭配参考。逼真的光影和真实的材质表现,让你的项目跃然于各个屏上(手机、平板或电脑,也可以是项目上的大屏等等),给客户带来既真实又方便观看的体验,画面既没有任何畸变的效果,更可以接上VR眼镜完全沉浸如空间进行观看。这种方式称为“3D虚拟漫游,”