国产无遮挡裸体免费直播视频,久久精品国产蜜臀av,动漫在线视频一区二区,欧亚日韩一区二区三区,久艹在线 免费视频,国产精品美女网站免费,正在播放 97超级视频在线观看,斗破苍穹年番在线观看免费,51最新乱码中文字幕

解析spark源碼yarn-cluster模式任務(wù)提交

 更新時(shí)間:2021年09月22日 17:10:03   作者:cangchen@csdn  
這篇文章主要為大家解析了spark源碼中yarn-cluster模式任務(wù)提交方式,有需要的朋友可以借鑒參考下,希望可以有所幫助,祝大家多多進(jìn)步,早日升職加薪

一,運(yùn)行命令

bin/spark-submit \
--master yarn \
--deploy-mode cluster \
--class org.apache.spark.examples.SparkPi \
examples/jars/spark-examples_2.11-2.3.1.3.0.1.0-187.jar  

二,任務(wù)提交流程圖

在這里插入圖片描述

三,啟動(dòng)腳本

查看spark-submit 腳本文件,程序入口為

在這里插入圖片描述

exec "${SPARK_HOME}"/bin/spark-class org.apache.spark.deploy.SparkSubmit "$@“

查看${SPARK_HOME}"/bin/spark-class可知該腳本執(zhí)行了java -cp main-class 命令啟動(dòng)了一個(gè)java進(jìn)程,進(jìn)程名為SparkSubmit,main函數(shù)在主類org.apache.spark.deploy.SparkSubmit中。

實(shí)際執(zhí)行的具體命令為:

/etc/alternatives/jre/bin/java -Dhdp.version=3.0.1.0-187 -cp /usr/hdp/3.0.1.0-187/spark2/conf/:/usr/hdp/3.0.1.0-187/spark2/jars/*:/usr/hdp/3.0.1.0-187/hadoop/conf/ -Xmx1g org.apache.spark.deploy.SparkSubmit --master yarn --class org.apache.spark.examples.SparkPi examples/jars/spark-examples_2.11-2.3.1.3.0.1.0-187.jar 

四,程序入口類org.apache.spark.deploy.SparkSubmit

該類有個(gè)伴生對(duì)象,其中有main函數(shù),創(chuàng)建了SparkSubmit對(duì)象并執(zhí)行doSubmit();

override def main(args: Array[String]): Unit = {
  val submit = new SparkSubmit() {...}
  submit.doSubmit(args)
}

doSubmit 解析args參數(shù),封裝到appArgs:SparkSubmitArguments對(duì)象中,然后執(zhí)行submit(appArgs, uninitLog)。

def doSubmit(args: Array[String]): Unit = {
  // Initialize logging if it hasn't been done yet. Keep track of whether logging needs to
  // be reset before the application starts.
  val uninitLog = initializeLogIfNecessary(true, silent = true)
  val appArgs = parseArguments(args)
  if (appArgs.verbose) {
    logInfo(appArgs.toString)
  }
  appArgs.action match {
    case SparkSubmitAction.SUBMIT => submit(appArgs, uninitLog)
    case SparkSubmitAction.KILL => kill(appArgs)
    case SparkSubmitAction.REQUEST_STATUS => requestStatus(appArgs)
    case SparkSubmitAction.PRINT_VERSION => printVersion()
  }
}

submit(appArgs, uninitLog) 調(diào)用 runMain(args: SparkSubmitArguments, uninitLog: Boolean)

private def runMain(args: SparkSubmitArguments, uninitLog: Boolean): Unit = {
  val (childArgs, childClasspath, sparkConf, childMainClass) = prepareSubmitEnvironment(args)
    .
    .
    .
  try {
     mainClass = Utils.classForName(childMainClass)
  } catch {...}
  val app: SparkApplication = if (classOf[SparkApplication].isAssignableFrom(mainClass)) {
    mainClass.getConstructor().newInstance().asInstanceOf[SparkApplication]
  } else {
    new JavaMainApplication(mainClass)
  }
    .
    .
    .
  try {
    app.start(childArgs.toArray, sparkConf)
  } catch {
    case t: Throwable =>
      throw findCause(t)
  }
}

這里mainClass十分重要,先判讀mainClass是否是SparkApplication的子類,如果是則通過反射調(diào)用其構(gòu)造器創(chuàng)建對(duì)象;

如果不是則創(chuàng)建一個(gè)JavaMainApplication(是SparkApplication的子類)對(duì)象并在其override def start(args: Array[String], conf: SparkConf)函數(shù)中利用反射執(zhí)行mainClass中main函數(shù)。

SparkApplication創(chuàng)建完畢后執(zhí)行其start(childArgs.toArray, sparkConf) 方法。

/**
 * Entry point for a Spark application. Implementations must provide a no-argument constructor.
 */
private[spark] trait SparkApplication {
  def start(args: Array[String], conf: SparkConf): Unit
}
/**
 * Implementation of SparkApplication that wraps a standard Java class with a "main" method.
 *
 * Configuration is propagated to the application via system properties, so running multiple
 * of these in the same JVM may lead to undefined behavior due to configuration leaks.
 */
private[deploy] class JavaMainApplication(klass: Class[_]) extends SparkApplication {
  override def start(args: Array[String], conf: SparkConf): Unit = {
    val mainMethod = klass.getMethod("main", new Array[String](0).getClass)
    if (!Modifier.isStatic(mainMethod.getModifiers)) {
      throw new IllegalStateException("The main method in the given main class must be static")
    }
    val sysProps = conf.getAll.toMap
    sysProps.foreach { case (k, v) =>
      sys.props(k) = v
    }
    mainMethod.invoke(null, args)
  }
}

如果**–deploy-mode** 是client mainClass的值由命令行參數(shù) –class 決定,也就是org.apache.spark.examples.SparkPi。

這種情況下會(huì)在當(dāng)前虛擬機(jī)中執(zhí)行客戶端代碼,如果是其它條件情況會(huì)比較復(fù)雜。

以上文指定的運(yùn)行命令為例,這里mainClass是org.apache.spark.deploy.yarn.YarnClusterApplication類class對(duì)象。

private[deploy] val YARN_CLUSTER_SUBMIT_CLASS =
  "org.apache.spark.deploy.yarn.YarnClusterApplication"
...
if (isYarnCluster) {
  childMainClass = YARN_CLUSTER_SUBMIT_CLASS
  if (args.isPython) {
    childArgs += ("--primary-py-file", args.primaryResource)
    childArgs += ("--class", "org.apache.spark.deploy.PythonRunner")
  } else if (args.isR) {
    val mainFile = new Path(args.primaryResource).getName
    childArgs += ("--primary-r-file", mainFile)
    childArgs += ("--class", "org.apache.spark.deploy.RRunner")
  } else {
    if (args.primaryResource != SparkLauncher.NO_RESOURCE) {
      childArgs += ("--jar", args.primaryResource)
    }
    childArgs += ("--class", args.mainClass)
  }
  if (args.childArgs != null) {
    args.childArgs.foreach { arg => childArgs += ("--arg", arg) }
  }
}

五,org.apache.spark.deploy.yarn.YarnClusterApplication類

該類在spark-yarn包中。

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-yarn_${scala.version}</artifactId>
    <version>${spark.version}</version>
</dependency>

開始執(zhí)行其override def start(args: Array[String], conf: SparkConf) 方法。

private[spark] class YarnClusterApplication extends SparkApplication {

  override def start(args: Array[String], conf: SparkConf): Unit = {
    // SparkSubmit would use yarn cache to distribute files & jars in yarn mode,
    // so remove them from sparkConf here for yarn mode.
    conf.remove(JARS)
    conf.remove(FILES)
    new Client(new ClientArguments(args), conf, null).run()
  }
}

SparkSubmi進(jìn)程中創(chuàng)建一個(gè)客戶端Client,該類是一個(gè)代理類其中包括YarnClient,執(zhí)行run() 方法。

提交Application給yarn集群ResourceManager,提交成功后返回appid,

如果spark.submit.deployMode=cluster&&spark.yarn.submit.waitAppCompletion=true,

SparkSubmit進(jìn)程會(huì)定期輸出appId日志直到任務(wù)結(jié)束(monitorApplication(appId)),否則會(huì)輸出一次日志然后退出。

def run(): Unit = {
    this.appId = submitApplication()
    if (!launcherBackend.isConnected() && fireAndForget) {
      val report = getApplicationReport(appId)
      val state = report.getYarnApplicationState
      logInfo(s"Application report for $appId (state: $state)")
      logInfo(formatReportDetails(report))
      if (state == YarnApplicationState.FAILED || state == YarnApplicationState.KILLED) {
        throw new SparkException(s"Application $appId finished with status: $state")
      }
    } else {
      val YarnAppReport(appState, finalState, diags) = monitorApplication(appId)
      if (appState == YarnApplicationState.FAILED || finalState == FinalApplicationStatus.FAILED) {
        diags.foreach { err =>
          logError(s"Application diagnostics message: $err")
        }
        throw new SparkException(s"Application $appId finished with failed status")
      }
      if (appState == YarnApplicationState.KILLED || finalState == FinalApplicationStatus.KILLED) {
        throw new SparkException(s"Application $appId is killed")
      }
      if (finalState == FinalApplicationStatus.UNDEFINED) {
        throw new SparkException(s"The final status of application $appId is undefined")
      }
    }
  }

繼續(xù)跟蹤submitApplication()

def submitApplication(): ApplicationId = {
    ResourceRequestHelper.validateResources(sparkConf)
    var appId: ApplicationId = null
    try {
      launcherBackend.connect()
      yarnClient.init(hadoopConf)
      yarnClient.start()
      logInfo("Requesting a new application from cluster with %d NodeManagers"
        .format(yarnClient.getYarnClusterMetrics.getNumNodeManagers))
      // Get a new application from our RM
      val newApp = yarnClient.createApplication()
      val newAppResponse = newApp.getNewApplicationResponse()
      appId = newAppResponse.getApplicationId()
      // The app staging dir based on the STAGING_DIR configuration if configured
      // otherwise based on the users home directory.
      val appStagingBaseDir = sparkConf.get(STAGING_DIR)
        .map { new Path(_, UserGroupInformation.getCurrentUser.getShortUserName) }
        .getOrElse(FileSystem.get(hadoopConf).getHomeDirectory())
      stagingDirPath = new Path(appStagingBaseDir, getAppStagingDir(appId))
      new CallerContext("CLIENT", sparkConf.get(APP_CALLER_CONTEXT),
        Option(appId.toString)).setCurrentContext()
      // Verify whether the cluster has enough resources for our AM
      verifyClusterResources(newAppResponse)
      // Set up the appropriate contexts to launch our AM
      val containerContext = createContainerLaunchContext(newAppResponse)
      val appContext = createApplicationSubmissionContext(newApp, containerContext)
      // Finally, submit and monitor the application
      logInfo(s"Submitting application $appId to ResourceManager")
      yarnClient.submitApplication(appContext)
      launcherBackend.setAppId(appId.toString)
      reportLauncherState(SparkAppHandle.State.SUBMITTED)
      appId
    } catch {
      case e: Throwable =>
        if (stagingDirPath != null) {
          cleanupStagingDir()
        }
        throw e
    }

該方法做了如下工作(對(duì)應(yīng)于任務(wù)提交流程圖中的1,2,3):
1,向ResourceManager發(fā)送請(qǐng)求創(chuàng)建Application,獲取全局唯一的
appId。
2,根據(jù)配置的緩存目錄信息+appId信息,創(chuàng)建運(yùn)行Application運(yùn)行的緩存目錄stagingDirPath。
3,verifyClusterResources 驗(yàn)證集群中是否有足夠資源可用,沒有的話拋出異常。
4,createContainerLaunchContext 創(chuàng)建Container,其中封裝了Container進(jìn)程的啟動(dòng)命令。
5,提交appContext。

查看createContainerLaunchContext(newAppResponse) 代碼。

val amClass =
      if (isClusterMode) {
        Utils.classForName("org.apache.spark.deploy.yarn.ApplicationMaster").getName
      } else {
        Utils.classForName("org.apache.spark.deploy.yarn.ExecutorLauncher").getName
      }
...
// Command for the ApplicationMaster
    val commands = prefixEnv ++
      Seq(Environment.JAVA_HOME.$$() + "/bin/java", "-server") ++
      javaOpts ++ amArgs ++
      Seq(
        "1>", ApplicationConstants.LOG_DIR_EXPANSION_VAR + "/stdout",
        "2>", ApplicationConstants.LOG_DIR_EXPANSION_VAR + "/stderr")
    // TODO: it would be nicer to just make sure there are no null commands here
    val printableCommands = commands.map(s => if (s == null) "null" else s).toList
    amContainer.setCommands(printableCommands.asJava)

Container的啟動(dòng)代碼大概為
bin/java -server org.apache.spark.deploy.yarn.ApplicationMaster --class …

六, org.apache.spark.deploy.yarn.ApplicationMaster 類。

yarn集群某一個(gè)NodeManager收到ResourceManager的命令,啟動(dòng)ApplicationMaster進(jìn)程,對(duì)應(yīng)任務(wù)提交流程圖中的步驟4.
查看ApplicationMaster 伴生對(duì)象中的main方法。

def main(args: Array[String]): Unit = {
    SignalUtils.registerLogger(log)
    val amArgs = new ApplicationMasterArguments(args)
    val sparkConf = new SparkConf()
    if (amArgs.propertiesFile != null) {
      Utils.getPropertiesFromFile(amArgs.propertiesFile).foreach { case (k, v) =>
        sparkConf.set(k, v)
      }
    }
    // Set system properties for each config entry. This covers two use cases:
    // - The default configuration stored by the SparkHadoopUtil class
    // - The user application creating a new SparkConf in cluster mode
    //
    // Both cases create a new SparkConf object which reads these configs from system properties.
    sparkConf.getAll.foreach { case (k, v) =>
      sys.props(k) = v
    }
    val yarnConf = new YarnConfiguration(SparkHadoopUtil.newConfiguration(sparkConf))
    master = new ApplicationMaster(amArgs, sparkConf, yarnConf)
    val ugi = sparkConf.get(PRINCIPAL) match {
      // We only need to log in with the keytab in cluster mode. In client mode, the driver
      // handles the user keytab.
      case Some(principal) if master.isClusterMode =>
        val originalCreds = UserGroupInformation.getCurrentUser().getCredentials()
        SparkHadoopUtil.get.loginUserFromKeytab(principal, sparkConf.get(KEYTAB).orNull)
        val newUGI = UserGroupInformation.getCurrentUser()
       if (master.appAttemptId == null || master.appAttemptId.getAttemptId > 1) {
          // Re-obtain delegation tokens if this is not a first attempt, as they might be outdated
          // as of now. Add the fresh tokens on top of the original user's credentials (overwrite).
          // Set the context class loader so that the token manager has access to jars
          // distributed by the user.
          Utils.withContextClassLoader(master.userClassLoader) {
            val credentialManager = new HadoopDelegationTokenManager(sparkConf, yarnConf, null)
            credentialManager.obtainDelegationTokens(originalCreds)
          }
        }
        // Transfer the original user's tokens to the new user, since it may contain needed tokens
        // (such as those user to connect to YARN).
        newUGI.addCredentials(originalCreds)
        newUGI
      case _ =>
        SparkHadoopUtil.get.createSparkUser()
    }
    ugi.doAs(new PrivilegedExceptionAction[Unit]() {
      override def run(): Unit = System.exit(master.run())
    })
  }

創(chuàng)建了ApplicationMaster對(duì)象并執(zhí)行其run() 方法。

 final def run(): Int = {
    try {
      val attemptID = if (isClusterMode) {
        // Set the web ui port to be ephemeral for yarn so we don't conflict with
        // other spark processes running on the same box
        System.setProperty(UI_PORT.key, "0")
        // Set the master and deploy mode property to match the requested mode.
        System.setProperty("spark.master", "yarn")
        System.setProperty(SUBMIT_DEPLOY_MODE.key, "cluster")
        // Set this internal configuration if it is running on cluster mode, this
        // configuration will be checked in SparkContext to avoid misuse of yarn cluster mode.
        System.setProperty("spark.yarn.app.id", appAttemptId.getApplicationId().toString())
        Option(appAttemptId.getAttemptId.toString)
      } else {
        None
      }
      new CallerContext(
        "APPMASTER", sparkConf.get(APP_CALLER_CONTEXT),
        Option(appAttemptId.getApplicationId.toString), attemptID).setCurrentContext()
      logInfo("ApplicationAttemptId: " + appAttemptId)
      // This shutdown hook should run *after* the SparkContext is shut down.
      val priority = ShutdownHookManager.SPARK_CONTEXT_SHUTDOWN_PRIORITY - 1
      ShutdownHookManager.addShutdownHook(priority) { () =>
        val maxAppAttempts = client.getMaxRegAttempts(sparkConf, yarnConf)
        val isLastAttempt = appAttemptId.getAttemptId() >= maxAppAttempts
        if (!finished) {
          // The default state of ApplicationMaster is failed if it is invoked by shut down hook.
          // This behavior is different compared to 1.x version.
          // If user application is exited ahead of time by calling System.exit(N), here mark
          // this application as failed with EXIT_EARLY. For a good shutdown, user shouldn't call
          // System.exit(0) to terminate the application.
          finish(finalStatus,
            ApplicationMaster.EXIT_EARLY,
            "Shutdown hook called before final status was reported.")
        }
        if (!unregistered) {
          // we only want to unregister if we don't want the RM to retry
          if (finalStatus == FinalApplicationStatus.SUCCEEDED || isLastAttempt) {
            unregister(finalStatus, finalMsg)
            cleanupStagingDir(new Path(System.getenv("SPARK_YARN_STAGING_DIR")))
          }
        }
      }
      if (isClusterMode) {
        runDriver()
      } else {
        runExecutorLauncher()
      }
    } catch {
      case e: Exception =>
        // catch everything else if not specifically handled
        logError("Uncaught exception: ", e)
        finish(FinalApplicationStatus.FAILED,
          ApplicationMaster.EXIT_UNCAUGHT_EXCEPTION,
          "Uncaught exception: " + StringUtils.stringifyException(e))
    } finally {
      try {
        metricsSystem.foreach { ms =>
          ms.report()
          ms.stop()
        }
      } catch {
        case e: Exception =>
          logWarning("Exception during stopping of the metric system: ", e)
      }
    }

    exitCode
  }

執(zhí)行runDriver()方法。
userClassThread = startUserApplication() 啟動(dòng)了一個(gè)名為Driver的線程,該線程中通過反射執(zhí)行命令行中**–class指定的類(org.apache.spark.examples.SparkPi)中的main**函數(shù),初始化SparkContext。主線程喚醒后,向ResourceManager注冊(cè)ApplicationMaster,步驟5;

private def runDriver(): Unit = {
    addAmIpFilter(None, System.getenv(ApplicationConstants.APPLICATION_WEB_PROXY_BASE_ENV))
    userClassThread = startUserApplication()
    // This a bit hacky, but we need to wait until the spark.driver.port property has
    // been set by the Thread executing the user class.
    logInfo("Waiting for spark context initialization...")
    val totalWaitTime = sparkConf.get(AM_MAX_WAIT_TIME)
    try {
      val sc = ThreadUtils.awaitResult(sparkContextPromise.future,
        Duration(totalWaitTime, TimeUnit.MILLISECONDS))
      if (sc != null) {
        val rpcEnv = sc.env.rpcEnv
        val userConf = sc.getConf
        val host = userConf.get(DRIVER_HOST_ADDRESS)
        val port = userConf.get(DRIVER_PORT)
        registerAM(host, port, userConf, sc.ui.map(_.webUrl), appAttemptId)
        val driverRef = rpcEnv.setupEndpointRef(
          RpcAddress(host, port),
          YarnSchedulerBackend.ENDPOINT_NAME)
        createAllocator(driverRef, userConf, rpcEnv, appAttemptId, distCacheConf)
      } else {
        // Sanity check; should never happen in normal operation, since sc should only be null
        // if the user app did not create a SparkContext.
        throw new IllegalStateException("User did not initialize spark context!")
      }
      resumeDriver()
      userClassThread.join()
    } catch {
      case e: SparkException if e.getCause().isInstanceOf[TimeoutException] =>
        logError(
          s"SparkContext did not initialize after waiting for $totalWaitTime ms. " +
           "Please check earlier log output for errors. Failing the application.")
        finish(FinalApplicationStatus.FAILED,
          ApplicationMaster.EXIT_SC_NOT_INITED,
          "Timed out waiting for SparkContext.")
    } finally {
      resumeDriver()
    }
  }
private def startUserApplication(): Thread = {
    logInfo("Starting the user application in a separate Thread")
    var userArgs = args.userArgs
    if (args.primaryPyFile != null && args.primaryPyFile.endsWith(".py")) {
      // When running pyspark, the app is run using PythonRunner. The second argument is the list
      // of files to add to PYTHONPATH, which Client.scala already handles, so it's empty.
      userArgs = Seq(args.primaryPyFile, "") ++ userArgs
    }
    if (args.primaryRFile != null &&
        (args.primaryRFile.endsWith(".R") || args.primaryRFile.endsWith(".r"))) {
      // TODO(davies): add R dependencies here
    }
    val mainMethod = userClassLoader.loadClass(args.userClass)
      .getMethod("main", classOf[Array[String]])
    val userThread = new Thread {
      override def run(): Unit = {
        try {
          if (!Modifier.isStatic(mainMethod.getModifiers)) {
            logError(s"Could not find static main method in object ${args.userClass}")
            finish(FinalApplicationStatus.FAILED, ApplicationMaster.EXIT_EXCEPTION_USER_CLASS)
          } else {
            mainMethod.invoke(null, userArgs.toArray)
            finish(FinalApplicationStatus.SUCCEEDED, ApplicationMaster.EXIT_SUCCESS)
            logDebug("Done running user class")
          }
        } catch {
          case e: InvocationTargetException =>
            e.getCause match {
              case _: InterruptedException =>
                // Reporter thread can interrupt to stop user class
              case SparkUserAppException(exitCode) =>
                val msg = s"User application exited with status $exitCode"
                logError(msg)
                finish(FinalApplicationStatus.FAILED, exitCode, msg)
              case cause: Throwable =>
                logError("User class threw exception: " + cause, cause)
                finish(FinalApplicationStatus.FAILED,
                  ApplicationMaster.EXIT_EXCEPTION_USER_CLASS,
                  "User class threw exception: " + StringUtils.stringifyException(cause))
            }
            sparkContextPromise.tryFailure(e.getCause())
        } finally {
          // Notify the thread waiting for the SparkContext, in case the application did not
          // instantiate one. This will do nothing when the user code instantiates a SparkContext
          // (with the correct master), or when the user code throws an exception (due to the
          // tryFailure above).
          sparkContextPromise.trySuccess(null)
        }
      }
    }
    userThread.setContextClassLoader(userClassLoader)
    userThread.setName("Driver")
    userThread.start()
    userThread
  }

注冊(cè)完成后,主線程處理yarn返回的資源createAllocator(driverRef, userConf, rpcEnv, appAttemptId, distCacheConf)。

 private def createAllocator(
      driverRef: RpcEndpointRef,
      _sparkConf: SparkConf,
      rpcEnv: RpcEnv,
      appAttemptId: ApplicationAttemptId,
      distCacheConf: SparkConf): Unit = {
    // In client mode, the AM may be restarting after delegation tokens have reached their TTL. So
    // always contact the driver to get the current set of valid tokens, so that local resources can
    // be initialized below.
    if (!isClusterMode) {
      val tokens = driverRef.askSync[Array[Byte]](RetrieveDelegationTokens)
      if (tokens != null) {
        SparkHadoopUtil.get.addDelegationTokens(tokens, _sparkConf)
      }
    }
    val appId = appAttemptId.getApplicationId().toString()
    val driverUrl = RpcEndpointAddress(driverRef.address.host, driverRef.address.port,
      CoarseGrainedSchedulerBackend.ENDPOINT_NAME).toString
    val localResources = prepareLocalResources(distCacheConf)
    // Before we initialize the allocator, let's log the information about how executors will
    // be run up front, to avoid printing this out for every single executor being launched.
    // Use placeholders for information that changes such as executor IDs.
    logInfo {
      val executorMemory = _sparkConf.get(EXECUTOR_MEMORY).toInt
      val executorCores = _sparkConf.get(EXECUTOR_CORES)
      val dummyRunner = new ExecutorRunnable(None, yarnConf, _sparkConf, driverUrl, "<executorId>",
        "<hostname>", executorMemory, executorCores, appId, securityMgr, localResources,
        ResourceProfile.DEFAULT_RESOURCE_PROFILE_ID)
      dummyRunner.launchContextDebugInfo()
    }
    allocator = client.createAllocator(
      yarnConf,
      _sparkConf,
      appAttemptId,
      driverUrl,
      driverRef,
      securityMgr,
      localResources)
    // Initialize the AM endpoint *after* the allocator has been initialized. This ensures
    // that when the driver sends an initial executor request (e.g. after an AM restart),
    // the allocator is ready to service requests.
    rpcEnv.setupEndpoint("YarnAM", new AMEndpoint(rpcEnv, driverRef))
    allocator.allocateResources()
    val ms = MetricsSystem.createMetricsSystem(MetricsSystemInstances.APPLICATION_MASTER,
      sparkConf, securityMgr)
    val prefix = _sparkConf.get(YARN_METRICS_NAMESPACE).getOrElse(appId)
    ms.registerSource(new ApplicationMasterSource(prefix, allocator))
    // do not register static sources in this case as per SPARK-25277
    ms.start(false)
    metricsSystem = Some(ms)
    reporterThread = launchReporterThread()
  }

只看關(guān)鍵代碼allocator.allocateResources(),處理分配的資源。

def allocateResources(): Unit = synchronized {
    updateResourceRequests()
    val progressIndicator = 0.1f
    // Poll the ResourceManager. This doubles as a heartbeat if there are no pending container
    // requests.
    val allocateResponse = amClient.allocate(progressIndicator)
    val allocatedContainers = allocateResponse.getAllocatedContainers()
    allocatorBlacklistTracker.setNumClusterNodes(allocateResponse.getNumClusterNodes)
    if (allocatedContainers.size > 0) {
      logDebug(("Allocated containers: %d. Current executor count: %d. " +
        "Launching executor count: %d. Cluster resources: %s.")
        .format(
          allocatedContainers.size,
          runningExecutors.size,
          numExecutorsStarting.get,
          allocateResponse.getAvailableResources))
      handleAllocatedContainers(allocatedContainers.asScala)
    }
   val completedContainers = allocateResponse.getCompletedContainersStatuses()
    if (completedContainers.size > 0) {
      logDebug("Completed %d containers".format(completedContainers.size))
      processCompletedContainers(completedContainers.asScala)
      logDebug("Finished processing %d completed containers. Current running executor count: %d."
        .format(completedContainers.size, runningExecutors.size))
    }
  }

如果分配的Container數(shù)量大于0,調(diào)用** handleAllocatedContainers(allocatedContainers.asScala)**

def handleAllocatedContainers(allocatedContainers: Seq[Container]): Unit = {
    val containersToUse = new ArrayBuffer[Container](allocatedContainers.size)
    // Match incoming requests by host
    val remainingAfterHostMatches = new ArrayBuffer[Container]
    for (allocatedContainer <- allocatedContainers) {
      matchContainerToRequest(allocatedContainer, allocatedContainer.getNodeId.getHost,
        containersToUse, remainingAfterHostMatches)
    }
    // Match remaining by rack. Because YARN's RackResolver swallows thread interrupts
    // (see SPARK-27094), which can cause this code to miss interrupts from the AM, use
    // a separate thread to perform the operation.
    val remainingAfterRackMatches = new ArrayBuffer[Container]
    if (remainingAfterHostMatches.nonEmpty) {
      var exception: Option[Throwable] = None
      val thread = new Thread("spark-rack-resolver") {
        override def run(): Unit = {
          try {
            for (allocatedContainer <- remainingAfterHostMatches) {
              val rack = resolver.resolve(allocatedContainer.getNodeId.getHost)
              matchContainerToRequest(allocatedContainer, rack, containersToUse,
                remainingAfterRackMatches)
            }
          } catch {
            case e: Throwable =>
              exception = Some(e)
          }
        }
      }
      thread.setDaemon(true)
      thread.start()
      try {
        thread.join()
      } catch {
        case e: InterruptedException =>
          thread.interrupt()
          throw e
      }
      if (exception.isDefined) {
        throw exception.get
      }
    }
    // Assign remaining that are neither node-local nor rack-local
    val remainingAfterOffRackMatches = new ArrayBuffer[Container]
    for (allocatedContainer <- remainingAfterRackMatches) {
      matchContainerToRequest(allocatedContainer, ANY_HOST, containersToUse,
        remainingAfterOffRackMatches)
    }
    if (remainingAfterOffRackMatches.nonEmpty) {
      logDebug(s"Releasing ${remainingAfterOffRackMatches.size} unneeded containers that were " +
        s"allocated to us")
      for (container <- remainingAfterOffRackMatches) {
        internalReleaseContainer(container)
      }
    }
    runAllocatedContainers(containersToUse)
    logInfo("Received %d containers from YARN, launching executors on %d of them."
      .format(allocatedContainers.size, containersToUse.size))
  }

這里會(huì)根據(jù)主機(jī)host,機(jī)架rack等信息隊(duì)container進(jìn)行分配。完成后啟動(dòng)Container,runAllocatedContainers(containersToUse)。

  private val launcherPool = ThreadUtils.newDaemonCachedThreadPool(
    "ContainerLauncher", sparkConf.get(CONTAINER_LAUNCH_MAX_THREADS))

創(chuàng)建線程池launcherPool。

  /**
   * Launches executors in the allocated containers.
   */
  private def runAllocatedContainers(containersToUse: ArrayBuffer[Container]): Unit = {
    for (container <- containersToUse) {
      executorIdCounter += 1
      val executorHostname = container.getNodeId.getHost
      val containerId = container.getId
      val executorId = executorIdCounter.toString
      assert(container.getResource.getMemory >= resource.getMemory)
      logInfo(s"Launching container $containerId on host $executorHostname " +
        s"for executor with ID $executorId")
      def updateInternalState(): Unit = synchronized {
        runningExecutors.add(executorId)
        numExecutorsStarting.decrementAndGet()
        executorIdToContainer(executorId) = container
        containerIdToExecutorId(container.getId) = executorId
        val containerSet = allocatedHostToContainersMap.getOrElseUpdate(executorHostname,
          new HashSet[ContainerId])
        containerSet += containerId
        allocatedContainerToHostMap.put(containerId, executorHostname)
      }
      if (runningExecutors.size() < targetNumExecutors) {
        numExecutorsStarting.incrementAndGet()
        if (launchContainers) {
          launcherPool.execute(() => {
            try {
              new ExecutorRunnable(
                Some(container),
                conf,
                sparkConf,
                driverUrl,
                executorId,
                executorHostname,
                executorMemory,
                executorCores,
                appAttemptId.getApplicationId.toString,
                securityMgr,
                localResources,
                ResourceProfile.DEFAULT_RESOURCE_PROFILE_ID // use until fully supported
              ).run()
              updateInternalState()
            } catch {
              case e: Throwable =>
                numExecutorsStarting.decrementAndGet()
                if (NonFatal(e)) {
                  logError(s"Failed to launch executor $executorId on container $containerId", e)
                  // Assigned container should be released immediately
                  // to avoid unnecessary resource occupation.
                  amClient.releaseAssignedContainer(containerId)
                } else {
                  throw e
                }
            }
          })
        } else {
          // For test only
          updateInternalState()
        }
      } else {
        logInfo(("Skip launching executorRunnable as running executors count: %d " +
          "reached target executors count: %d.").format(
          runningExecutors.size, targetNumExecutors))
      }
    }
  }

查看ExecutorRunnable 類,其中nmClient = NMClient.createNMClient(), NodeManager客戶端,負(fù)責(zé)于NodeManager交互;其prepareCommand() 方法拼接了一個(gè)進(jìn)程啟動(dòng)命令,大體格式為:

bin/java -server org.apache.spark.executor.YarnCoarseGrainedExecutorBackend ...

在這里插入圖片描述

ApplicationMaster進(jìn)程中的launcherPool線程池,會(huì)根據(jù)Container的個(gè)數(shù)挨個(gè)啟動(dòng)線程ExecutorRunnable,ExecutorRunnable中的NMClient會(huì)將拼接好的jvm啟動(dòng)命令發(fā)送給相關(guān)的NodeManager,啟動(dòng)Container進(jìn)程,進(jìn)程名為YarnCoarseGrainedExecutorBackend。
ExecutorRunnable完整代碼:

private[yarn] class ExecutorRunnable(
    container: Option[Container],
    conf: YarnConfiguration,
    sparkConf: SparkConf,
    masterAddress: String,
    executorId: String,
    hostname: String,
    executorMemory: Int,
    executorCores: Int,
    appId: String,
    securityMgr: SecurityManager,
    localResources: Map[String, LocalResource],
    resourceProfileId: Int) extends Logging {
  var rpc: YarnRPC = YarnRPC.create(conf)
  var nmClient: NMClient = _
  def run(): Unit = {
    logDebug("Starting Executor Container")
    nmClient = NMClient.createNMClient()
    nmClient.init(conf)
    nmClient.start()
    startContainer()
  }
  def launchContextDebugInfo(): String = {
    val commands = prepareCommand()
    val env = prepareEnvironment()
    s"""
    |===============================================================================
    |Default YARN executor launch context:
    |  env:
    |${Utils.redact(sparkConf, env.toSeq).map { case (k, v) => s"    $k -> $v\n" }.mkString}
    |  command:
    |    ${Utils.redactCommandLineArgs(sparkConf, commands).mkString(" \\ \n      ")}
    |
    |  resources:
    |${localResources.map { case (k, v) => s"    $k -> $v\n" }.mkString}
    |===============================================================================""".stripMargin
  }
  def startContainer(): java.util.Map[String, ByteBuffer] = {
    val ctx = Records.newRecord(classOf[ContainerLaunchContext])
      .asInstanceOf[ContainerLaunchContext]
    val env = prepareEnvironment().asJava
    ctx.setLocalResources(localResources.asJava)
    ctx.setEnvironment(env)
    val credentials = UserGroupInformation.getCurrentUser().getCredentials()
    val dob = new DataOutputBuffer()
    credentials.writeTokenStorageToStream(dob)
    ctx.setTokens(ByteBuffer.wrap(dob.getData()))
    val commands = prepareCommand()
    ctx.setCommands(commands.asJava)
    ctx.setApplicationACLs(
      YarnSparkHadoopUtil.getApplicationAclsForYarn(securityMgr).asJava)
    // If external shuffle service is enabled, register with the Yarn shuffle service already
    // started on the NodeManager and, if authentication is enabled, provide it with our secret
    // key for fetching shuffle files later
    if (sparkConf.get(SHUFFLE_SERVICE_ENABLED)) {
      val secretString = securityMgr.getSecretKey()
      val secretBytes =
        if (secretString != null) {
          // This conversion must match how the YarnShuffleService decodes our secret
          JavaUtils.stringToBytes(secretString)
        } else {
          // Authentication is not enabled, so just provide dummy metadata
          ByteBuffer.allocate(0)
        }
      ctx.setServiceData(Collections.singletonMap("spark_shuffle", secretBytes))
    }
    // Send the start request to the ContainerManager
    try {
      nmClient.startContainer(container.get, ctx)
    } catch {
      case ex: Exception =>
        throw new SparkException(s"Exception while starting container ${container.get.getId}" +
          s" on host $hostname", ex)
    }
  }
  private def prepareCommand(): List[String] = {
    // Extra options for the JVM
    val javaOpts = ListBuffer[String]()
    // Set the JVM memory
    val executorMemoryString = executorMemory + "m"
    javaOpts += "-Xmx" + executorMemoryString
    // Set extra Java options for the executor, if defined
    sparkConf.get(EXECUTOR_JAVA_OPTIONS).foreach { opts =>
      val subsOpt = Utils.substituteAppNExecIds(opts, appId, executorId)
      javaOpts ++= Utils.splitCommandString(subsOpt).map(YarnSparkHadoopUtil.escapeForShell)
    }
    // Set the library path through a command prefix to append to the existing value of the
    // env variable.
    val prefixEnv = sparkConf.get(EXECUTOR_LIBRARY_PATH).map { libPath =>
      Client.createLibraryPathPrefix(libPath, sparkConf)
    }
    javaOpts += "-Djava.io.tmpdir=" +
      new Path(Environment.PWD.$$(), YarnConfiguration.DEFAULT_CONTAINER_TEMP_DIR)
    // Certain configs need to be passed here because they are needed before the Executor
    // registers with the Scheduler and transfers the spark configs. Since the Executor backend
    // uses RPC to connect to the scheduler, the RPC settings are needed as well as the
    // authentication settings.
    sparkConf.getAll
      .filter { case (k, v) => SparkConf.isExecutorStartupConf(k) }
      .foreach { case (k, v) => javaOpts += YarnSparkHadoopUtil.escapeForShell(s"-D$k=$v") }
    // Commenting it out for now - so that people can refer to the properties if required. Remove
    // it once cpuset version is pushed out.
    // The context is, default gc for server class machines end up using all cores to do gc - hence
    // if there are multiple containers in same node, spark gc effects all other containers
    // performance (which can also be other spark containers)
    // Instead of using this, rely on cpusets by YARN to enforce spark behaves 'properly' in
    // multi-tenant environments. Not sure how default java gc behaves if it is limited to subset
    // of cores on a node.
    /*
        else {
          // If no java_opts specified, default to using -XX:+CMSIncrementalMode
          // It might be possible that other modes/config is being done in
          // spark.executor.extraJavaOptions, so we don't want to mess with it.
          // In our expts, using (default) throughput collector has severe perf ramifications in
          // multi-tenant machines
          // The options are based on
          // http://www.oracle.com/technetwork/java/gc-tuning-5-138395.html#0.0.0.%20When%20to%20Use
          // %20the%20Concurrent%20Low%20Pause%20Collector|outline
          javaOpts += "-XX:+UseConcMarkSweepGC"
          javaOpts += "-XX:+CMSIncrementalMode"
          javaOpts += "-XX:+CMSIncrementalPacing"
          javaOpts += "-XX:CMSIncrementalDutyCycleMin=0"
          javaOpts += "-XX:CMSIncrementalDutyCycle=10"
        }
    */
    // For log4j configuration to reference
    javaOpts += ("-Dspark.yarn.app.container.log.dir=" + ApplicationConstants.LOG_DIR_EXPANSION_VAR)
    val userClassPath = Client.getUserClasspath(sparkConf).flatMap { uri =>
      val absPath =
        if (new File(uri.getPath()).isAbsolute()) {
          Client.getClusterPath(sparkConf, uri.getPath())
        } else {
          Client.buildPath(Environment.PWD.$(), uri.getPath())
        }
      Seq("--user-class-path", "file:" + absPath)
    }.toSeq
    YarnSparkHadoopUtil.addOutOfMemoryErrorArgument(javaOpts)
    val commands = prefixEnv ++
      Seq(Environment.JAVA_HOME.$$() + "/bin/java", "-server") ++
      javaOpts ++
      Seq("org.apache.spark.executor.YarnCoarseGrainedExecutorBackend",
        "--driver-url", masterAddress,
        "--executor-id", executorId,
        "--hostname", hostname,
        "--cores", executorCores.toString,
        "--app-id", appId,
        "--resourceProfileId", resourceProfileId.toString) ++
      userClassPath ++
      Seq(
        s"1>${ApplicationConstants.LOG_DIR_EXPANSION_VAR}/stdout",
        s"2>${ApplicationConstants.LOG_DIR_EXPANSION_VAR}/stderr")
    // TODO: it would be nicer to just make sure there are no null commands here
    commands.map(s => if (s == null) "null" else s).toList
  }
  private def prepareEnvironment(): HashMap[String, String] = {
    val env = new HashMap[String, String]()
    Client.populateClasspath(null, conf, sparkConf, env, sparkConf.get(EXECUTOR_CLASS_PATH))
    System.getenv().asScala.filterKeys(_.startsWith("SPARK"))
      .foreach { case (k, v) => env(k) = v }
    sparkConf.getExecutorEnv.foreach { case (key, value) =>
      if (key == Environment.CLASSPATH.name()) {
        // If the key of env variable is CLASSPATH, we assume it is a path and append it.
        // This is kept for backward compatibility and consistency with hadoop
        YarnSparkHadoopUtil.addPathToEnvironment(env, key, value)
      } else {
        // For other env variables, simply overwrite the value.
        env(key) = value
      }
    }
   env
  }
}

以上就是解析spark源碼yarn-cluster模式任務(wù)提交的詳細(xì)內(nèi)容,更多關(guān)于spark源碼解析的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • linux 查看端口占用命令實(shí)例詳解

    linux 查看端口占用命令實(shí)例詳解

    這篇文章主要介紹了 linux 查看端口占用命令實(shí)例詳解的相關(guān)資料,教大家怎樣查看系統(tǒng)端口占用情況,需要的朋友可以參考下
    2017-07-07
  • Linux echo命令的使用及三種實(shí)現(xiàn)方式

    Linux echo命令的使用及三種實(shí)現(xiàn)方式

    這篇文章主要介紹了Linux echo命令的使用及三種實(shí)現(xiàn)方式,本文通過實(shí)例代碼給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2019-05-05
  • Vim 編輯器操作匯總

    Vim 編輯器操作匯總

    本文是小編給大家收藏整理的關(guān)于vim編輯器操作方法,非常不錯(cuò),具有參考借鑒價(jià)值,需要的朋友參考下吧
    2018-05-05
  • Linux下去掉^M的四種方法

    Linux下去掉^M的四種方法

    本文通過四種方法給大家介紹了Linux下去掉^M的方法,非常不錯(cuò),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2018-06-06
  • Linux文件查找和解壓縮命令詳解

    Linux文件查找和解壓縮命令詳解

    這篇文章主要介紹了Linux文件查找和解壓縮命令,文件搜索查找包括按照名字搜索,按照文件所屬`主用戶`搜索,本文給大家介紹的非常詳細(xì),感興趣的朋友跟隨小編一起看看吧
    2024-02-02
  • Shell腳本實(shí)現(xiàn)進(jìn)度條的兩種方式

    Shell腳本實(shí)現(xiàn)進(jìn)度條的兩種方式

    本文主要介紹了Shell腳本實(shí)現(xiàn)進(jìn)度條的兩種方式,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2023-03-03
  • Linux下使用Shell腳本實(shí)現(xiàn)ftp的自動(dòng)上傳下載的代碼小結(jié)

    Linux下使用Shell腳本實(shí)現(xiàn)ftp的自動(dòng)上傳下載的代碼小結(jié)

    如何實(shí)現(xiàn)在ftp自動(dòng)上傳下載文件腳本呢?想必還有很多朋友都不太了解吧,下面是ftp自動(dòng)上傳下載文件腳本方法,希望對(duì)朋友們有些幫助
    2013-02-02
  • linux bash中too many arguments問題的解決方法

    linux bash中too many arguments問題的解決方法

    本文介紹下在linux bash shell中出現(xiàn)too many arguments問題的解決辦法,有需要的朋友參考學(xué)習(xí)下
    2013-11-11
  • 又拍云存儲(chǔ)同步腳本

    又拍云存儲(chǔ)同步腳本

    為了可以自動(dòng)把網(wǎng)站上的css、js以及圖片等靜態(tài)資源放在又拍云存儲(chǔ)上,訪問速度明顯提高不少,下面簡(jiǎn)單介紹下實(shí)現(xiàn)步驟,需要的朋友可以參考下
    2013-11-11
  • 用shell命令讀取與輸出數(shù)據(jù)的代碼

    用shell命令讀取與輸出數(shù)據(jù)的代碼

    本文為大家介紹使用shell命令進(jìn)行讀取與輸出數(shù)據(jù)的方法,其中涉及了文件輸出、重定向、管道等相關(guān)知識(shí),有興趣的朋友可以參考下
    2013-02-02

最新評(píng)論

韩国男女黄色在线观看| 动漫av网站18禁| 亚洲欧美精品综合图片小说| 亚洲区美熟妇久久久久| 91色老99久久九九爱精品| 国产真实乱子伦a视频| 91天堂精品一区二区| 亚洲国产美女一区二区三区软件 | 成年人该看的视频黄免费| 99精品国产aⅴ在线观看| 插逼视频双插洞国产操逼插洞 | 91久久国产成人免费网站| 中文字幕一区二区三区人妻大片| 国产日本精品久久久久久久| 偷拍自拍亚洲美腿丝袜| 午夜精品一区二区三区城中村| 极品粉嫩小泬白浆20p主播| 97超碰最新免费在线观看| 国产日韩一区二区在线看| 亚洲va欧美va人人爽3p| 国产精品自拍视频大全| 91国产资源在线视频| 国产精品久久久久网| 亚洲乱码中文字幕在线| 亚洲免费成人a v| 大屁股熟女一区二区三区| 狍和女人的王色毛片| yy6080国产在线视频| 青青色国产视频在线| 色哟哟在线网站入口| 91麻豆精品久久久久| 制丝袜业一区二区三区| 亚洲va国产va欧美精品88| 国产变态另类在线观看| 日韩一区二区三区三州| av在线免费观看亚洲天堂| 久草视频在线一区二区三区资源站| 免费观看丰满少妇做受| 青青擦在线视频国产在线| 91欧美在线免费观看| 久久国产精品精品美女| 国产精品3p和黑人大战| 日本性感美女写真视频| 美女大bxxxx内射| 亚洲 中文 自拍 另类 欧美| 欧洲欧美日韩国产在线| av日韩在线观看大全| 岛国免费大片在线观看| 精品视频中文字幕在线播放| 天天草天天色天天干| 国产chinesehd精品麻豆| 日本www中文字幕| 不卡日韩av在线观看| 亚洲欧美激情中文字幕| 好了av中文字幕在线| 桃色视频在线观看一区二区 | 欧美久久一区二区伊人| 亚洲av男人天堂久久| okirakuhuhu在线观看| 国产一区二区三免费视频| 天天干天天日天天谢综合156| 久草视频在线免播放| 91‖亚洲‖国产熟女| 日本一二三区不卡无| 亚洲第17页国产精品| 蜜桃色婷婷久久久福利在线| 色噜噜噜噜18禁止观看| 超碰在线中文字幕一区二区| 久久机热/这里只有| 欧美一区二区三区久久久aaa| 亚洲1卡2卡三卡4卡在线观看 | 中国熟女一区二区性xx| 熟妇一区二区三区高清版| 中国把吊插入阴蒂的视频| 2022天天干天天操| 性感美女高潮视频久久久| 人妻久久久精品69系列| 国产福利小视频二区| 极品性荡少妇一区二区色欲| 中文字幕成人日韩欧美| 日本三极片中文字幕| 中文字幕免费在线免费| 国产精品国产三级国产午| 久久久久五月天丁香社区| 扒开腿挺进肉嫩小18禁视频| 日韩欧美亚洲熟女人妻| AV天堂一区二区免费试看| 人妻熟女中文字幕aⅴ在线| 91快播视频在线观看| 亚洲精品 欧美日韩| 国产精品自偷自拍啪啪啪| 黄色在线观看免费观看在线| 亚洲成av人无码不卡影片一| 在线免费观看欧美小视频| 亚洲嫩模一区二区三区| 2020韩国午夜女主播在线| 亚洲免费在线视频网站| 欧洲亚洲欧美日韩综合| 又黄又刺激的午夜小视频| 沈阳熟妇28厘米大战黑人| 少妇人妻100系列| 欧美成人小视频在线免费看| 久精品人妻一区二区三区| 亚洲av色香蕉一区二区三区| 免费av岛国天堂网站| 夜色17s精品人妻熟女| 在线观看成人国产电影| 一区二区三区日本伦理| 国产av国片精品一区二区| 久久精品国产23696| 天天干天天操天天扣| 亚洲欧美色一区二区| 黄色成人在线中文字幕| 亚洲精品国品乱码久久久久| 亚洲欧美色一区二区| 亚洲成人av在线一区二区| 午夜久久久久久久99| 99亚洲美女一区二区三区| 欧美日韩亚洲国产无线码| 欧美亚洲牲夜夜综合久久| 色综合天天综合网国产成人| 一色桃子久久精品亚洲| 亚洲狠狠婷婷综合久久app| 女同性ⅹxx女同h偷拍| 日本午夜久久女同精女女| 亚洲国产40页第21页| 91试看福利一分钟| 国产在线91观看免费观看| 91色老99久久九九爱精品| 亚洲人妻av毛片在线| 亚洲av可乐操首页| 欧美成人综合色在线噜噜| 大陆胖女人与丈夫操b国语高清 | 摧残蹂躏av一二三区| 亚洲福利精品福利精品福利| 国产中文字幕四区在线观看| 偷拍自拍视频图片免费| 一色桃子久久精品亚洲 | 91欧美在线免费观看| 亚洲国产成人在线一区| 中国产一级黄片免费视频播放| 亚洲黄色av网站免费播放| 国产高清精品极品美女| 亚洲国产欧美国产综合在线 | 91快播视频在线观看| 国产福利在线视频一区| 在线观看的黄色免费网站| 亚洲av第国产精品| 久久久久久性虐视频| 全国亚洲男人的天堂| 久久农村老妇乱69系列| 亚洲国产精品黑丝美女| 青青草原网站在线观看| 成人18禁网站在线播放| 青草久久视频在线观看| 国产免费高清视频视频| 一区二区久久成人网| 性感美女高潮视频久久久| 亚洲第一伊人天堂网| 午夜dv内射一区区| 欧美精品欧美极品欧美视频| 青青热久免费精品视频在线观看| 欧美xxx成人在线| 黄色无码鸡吧操逼视频| 91人妻精品一区二区久久| 一区二区三区精品日本| 欧美亚洲中文字幕一区二区三区| 最新日韩av传媒在线| 午夜免费观看精品视频| 18禁无翼鸟成人在线| 青青在线视频性感少妇和隔壁黑丝| 午夜91一区二区三区| 欧美天堂av无线av欧美| 操的小逼流水的文章| 99热国产精品666| 激情综合治理六月婷婷| 亚洲欧美激情国产综合久久久| 亚洲日产av一区二区在线| 日本一道二三区视频久久| 99视频精品全部15| 2022国产综合在线干| 国产露脸对白在线观看| 少妇ww搡性bbb91| 青草青永久在线视频18| 夫妻在线观看视频91| 欧美第一页在线免费观看视频| 成人av在线资源网站| 这里有精品成人国产99| 亚洲国产欧美国产综合在线| 日本一二三区不卡无| 久久国产精品精品美女| 天天色天天舔天天射天天爽| 午夜dv内射一区区| 巨乳人妻日下部加奈被邻居中出| 大胸性感美女羞爽操逼毛片| 东京热男人的av天堂| 91综合久久亚洲综合| 亚洲中文字字幕乱码| 91九色国产porny蝌蚪| 中文字幕一区二区三区人妻大片 | 啪啪啪18禁一区二区三区| 亚洲欧美激情中文字幕| 亚洲成人三级在线播放| 欧美特级特黄a大片免费| 欧美女同性恋免费a| 美女张开腿让男生操在线看| 日本一区美女福利视频| 久青青草视频手机在线免费观看 | 久久这里有免费精品| 国产视频网站一区二区三区 | 美女av色播在线播放| 亚洲av人人澡人人爽人人爱| 日比视频老公慢点好舒服啊| 免费观看理论片完整版| 亚洲av琪琪男人的天堂| 9国产精品久久久久老师| 日韩美女搞黄视频免费| 91久久综合男人天堂| 水蜜桃一区二区三区在线观看视频 | 精品视频中文字幕在线播放 | 伊人精品福利综合导航| 日本一二三中文字幕| 日本丰满熟妇BBXBBXHD| 在线免费观看日本片| 少妇ww搡性bbb91| 乱亲女秽乱长久久久| 伊人网中文字幕在线视频| 亚洲人妻视频在线网| av天堂中文字幕最新| 水蜜桃国产一区二区三区| 91精品国产黑色丝袜| 亚洲午夜福利中文乱码字幕| 风流唐伯虎电视剧在线观看| 亚洲一区二区三区偷拍女厕91| 日韩a级精品一区二区| 在线观看操大逼视频| 亚洲va国产va欧美va在线| 亚洲成人熟妇一区二区三区| aiss午夜免费视频| 亚洲欧美自拍另类图片| 精品国产乱码一区二区三区乱| 成人免费公开视频无毒| 偷拍自拍亚洲视频在线观看| 亚洲1卡2卡三卡4卡在线观看 | 亚洲 色图 偷拍 欧美| 国产清纯美女al在线| 在线国产精品一区二区三区| 日韩国产乱码中文字幕| 后入美女人妻高清在线| 婷婷午夜国产精品久久久| 91极品大一女神正在播放| 日韩国产乱码中文字幕| 视频在线亚洲一区二区| 超碰97人人澡人人| 超碰公开大香蕉97| 黑人性生活视频免费看| japanese五十路熟女熟妇| 欧美日韩人妻久久精品高清国产 | 亚洲欧美国产麻豆综合| 一区二区三区日韩久久| 久久机热/这里只有| 国产亚洲视频在线二区| 青青草视频手机免费在线观看| lutube在线成人免费看| 亚洲国产精品黑丝美女| 红桃av成人在线观看| 九色精品视频在线播放| 亚洲国产最大av综合| 日韩中文字幕在线播放第二页| 亚洲天堂第一页中文字幕| 亚洲少妇人妻无码精品| 91chinese在线视频| 熟女人妻在线中出观看完整版| 欧洲国产成人精品91铁牛tv| 国产精品国产三级麻豆| av中文字幕福利网| 9色在线视频免费观看| 亚洲黄色av网站免费播放| 久久h视频在线观看| 最后99天全集在线观看| 91人妻精品久久久久久久网站| 国产精品一区二区久久久av| 欧美第一页在线免费观看视频| 美女 午夜 在线视频| 2020国产在线不卡视频| av老司机精品在线观看| 干逼又爽又黄又免费的视频| 91国产在线免费播放| 国产一区二区神马久久| 欧洲黄页网免费观看| 91成人精品亚洲国产| 天天色天天操天天透| 国产美女精品福利在线| 亚洲av无乱一区二区三区性色| 色狠狠av线不卡香蕉一区二区| 亚洲av可乐操首页| 欧美美女人体视频一区| 亚洲成人午夜电影在线观看| 无套猛戳丰满少妇人妻| 美女小视频网站在线| 亚洲欧美色一区二区| 亚洲天堂第一页中文字幕| 天天做天天爽夜夜做少妇| 国产刺激激情美女网站| 揄拍成人国产精品免费看视频| 国产在线91观看免费观看| 久久丁香花五月天色婷婷| 亚洲成人激情av在线| 亚洲av极品精品在线观看| 青青草精品在线视频观看| 2022中文字幕在线| av老司机亚洲一区二区| 51精品视频免费在线观看| av网址国产在线观看| 999热精品视频在线| 中国把吊插入阴蒂的视频| 少妇人妻久久久久视频黄片| 男人的天堂一区二区在线观看| 青青在线视频性感少妇和隔壁黑丝| 农村胖女人操逼视频| 最新欧美一二三视频| 性感美女福利视频网站| 黑人解禁人妻叶爱071| 国产美女一区在线观看| 国产自拍黄片在线观看| 欧美老妇精品另类不卡片| 日本成人不卡一区二区| 亚洲精品福利网站图片| 精品日产卡一卡二卡国色天香| 中文字幕,亚洲人妻| 啊用力插好舒服视频| 国产伊人免费在线播放| 91国内精品自线在拍白富美| 抽查舔水白紧大视频| 沈阳熟妇28厘米大战黑人| 国产精品自拍在线视频| 国产综合视频在线看片| 亚洲一级美女啪啪啪| gogo国模私拍视频| 亚洲另类图片蜜臀av| 五色婷婷综合狠狠爱| 欧美va不卡视频在线观看| 不卡日韩av在线观看| av资源中文字幕在线观看| 亚洲一级美女啪啪啪| 国产1区,2区,3区| 亚洲 清纯 国产com| 久久久麻豆精亚洲av麻花| 超污视频在线观看污污污| 91免费福利网91麻豆国产精品 | 91一区精品在线观看| 美女 午夜 在线视频| 日本成人不卡一区二区| 中文字幕av一区在线观看| 这里有精品成人国产99| 国产精品视频欧美一区二区| 日本高清撒尿pissing| 一二三中文乱码亚洲乱码one| 国产日韩精品一二三区久久久| 青青青视频手机在线观看| 国产又粗又硬又大视频| 欧美成人黄片一区二区三区| 久久精品国产亚洲精品166m| 欧美偷拍亚洲一区二区| 中文字幕中文字幕人妻| 午夜频道成人在线91| 日韩av有码一区二区三区4| 日韩影片一区二区三区不卡免费| 中文字幕第一页国产在线| 天天日天天爽天天爽| 91精品资源免费观看| 中出中文字幕在线观看| 性生活第二下硬不起来| 夜夜嗨av蜜臀av| 日本熟妇丰满厨房55| 国产亚洲成人免费在线观看| 97瑟瑟超碰在线香蕉| 成人性黑人一级av| 久草视频在线看免费| www久久久久久久久久久| 激情小视频国产在线| 国产熟妇一区二区三区av| 专门看国产熟妇的网站| 欧美viboss性丰满| 成人乱码一区二区三区av| 1024久久国产精品| 日韩中文字幕福利av| 中文字幕AV在线免费看 | 在线免费观看日本伦理| 黄色成年网站午夜在线观看 | 久久精品国产23696| 家庭女教师中文字幕在线播放| 91‖亚洲‖国产熟女| 亚洲国产美女一区二区三区软件 | 久久久久久久久久久免费女人| 亚洲欧美激情国产综合久久久| 青青草国内在线视频精选| 中国视频一区二区三区| 日韩亚洲高清在线观看| 天天想要天天操天天干| 2020av天堂网在线观看| 男人靠女人的逼视频| 天天夜天天日天天日| 亚洲综合另类欧美久久| 日日夜夜大香蕉伊人| yy96视频在线观看| 久久丁香婷婷六月天| 不卡一区一区三区在线| 成人av亚洲一区二区| av高潮迭起在线观看| 中文字幕,亚洲人妻| 中文字幕亚洲中文字幕| 国产老熟女伦老熟妇ⅹ| 38av一区二区三区| 中文字幕,亚洲人妻| 国产91精品拍在线观看| 中文字幕,亚洲人妻| 亚洲美女美妇久久字幕组| 适合午夜一个人看的视频| 全国亚洲男人的天堂| 99热色原网这里只有精品| 国产成人精品av网站| 三上悠亚和黑人665番号| 国产精彩对白一区二区三区| 18禁污污污app下载| av久久精品北条麻妃av观看| 亚洲护士一区二区三区| 999热精品视频在线| 女同互舔一区二区三区| 夜色17s精品人妻熟女| 韩国亚洲欧美超一级在线播放视频| 国产美女一区在线观看| 国产欧美日韩在线观看不卡| 国产黄网站在线观看播放| 国产视频一区在线观看| 自拍偷区二区三区麻豆| 老师啊太大了啊啊啊尻视频| 97精品综合久久在线| 在线观看视频污一区| 天天操天天干天天艹| 国产又粗又猛又爽又黄的视频美国| 老鸭窝日韩精品视频观看| 亚洲 自拍 色综合图| 丰满熟女午夜福利视频| 中文字幕亚洲久久久| 快插进小逼里大鸡吧视频| 99久久超碰人妻国产| 欧美成人一二三在线网| 青青青国产免费视频| av在线播放国产不卡| 亚洲高清国产自产av| 超级福利视频在线观看| 最新国产亚洲精品中文在线| 日韩国产乱码中文字幕| aⅴ五十路av熟女中出| 亚洲 欧美 精品 激情 偷拍| 国内自拍第一页在线观看| 久久久久国产成人精品亚洲午夜| 精品久久久久久高潮| 亚洲在线免费h观看网站| 韩国亚洲欧美超一级在线播放视频| 中文字幕无码日韩专区免费| 精品欧美一区二区vr在线观看| 亚洲国产成人无码麻豆艾秋| 九九视频在线精品播放| av资源中文字幕在线观看| 99热国产精品666| 日韩午夜福利精品试看| 成人av天堂丝袜在线观看| 在线免费观看视频一二区| 色综合久久无码中文字幕波多| 久久久精品欧洲亚洲av| 中文字幕在线乱码一区二区| 99精品久久久久久久91蜜桃| 91综合久久亚洲综合| 人妻最新视频在线免费观看| 在线观看国产网站资源| 在线观看国产免费麻豆| 福利国产视频在线观看| 2021天天色天天干| 日本女人一级免费片| 日曰摸日日碰夜夜爽歪歪| 亚洲av无码成人精品区辽| 午夜精品亚洲精品五月色| 38av一区二区三区| 国产日韩精品电影7777| 夜色福利视频在线观看| 快点插进来操我逼啊视频| 亚洲一区av中文字幕在线观看| 久久久久91精品推荐99| 精品人妻伦一二三区久| 久草视频 久草视频2| 欧美精产国品一二三产品价格 | 很黄很污很色的午夜网站在线观看 | 男人靠女人的逼视频| 一区二区三区在线视频福利| 91国产资源在线视频| 久久亚洲天堂中文对白| 久久麻豆亚洲精品av| 91www一区二区三区| 青青青国产片免费观看视频| av在线播放国产不卡| 老熟妇xxxhd老熟女| 天天干天天操天天插天天日| 美女福利视频网址导航| 中文字幕网站你懂的| 亚洲天堂精品久久久| 国产使劲操在线播放| 最近中文字幕国产在线| 欧美偷拍亚洲一区二区| av中文字幕网址在线| 久碰精品少妇中文字幕av| 福利国产视频在线观看| 骚货自慰被发现爆操| 免费手机黄页网址大全| 国产一级麻豆精品免费| av网址国产在线观看| 中文字幕第1页av一天堂网| 偷拍3456eee| 亚洲欧美成人综合视频| 99热这里只有精品中文| 男人天堂色男人av| 国产成人精品福利短视频| 久久久久久久亚洲午夜综合福利| 中文字幕第三十八页久久| 亚洲精品午夜久久久久| 日本韩国免费福利精品| 日韩成人免费电影二区| 欧美熟妇一区二区三区仙踪林| 色综合色综合色综合色| 性色av一区二区三区久久久| 最新中文字幕免费视频| lutube在线成人免费看| 91国偷自产一区二区三区精品| 成人sm视频在线观看| 天天色天天舔天天射天天爽| 中文亚洲欧美日韩无线码| 搡老妇人老女人老熟女| 伊人日日日草夜夜草| 日韩无码国产精品强奸乱伦| 漂亮 人妻被中出中文| 欧美成人猛片aaaaaaa| 青青青青青青青在线播放视频| 视频在线亚洲一区二区| 国产精品人妻熟女毛片av久| 国产精品大陆在线2019不卡| 伊人成人综合开心网| 一本久久精品一区二区| 亚洲午夜电影之麻豆| 男生舔女生逼逼的视频| 2020av天堂网在线观看| 日韩成人性色生活片| 欧美日韩v中文在线| 亚洲av日韩av第一区二区三区| 经典亚洲伊人第一页| 三级黄色亚洲成人av| 国产成人精品一区在线观看| 日本黄色特一级视频| 只有精品亚洲视频在线观看| 91片黄在线观看喷潮| 亚洲欧美清纯唯美另类| 午夜激情高清在线观看| 中文字幕国产专区欧美激情| 国产黄网站在线观看播放| 大鸡巴插入美女黑黑的阴毛| av中文字幕网址在线| 亚洲成高清a人片在线观看| 精品人妻伦一二三区久| caoporn蜜桃视频| 亚洲成a人片777777| 宅男噜噜噜666免费观看| 天天色天天舔天天射天天爽| 久久热久久视频在线观看| 肏插流水妹子在线乐播下载 | 在线观看免费视频色97| 国内精品在线播放第一页| 久久久噜噜噜久久熟女av| 9l人妻人人爽人人爽| 天天做天天干天天操天天射| 婷婷六月天中文字幕| 亚洲中文字幕人妻一区| 天天操天天弄天天射| 国产丰满熟女成人视频| 国产成人自拍视频在线免费观看| 欧美xxx成人在线| 亚洲 中文 自拍 无码| 青青在线视频性感少妇和隔壁黑丝 | 1区2区3区4区视频在线观看| 天天做天天干天天舔| 99热国产精品666| 51精品视频免费在线观看| 水蜜桃国产一区二区三区| 国产精品大陆在线2019不卡| 国产黄色片在线收看| 80电影天堂网官网| 国产普通话插插视频| 美女福利视频网址导航| 欧美麻豆av在线播放| 久久久超爽一二三av| 我想看操逼黄色大片| 一区二区三区久久中文字幕| 91精品啪在线免费| 韩国三级aaaaa高清视频| 中文字幕熟女人妻久久久| 国产在线自在拍91国语自产精品| 精品人人人妻人人玩日产欧| 91国产资源在线视频| 污污小视频91在线观看| 五十路丰满人妻熟妇| 久久精品国产23696| 精品久久婷婷免费视频| 亚洲va天堂va国产va久| 三级黄色亚洲成人av| 亚洲一区二区人妻av| 亚洲av第国产精品| 亚洲免费福利一区二区三区| 欧美视频一区免费在线| 馒头大胆亚洲一区二区| 少妇ww搡性bbb91| 丰满的子国产在线观看| 丰满熟女午夜福利视频| 熟女人妻在线中出观看完整版| 久草视频 久草视频2| 亚洲综合在线观看免费| 三级黄色亚洲成人av| 精品人人人妻人人玩日产欧| 在线观看黄色成年人网站| 黄色片黄色片wyaa| 天天日天天添天天爽| 亚洲va国产va欧美va在线| 免费福利av在线一区二区三区| 一区二区三区精品日本| 黄工厂精品视频在线观看 | 欧美交性又色又爽又黄麻豆| 国产女人露脸高潮对白视频| 亚洲综合乱码一区二区| 最近中文2019年在线看| 在线可以看的视频你懂的 | 99久久久无码国产精品性出奶水| 国产日韩一区二区在线看| 馒头大胆亚洲一区二区| 99热99re在线播放| 亚洲另类综合一区小说| 超级碰碰在线视频免费观看| 精品欧美一区二区vr在线观看| 国产亚洲视频在线二区| 久久久精品欧洲亚洲av| 视频一区二区综合精品| 最近的中文字幕在线mv视频| okirakuhuhu在线观看| 亚洲国产第一页在线观看| 国产黄色片在线收看| 大鸡吧插入女阴道黄色片| av乱码一区二区三区| 精品久久久久久久久久久99| 亚洲国产成人最新资源| 40道精品招牌菜特色| 午夜精品久久久久久99热| 人妻凌辱欧美丰满熟妇| 久久综合老鸭窝色综合久久| 天天日天天干天天干天天日| 91欧美在线免费观看| 婷婷久久久综合中文字幕| 精产国品久久一二三产区区别 | 免费在线观看视频啪啪| 99国产精品窥熟女精品| 福利视频一区二区三区筱慧| 欧美特色aaa大片| 午夜免费观看精品视频| 欧洲精品第一页欧洲精品亚洲 | 中文字幕一区二区亚洲一区| 日本美女性生活一级片| 熟女人妻在线观看视频| 二区中出在线观看老师| 国产视频网站一区二区三区| 国产女孩喷水在线观看| 国产 在线 免费 精品| 中国无遮挡白丝袜二区精品 | 久久精品亚洲成在人线a| 国产伊人免费在线播放| 激情五月婷婷综合色啪| 亚洲精品国产综合久久久久久久久| 操操网操操伊剧情片中文字幕网| 日辽宁老肥女在线观看视频| 插逼视频双插洞国产操逼插洞| 天天日天天透天天操| 视频一区二区综合精品| 人妻少妇亚洲精品中文字幕| 免费观看成年人视频在线观看| 青青草视频手机免费在线观看| 一级a看免费观看网站| 骚货自慰被发现爆操| 成年午夜影片国产片| 亚洲精品成人网久久久久久小说| 91精品免费久久久久久| 欧美国产亚洲中英文字幕| 中国产一级黄片免费视频播放| av一区二区三区人妻| 五十路息与子猛烈交尾视频| 视频一区 二区 三区 综合| 一区二区免费高清黄色视频| 天天日天天干天天要| 福利在线视频网址导航| 国产成人小视频在线观看无遮挡| 国产精品国色综合久久| 100%美女蜜桃视频| 国产精品免费不卡av| 91色秘乱一区二区三区| 亚洲图库另类图片区| 夜色撩人久久7777| 超鹏97历史在线观看| 大香蕉玖玖一区2区| 只有精品亚洲视频在线观看| 午夜精品一区二区三区福利视频| 嫩草aⅴ一区二区三区| 337p日本大胆欧美人| 91九色国产porny蝌蚪| 中文字幕在线乱码一区二区| 一区二区三区四区视频| av日韩在线观看大全| 人人妻人人爱人人草| 四虎永久在线精品免费区二区| 在线观看一区二区三级| 亚洲av无码成人精品区辽| 亚洲中文字幕综合小综合| 国产性色生活片毛片春晓精品| 国产亚洲天堂天天一区| 日本在线一区二区不卡视频| 欧美成人综合视频一区二区| 啪啪啪18禁一区二区三区 | 亚洲在线免费h观看网站| 日韩激情文学在线视频| 97人妻总资源视频| 免费成人va在线观看| 新97超碰在线观看| 国产一级精品综合av| 国产真实灌醉下药美女av福利| 天天操天天插天天色| 一区二区在线观看少妇| 2022国产精品视频| 三上悠亚和黑人665番号| 插小穴高清无码中文字幕| 五月色婷婷综合开心网4438| 女同性ⅹxx女同hd| 夜夜骑夜夜操夜夜奸| av久久精品北条麻妃av观看| 免费在线观看污污视频网站| 99热这里只有精品中文| 青青草原网站在线观看| 91一区精品在线观看| 一区二区三区日本伦理| nagger可以指黑人吗| 日本一道二三区视频久久| 亚洲高清一区二区三区视频在线| 亚洲无码一区在线影院| 端庄人妻堕落挣扎沉沦| 男女啪啪视频免费在线观看| 老司机99精品视频在线观看| 蝴蝶伊人久久中文娱乐网| 国产97在线视频观看| 75国产综合在线视频| 国产一区成人在线观看视频| 亚洲av日韩精品久久久| 亚洲精品午夜久久久久| 三上悠亚和黑人665番号| 天天操夜夜骑日日摸| 亚洲熟女综合色一区二区三区四区| 亚洲高清视频在线不卡| 国产之丝袜脚在线一区二区三区| gogo国模私拍视频| 亚洲中文精品人人免费| 欧美精品激情在线最新观看视频 | 亚洲1069综合男同| 中国熟女一区二区性xx| 天天日天天爽天天干| 一区二区三区在线视频福利| 青青青国产片免费观看视频| 亚洲成人三级在线播放 | 大鸡吧插逼逼视频免费看| 大鸡吧插入女阴道黄色片| 天美传媒mv视频在线观看| 午夜婷婷在线观看视频| 国产97在线视频观看| 特大黑人巨大xxxx| 伊人综合免费在线视频| 亚洲美女美妇久久字幕组| 北条麻妃肉色丝袜视频| 一区二区三区激情在线| 2012中文字幕在线高清| 日韩欧美中文国产在线| 色吉吉影音天天干天天操| 欧美成人一二三在线网| 亚洲av在线观看尤物| 无套猛戳丰满少妇人妻| 毛片一级完整版免费| 又粗又硬又猛又黄免费30| 国产一区自拍黄视频免费观看| 看一级特黄a大片日本片黑人| 久久久久久性虐视频| 亚洲va欧美va人人爽3p| 青青青激情在线观看视频| 最近中文2019年在线看| 欧美美女人体视频一区| 99热99这里精品6国产| 成人资源在线观看免费官网| 国产亚洲视频在线观看| 黄色视频成年人免费观看| 日韩一区二区三区三州| 国产第一美女一区二区三区四区 | 大肉大捧一进一出好爽在线视频 | 日本后入视频在线观看| 日本精品视频不卡一二三| 在线观看911精品国产| 动漫黑丝美女的鸡巴| av乱码一区二区三区| 偷拍自拍视频图片免费| 美日韩在线视频免费看| 偷拍自拍视频图片免费| 97超碰国语国产97超碰| 19一区二区三区在线播放| 亚洲精品午夜aaa久久| 孕妇奶水仑乱A级毛片免费看| 久久久久国产成人精品亚洲午夜| 亚洲天堂有码中文字幕视频| 一色桃子久久精品亚洲| 国产97视频在线精品| 91精品国产91青青碰| 老有所依在线观看完整版| 少妇被强干到高潮视频在线观看| 人妻少妇亚洲精品中文字幕| 亚洲国产第一页在线观看| 国产又粗又硬又大视频| 欧美亚洲中文字幕一区二区三区| 97人妻总资源视频| 大鸡吧插逼逼视频免费看 | 少妇人妻100系列| 国产大鸡巴大鸡巴操小骚逼小骚逼| 国产美女一区在线观看| 99精品视频在线观看免费播放 | 岛国一区二区三区视频在线| 青青草亚洲国产精品视频| 国产精品三级三级三级| 爆乳骚货内射骚货内射在线| 9色在线视频免费观看| 55夜色66夜色国产精品站| 午夜dv内射一区区| 大白屁股精品视频国产| 绯色av蜜臀vs少妇| 丰满的继坶3中文在线观看| 国产午夜男女爽爽爽爽爽视频| 久久久久久久久久一区二区三区| 搡老熟女一区二区在线观看| 亚洲一区二区三区精品视频在线| 毛片一级完整版免费| 日本韩国亚洲综合日韩欧美国产| 精品人妻伦一二三区久| 色噜噜噜噜18禁止观看| 亚洲男人在线天堂网| 国产精选一区在线播放| 91色九色porny| 91精品免费久久久久久| 欧洲亚洲欧美日韩综合| 亚洲 人妻 激情 中文| 经典亚洲伊人第一页| 影音先锋女人av噜噜色| 天堂av在线最新版在线| 亚洲va天堂va国产va久| 精品人妻伦一二三区久| 大鸡巴操b视频在线| 1024久久国产精品| 久久精品36亚洲精品束缚| 国产精品福利小视频a| 午夜av一区二区三区| 成熟熟女国产精品一区| 亚洲丝袜老师诱惑在线观看| 日韩av大胆在线观看| 午夜在线一区二区免费| 极品丝袜一区二区三区| 大尺度激情四射网站| 美味人妻2在线播放| 人妻av无码专区久久绿巨人| 亚洲av色香蕉一区二区三区| 国产午夜福利av导航| 自拍 日韩 欧美激情| 亚洲免费视频欧洲免费视频| 美女少妇亚洲精选av| 欧美男人大鸡吧插女人视频| 亚欧在线视频你懂的| 97人人模人人爽人人喊| 无码国产精品一区二区高潮久久4| 精品一区二区三区午夜| 欧美精品一区二区三区xxxx| av天堂中文免费在线| 精品一线二线三线日本| 青青草在观免费国产精品| 91国内视频在线观看| 国产污污污污网站在线| av高潮迭起在线观看| 久久久极品久久蜜桃| 不卡一不卡二不卡三| 亚洲欧美国产麻豆综合| 免费十精品十国产网站| 夏目彩春在线中文字幕| 久久久噜噜噜久久熟女av| 欧美精品免费aaaaaa| 成人sm视频在线观看| 二区中出在线观看老师| 五月天色婷婷在线观看视频免费| 久久久精品999精品日本| 久久久精品欧洲亚洲av| 亚洲美女美妇久久字幕组| 日韩成人性色生活片| 日韩欧美亚洲熟女人妻| 蜜桃视频在线欧美一区| 99一区二区在线观看| 久青青草视频手机在线免费观看 | 一本一本久久a久久精品综合不卡| 国产高清在线观看1区2区| 97欧洲一区二区精品免费| 岛国一区二区三区视频在线| 大胸性感美女羞爽操逼毛片| 亚洲欧美清纯唯美另类| 精品国产亚洲av一淫| av天堂资源最新版在线看| 亚洲中文字幕国产日韩| 久久久久只精品国产三级| 亚洲国产精品美女在线观看| 天天色天天舔天天射天天爽| 在线观看黄色成年人网站| 久久人人做人人妻人人玩精品vr| 亚洲图片欧美校园春色| 国产 在线 免费 精品| 午夜激情高清在线观看| 日韩人妻丝袜中文字幕| 亚洲熟女久久久36d| av天堂加勒比在线| 人妻丝袜精品中文字幕| 日美女屁股黄邑视频| 国产91久久精品一区二区字幕| 成人av久久精品一区二区| 欧美视频中文一区二区三区| 最新中文字幕乱码在线| 日本免费视频午夜福利视频| 国产成人精品久久二区91| 久久精品美女免费视频| 欧美日韩情色在线观看| 99精品久久久久久久91蜜桃| 护士特殊服务久久久久久久| 成人性黑人一级av| 在线观看的a站 最新| 青青草国内在线视频精选| 亚洲国产美女一区二区三区软件 | 91p0rny九色露脸熟女| 青青尤物在线观看视频网站| 欧美成人精品在线观看| 少妇深喉口爆吞精韩国| 精品美女福利在线观看| 亚洲欧美国产麻豆综合| 美女骚逼日出水来了| 天天干狠狠干天天操| 天天干天天插天天谢| 夜夜嗨av蜜臀av| 干逼又爽又黄又免费的视频| 国产密臀av一区二区三| 做爰视频毛片下载蜜桃视频1| 天堂v男人视频在线观看| 欧美亚洲自偷自拍 在线| 人妻熟女在线一区二区| 97黄网站在线观看| 性感美女福利视频网站| 女警官打开双腿沦为性奴| 亚国产成人精品久久久| 蜜桃专区一区二区在线观看| 成人久久精品一区二区三区| 在线观看亚洲人成免费网址| av在线播放国产不卡| 91精品国产观看免费| 激情人妻校园春色亚洲欧美 | 免费一级黄色av网站| 欧美亚洲免费视频观看| yellow在线播放av啊啊啊 | 91九色porny国产蝌蚪视频| 国产在线免费观看成人| 欧美女同性恋免费a| 亚洲熟女综合色一区二区三区四区| 快点插进来操我逼啊视频| 精彩视频99免费在线| 欧美日韩精品永久免费网址| 男人和女人激情视频| 五十路在线观看完整版| 日韩亚国产欧美三级涩爱| 青青青青青青青青青国产精品视频| 国产日本欧美亚洲精品视| 久久久久久久精品老熟妇| 国产普通话插插视频| 88成人免费av网站| 人妻激情图片视频小说| 亚洲精品在线资源站| 青青青青青手机视频| 性感美女福利视频网站| 风流唐伯虎电视剧在线观看 | 亚洲国产精品久久久久蜜桃| 青青青激情在线观看视频| 国产精品国产精品一区二区| 91社福利《在线观看| 免费av岛国天堂网站| 9色在线视频免费观看| 福利午夜视频在线合集| 天堂女人av一区二区| 免费在线观看污污视频网站| 丰满少妇人妻xxxxx| 国产亚洲欧美45p| 国产免费高清视频视频| 国产欧美日韩第三页| 国产1区,2区,3区| 精产国品久久一二三产区区别| 国产精品女邻居小骚货| 在线观看黄色成年人网站| 亚洲av第国产精品| 国产又粗又猛又爽又黄的视频在线| 日本少妇人妻xxxxxhd| 在线观看免费岛国av| 视频 一区二区在线观看| 绯色av蜜臀vs少妇| 国产在线拍揄自揄视频网站| 中国黄色av一级片| 99精品免费观看视频 | 天天操天天插天天色| 亚洲第17页国产精品| av破解版在线观看| 青青青青青青青青青国产精品视频| 人妻无码色噜噜狠狠狠狠色| 天天日天天天天天天天天天天| 日韩美女搞黄视频免费| 国产日韩av一区二区在线| 国产免费高清视频视频| 偷偷玩弄新婚人妻h视频| 午夜精品久久久久久99热| 在线免费观看视频一二区| 人人爱人人妻人人澡39| 日韩美女精品视频在线观看网站| 1区2区3区不卡视频| 亚洲成人熟妇一区二区三区 | 青青草在观免费国产精品| 四虎永久在线精品免费区二区| 视频一区 视频二区 视频| 黄色黄色黄片78在线| 黄色中文字幕在线播放| 欧美香蕉人妻精品一区二区| av资源中文字幕在线观看| 在线视频国产欧美日韩| 亚洲一区二区三区久久午夜| 肏插流水妹子在线乐播下载| 国产黄色大片在线免费播放| 亚洲高清一区二区三区视频在线| 夜鲁夜鲁狠鲁天天在线| 亚洲中文字幕乱码区| 五十路av熟女松本翔子| 色吉吉影音天天干天天操| 99热国产精品666| 男生舔女生逼逼视频| 91在线免费观看成人| 中字幕人妻熟女人妻a62v网| 91免费观看国产免费| 天天日天天爽天天干| 中文字幕在线观看国产片| 男人的网址你懂的亚洲欧洲av| 国产高清在线在线视频| 中文字幕第三十八页久久 | 人妻少妇性色欲欧美日韩| 亚洲 色图 偷拍 欧美| 最近中文字幕国产在线| 国产亚洲精品视频合集| 欧美黄片精彩在线免费观看| 中国熟女@视频91| 国产精品欧美日韩区二区| 3337p日本欧洲大胆色噜噜| 自拍偷区二区三区麻豆| 888欧美视频在线| 久久这里只有精彩视频免费| 色综合天天综合网国产成人| av手机在线免费观看日韩av| 精品久久久久久久久久久99| 99热这里只有精品中文| 日本18禁久久久久久| sw137 中文字幕 在线| 国产精品久久久久久久精品视频| 女同性ⅹxx女同hd| 超碰在线中文字幕一区二区| 成人高清在线观看视频| 国产女孩喷水在线观看| 天天日天天添天天爽| 欧美日韩在线精品一区二区三| 老司机你懂得福利视频| 自拍 日韩 欧美激情| 五十路av熟女松本翔子| 久久人人做人人妻人人玩精品vr| 久久久精品欧洲亚洲av| 亚洲激情,偷拍视频| 亚洲成人午夜电影在线观看| 国产中文精品在线观看| 一区二区三区视频,福利一区二区| 国产福利小视频大全| 国产视频一区二区午夜| 免费观看理论片完整版| 色伦色伦777国产精品| 欧美偷拍亚洲一区二区| 动漫精品视频在线观看| 欧美熟妇一区二区三区仙踪林| 日本后入视频在线观看| 国产性色生活片毛片春晓精品| 97国产福利小视频合集| 亚洲欧美成人综合视频| 十八禁在线观看地址免费 | 日本黄色特一级视频| 香蕉aⅴ一区二区三区| 亚洲青青操骚货在线视频| 人人妻人人爽人人添夜| 天码人妻一区二区三区在线看| 黄色男人的天堂视频| 精品视频一区二区三区四区五区| 激情五月婷婷免费视频| 精品老妇女久久9g国产| av中文字幕网址在线| 在线免费91激情四射| 99热99re在线播放| 老司机欧美视频在线看| 超碰97免费人妻麻豆| 2021最新热播中文字幕| 天天操夜夜骑日日摸| 在线观看日韩激情视频| 5528327男人天堂| 久久这里只有精品热视频| 国产成人无码精品久久久电影| 久草免费人妻视频在线| 鸡巴操逼一级黄色气| 色伦色伦777国产精品| 免费人成黄页网站在线观看国产| 黄色片黄色片wyaa| 亚洲综合在线观看免费| 久久久久久久精品成人热| 亚洲国产欧美一区二区丝袜黑人| 天天操,天天干,天天射| 韩国AV无码不卡在线播放| 被大鸡吧操的好舒服视频免费| 欧美男人大鸡吧插女人视频| 偷拍自拍国产在线视频| 少妇深喉口爆吞精韩国| 午夜婷婷在线观看视频| 绝顶痉挛大潮喷高潮无码 | 黄色无码鸡吧操逼视频| 97国产在线观看高清| av天堂中文字幕最新| 一区二区视频视频视频| 晚上一个人看操B片| 亚洲精品国产久久久久久| 亚洲成人av一区久久| 亚洲一区二区三区久久受| 5528327男人天堂| 欧美国品一二三产区区别| 欧美色婷婷综合在线| 成人久久精品一区二区三区| 粉嫩av蜜乳av蜜臀| 亚洲在线免费h观看网站| 国产精品久久久久国产三级试频| 九色视频在线观看免费| 亚洲视频在线视频看视频在线| 亚洲欧洲一区二区在线观看| 人人妻人人澡人人爽人人dvl| 漂亮 人妻被中出中文| 男生舔女生逼逼视频| 欧美亚洲中文字幕一区二区三区| 日韩人妻在线视频免费| 精品国产高潮中文字幕| 动色av一区二区三区| 天天艹天天干天天操| 国产精品精品精品999| h国产小视频福利在线观看| 色伦色伦777国产精品| 日韩a级精品一区二区| 精品美女久久久久久| 午夜激情久久不卡一区二区| 亚洲日本一区二区久久久精品| 精品久久久久久久久久久a√国产| 99热这里只有精品中文| 中文字幕在线第一页成人| 3D动漫精品啪啪一区二区下载| 日本性感美女写真视频| 亚洲一区二区激情在线| 欧美成人小视频在线免费看| 色偷偷伊人大杳蕉综合网 | 97超碰人人搞人人| 91精品一区二区三区站长推荐| 伊人开心婷婷国产av| 亚洲欧美激情中文字幕| 成人av免费不卡在线观看| 青草青永久在线视频18| 日本韩国免费福利精品| 超级碰碰在线视频免费观看| av乱码一区二区三区| 欧美日韩不卡一区不区二区| 农村胖女人操逼视频| 日韩a级黄色小视频| 经典av尤物一区二区| 精品日产卡一卡二卡国色天香 | 欧美日韩国产一区二区三区三州 | 天天色天天操天天透| av高潮迭起在线观看| 国产老熟女伦老熟妇ⅹ| av网址国产在线观看| 超碰公开大香蕉97| 免费无毒热热热热热热久| 51国产成人精品视频| 班长撕开乳罩揉我胸好爽| 人人妻人人澡欧美91精品| 93精品视频在线观看| 又色又爽又黄的美女裸体| 精品av久久久久久久| 国产普通话插插视频| 中字幕人妻熟女人妻a62v网| 成人H精品动漫在线无码播放| 又粗又长 明星操逼小视频| av天堂资源最新版在线看| 无码国产精品一区二区高潮久久4| 无码国产精品一区二区高潮久久4| 国产精品亚洲在线观看| 57pao国产一区二区| 久久综合老鸭窝色综合久久| 人妻3p真实偷拍一二区| 中国老熟女偷拍第一页| 爆乳骚货内射骚货内射在线| 最新欧美一二三视频 | 国产精品手机在线看片| 在线视频精品你懂的| 欧洲日韩亚洲一区二区三区| 99精品视频之69精品视频| 9国产精品久久久久老师| 亚洲免费福利一区二区三区| 国产精品人妻一区二区三区网站| 999热精品视频在线| 国产精品国色综合久久 | 国产白袜脚足J棉袜在线观看| 人妻少妇亚洲一区二区| 日本阿v视频在线免费观看| 九色精品视频在线播放| av高潮迭起在线观看| 午夜极品美女福利视频| av资源中文字幕在线观看| 久久99久久99精品影院| 在线免费观看99视频| 99热碰碰热精品a中文| 中文字幕+中文字幕| 天天摸天天亲天天舔天天操天天爽 | 国产精选一区在线播放| 精品人妻一二三区久久| 91中文字幕最新合集| 久久人人做人人妻人人玩精品vr| 肏插流水妹子在线乐播下载| 97精品成人一区二区三区| 强行扒开双腿猛烈进入免费版 | 国产精品久久久久久久女人18| 中文字幕熟女人妻久久久| 欧美偷拍亚洲一区二区| 亚洲成人激情av在线| 又色又爽又黄又刺激av网站| 日韩av熟妇在线观看| 中文字幕高清资源站| aiss午夜免费视频| 欧美黑人与人妻精品| 国产片免费观看在线观看| 中国熟女@视频91| 中文字幕在线一区精品| www日韩a级s片av| 人人超碰国字幕观看97| 93精品视频在线观看| 亚洲天堂精品久久久| 日韩美女综合中文字幕pp| 天天日天天操天天摸天天舔| 五十路息与子猛烈交尾视频| 六月婷婷激情一区二区三区| 国产女人被做到高潮免费视频 | 在线观看国产网站资源| av中文字幕在线导航| 一本一本久久a久久精品综合不卡| 日韩欧美中文国产在线 | 亚洲av男人天堂久久| 三级av中文字幕在线观看| 亚洲精品久久综合久| 日韩精品激情在线观看| jiujiure精品视频在线| 在线观看免费视频网| 国产性生活中老年人视频网站| 久久久久久性虐视频| 91高清成人在线视频| 激情五月婷婷免费视频| 亚洲欧美成人综合在线观看| 亚洲精品乱码久久久本| av大全在线播放免费| 国产熟妇一区二区三区av| 国产三级影院在线观看| 欧美亚洲中文字幕一区二区三区| 偷拍自拍视频图片免费| 视频久久久久久久人妻| 亚洲日产av一区二区在线| 国产成人小视频在线观看无遮挡| 91极品新人『兔兔』精品新作| 欧洲黄页网免费观看| 中文字幕在线第一页成人| 青青青青视频在线播放| 美女小视频网站在线| 中英文字幕av一区| 精品美女在线观看视频在线观看| 999久久久久999| 综合色区亚洲熟妇shxstz| 国产av一区2区3区| 青青草国内在线视频精选| 午夜精品久久久久麻豆影视| 亚洲 欧美 精品 激情 偷拍 | 一级黄片大鸡巴插入美女| 中文亚洲欧美日韩无线码| 抽查舔水白紧大视频| 熟女人妻在线中出观看完整版| 日本精品美女在线观看| 天天干天天插天天谢| 韩国亚洲欧美超一级在线播放视频| 亚洲午夜伦理视频在线| 特大黑人巨大xxxx| 国产精品黄片免费在线观看| 日韩午夜福利精品试看| 中文字幕av一区在线观看| 国产av欧美精品高潮网站| 黄色中文字幕在线播放| 中文字幕视频一区二区在线观看| 久久99久久99精品影院| 五十路老熟女码av| 天天干天天日天天干天天操| 日本人妻少妇18—xx| 中英文字幕av一区| 黑人借宿ntr人妻的沦陷2| 亚洲av日韩av网站| 干逼又爽又黄又免费的视频| 亚洲日本一区二区三区| 国产乱子伦精品视频潮优女| 亚洲一区二区三区uij| 亚洲精品一线二线在线观看| av网址在线播放大全| 久久精品久久精品亚洲人| 大鸡吧插入女阴道黄色片| 顶级尤物粉嫩小尤物网站| 4个黑人操素人视频网站精品91| 都市激情校园春色狠狠| 中文字幕一区二区亚洲一区| 亚洲av无乱一区二区三区性色| 92福利视频午夜1000看| 99热碰碰热精品a中文| 日本脱亚入欧是指什么| 亚洲av色香蕉一区二区三区| 一色桃子久久精品亚洲| 国产实拍勾搭女技师av在线| 人妻凌辱欧美丰满熟妇| 97国产在线av精品| 欧美精产国品一二三产品区别大吗| 中字幕人妻熟女人妻a62v网| 久久免费看少妇高潮完整版| 99久久中文字幕一本人| av森泽佳奈在线观看 | 啊啊啊想要被插进去视频| 精品人妻每日一部精品| 瑟瑟视频在线观看免费视频| 亚洲公开视频在线观看| 99久久成人日韩欧美精品| 成人蜜臀午夜久久一区| AV无码一区二区三区不卡| 一个人免费在线观看ww视频| 日日摸夜夜添夜夜添毛片性色av| 国产精品久久久久久美女校花| 在线观看的黄色免费网站| 亚洲第一黄色在线观看| 国产精品成人xxxx| 午夜精品一区二区三区4| 天天日天天鲁天天操| 亚洲av无女神免非久久| 亚洲熟色妇av日韩熟色妇在线| 在线网站你懂得老司机| 毛片一级完整版免费| 99一区二区在线观看| 国产精品免费不卡av| 亚洲美女高潮喷浆视频| 日韩精品啪啪视频一道免费| 亚洲欧美成人综合视频| 天天日天天舔天天射进去| 国产97在线视频观看| 可以免费看的www视频你懂的 | 日韩视频一区二区免费观看| 国产黄色a级三级三级三级| 中文字幕在线观看极品视频| 青娱乐最新视频在线| 香蕉av影视在线观看| 中国产一级黄片免费视频播放| 天干天天天色天天日天天射 | 亚洲欧美自拍另类图片| 青青青国产免费视频| 亚洲最大黄 嗯色 操 啊| 偷拍美女一区二区三区| 欧美乱妇无乱码一区二区| 亚洲区欧美区另类最新章节| 人妻丝袜av在线播放网址| 久久久91蜜桃精品ad| 亚洲熟女久久久36d| 日曰摸日日碰夜夜爽歪歪| 亚洲av成人网在线观看| av中文字幕在线导航| 欧美一区二区三区乱码在线播放 | 日本啪啪啪啪啪啪啪| 天天射夜夜操综合网| 在线观看视频污一区| 黄色片年轻人在线观看| 99re久久这里都是精品视频| 三级等保密码要求条款| 国产熟妇一区二区三区av| 日本熟女50视频免费| 天天干天天日天天谢综合156| 免费无码人妻日韩精品一区二区| 亚洲免费国产在线日韩| 午夜激情久久不卡一区二区| 视频 国产 精品 熟女 | 在线播放一区二区三区Av无码| 青娱乐最新视频在线| 粉嫩小穴流水视频在线观看| 日韩欧美制服诱惑一区在线| 天天操天天操天天碰| www骚国产精品视频| 啪啪啪18禁一区二区三区| 好了av中文字幕在线| 成人亚洲精品国产精品| 涩爱综合久久五月蜜臀| 国产精品福利小视频a| 超碰在线观看免费在线观看| 青青草在观免费国产精品| 男人天堂色男人av| 欧美激情电影免费在线| 久久99久久99精品影院| 丝袜国产专区在线观看| 亚洲一级美女啪啪啪| 久久精品久久精品亚洲人| 亚洲免费va在线播放| 91精品国产综合久久久蜜| 欧美在线偷拍视频免费看| 5528327男人天堂| 精产国品久久一二三产区区别| 亚洲色偷偷综合亚洲AV伊人 | 日本熟女50视频免费| 久久这里只有精彩视频免费| 日本少妇在线视频大香蕉在线观看 | 久久精品国产23696| 久久三久久三久久三久久| 国产一级精品综合av| japanese日本熟妇另类| 日本在线不卡免费视频| 99精品国产自在现线观看| 国产成人精品福利短视频| 69精品视频一区二区在线观看| 99精品一区二区三区的区| 中国熟女一区二区性xx| 狠狠躁狠狠爱网站视频| 亚洲熟色妇av日韩熟色妇在线| 在线观看一区二区三级| 青娱乐最新视频在线| 欧美地区一二三专区| 高潮视频在线快速观看国家快速| 在线国产精品一区二区三区| 午夜的视频在线观看| 91成人在线观看免费视频| 午夜青青草原网在线观看| 精品久久久久久久久久中文蒉| 直接观看免费黄网站| 亚洲 中文 自拍 无码| 天码人妻一区二区三区在线看| 综合精品久久久久97| 国产又粗又猛又爽又黄的视频在线| 在线观看亚洲人成免费网址| 边摸边做超爽毛片18禁色戒 | 午夜精品一区二区三区更新| 亚洲精品成人网久久久久久小说| 亚洲成人国产综合一区| 中文字母永久播放1区2区3区| 91九色porny蝌蚪国产成人| 偷拍自拍国产在线视频| 国产熟妇一区二区三区av| 欧美亚洲偷拍自拍色图| 国产高清97在线观看视频| 老司机欧美视频在线看| 国产精品久久久久久久精品视频| 天天日天天敢天天干| 少妇人妻100系列| 在线观看视频网站麻豆| 日韩欧美一级精品在线观看| 国产无遮挡裸体免费直播视频| 婷婷午夜国产精品久久久| 欧美中国日韩久久精品| 欧美一区二区中文字幕电影| 国产一区二区久久久裸臀| 伊人网中文字幕在线视频| 99精品免费久久久久久久久a| 国产变态另类在线观看| 成人亚洲精品国产精品 | 老司机在线精品福利视频| 国产精选一区在线播放| 男人的网址你懂的亚洲欧洲av| 天天做天天爽夜夜做少妇| 国产真实乱子伦a视频| 国产妇女自拍区在线观看| 日本av高清免费网站| 天天躁日日躁狠狠躁躁欧美av| 自拍偷拍 国产资源| av手机在线观播放网站| 夫妻在线观看视频91| 岛国av高清在线成人在线| 国产一区二区三免费视频| 午夜91一区二区三区| 男人的天堂在线黄色| 三级av中文字幕在线观看| 亚洲av香蕉一区区二区三区犇| 成年女人免费播放视频| 国产精品久久综合久久| 国产大鸡巴大鸡巴操小骚逼小骚逼| 蜜桃久久久久久久人妻| 最近中文字幕国产在线| 91精品综合久久久久3d动漫| 91社福利《在线观看| 免费在线黄色观看网站| 91精品免费久久久久久| 中文字幕最新久久久| 欧美性感尤物人妻在线免费看| 日本啪啪啪啪啪啪啪| 亚洲av人人澡人人爽人人爱| 亚洲1069综合男同| 婷婷综合蜜桃av在线| av成人在线观看一区| 精品国产在线手机在线| 成人av免费不卡在线观看| 一区二区三区精品日本| 亚洲嫩模一区二区三区| 亚洲一区二区三区uij| av成人在线观看一区| 水蜜桃国产一区二区三区| 午夜精品亚洲精品五月色| 亚洲人一区二区中文字幕| 在线观看一区二区三级| 一区二区三区四区中文| 性色av一区二区三区久久久| 果冻传媒av一区二区三区 | 日本免费视频午夜福利视频| 馒头大胆亚洲一区二区| 男人的天堂一区二区在线观看| 一区二区三区久久中文字幕| 亚洲精品在线资源站| 国产精品女邻居小骚货| 任你操视频免费在线观看| 男大肉棒猛烈插女免费视频| 亚洲一区二区人妻av| 久草视频福利在线首页| 成人性爱在线看四区| 美女张开腿让男生操在线看| 蜜桃视频在线欧美一区| 自拍偷拍 国产资源| 大鸡吧插逼逼视频免费看| 在线观看av2025| 成人影片高清在线观看| 国产亚洲精品品视频在线| 成人av中文字幕一区| 成年女人免费播放视频| 成年人免费看在线视频| 狠狠地躁夜夜躁日日躁| 黑人解禁人妻叶爱071| 插小穴高清无码中文字幕| 日本五十路熟新垣里子| 成人免费做爰高潮视频| 特级欧美插插插插插bbbbb| 日韩中文字幕精品淫| 中文字幕1卡1区2区3区| 日本性感美女三级视频| 亚欧在线视频你懂的| 国产aⅴ一线在线观看| 国产丰满熟女成人视频| 中文字幕人妻av在线观看| 欧美一区二区三区啪啪同性| 在线观看av2025| 大鸡巴后入爆操大屁股美女| 在线免费91激情四射 | 亚洲欧洲av天堂综合| 动漫精品视频在线观看| 日本男女操逼视频免费看 | 天天干夜夜操天天舔| 天天干天天插天天谢| 欧美日本国产自视大全| 非洲黑人一级特黄片| 色综合天天综合网国产成人| 欧美一区二区三区在线资源 | 精品人妻一二三区久久| 欧美色婷婷综合在线| 亚洲精品 欧美日韩| 被大鸡吧操的好舒服视频免费| 超鹏97历史在线观看| 亚洲中文字幕人妻一区| 人妻丝袜精品中文字幕| 国产麻豆剧传媒精品国产av蜜桃| 欧亚日韩一区二区三区观看视频| 中出中文字幕在线观看| 亚洲国产免费av一区二区三区| 国产亚洲成人免费在线观看 | 91麻豆精品秘密入口在线观看| 中文字幕亚洲久久久| 热思思国产99re| 日本精品视频不卡一二三| 丰满的继坶3中文在线观看| 青青青国产片免费观看视频| 亚洲熟女综合色一区二区三区四区| 蜜桃专区一区二区在线观看| 美女福利视频网址导航| 亚洲Av无码国产综合色区| 精品成人啪啪18免费蜜臀| 大尺度激情四射网站| 中国老熟女偷拍第一页| av无限看熟女人妻另类av| 97人妻夜夜爽二区欧美极品| 国产欧美日韩在线观看不卡| 久久综合老鸭窝色综合久久| 亚洲av人人澡人人爽人人爱| 大香蕉日本伊人中文在线| 国产精品污污污久久| 天天躁日日躁狠狠躁躁欧美av| 天天操天天弄天天射| 插逼视频双插洞国产操逼插洞| 午夜在线一区二区免费| 经典国语激情内射视频| 久久久噜噜噜久久熟女av| 大鸡吧插入女阴道黄色片| 天天色天天操天天舔| 久久精品国产亚洲精品166m| 成人免费公开视频无毒| 国产精品亚洲在线观看| 久久农村老妇乱69系列| 婷婷久久久综合中文字幕| 亚洲超碰97人人做人人爱| 青青青国产免费视频| 在线免费视频 自拍| av在线播放国产不卡| 在线观看911精品国产| 性色av一区二区三区久久久| 老司机99精品视频在线观看| 国产片免费观看在线观看| 啊用力插好舒服视频| 曰本无码人妻丰满熟妇啪啪| 亚洲成人免费看电影| 在线观看av亚洲情色| 午夜精品九一唐人麻豆嫩草成人| 天堂av在线最新版在线| 人妻凌辱欧美丰满熟妇| 最新97国产在线视频| 北条麻妃av在线免费观看| 超级碰碰在线视频免费观看| 国产综合高清在线观看| 老鸭窝在线观看一区| 亚洲成人线上免费视频观看| 传媒在线播放国产精品一区| 亚洲av日韩av网站| 青草亚洲视频在线观看| 好吊视频—区二区三区| 在线观看911精品国产| 精品日产卡一卡二卡国色天香 | 亚洲精品一线二线在线观看| 男女啪啪视频免费在线观看| 欧美成人综合色在线噜噜| 成人av在线资源网站| 91老师蜜桃臀大屁股| 一区二区三区四区五区性感视频 | 18禁美女无遮挡免费| aiss午夜免费视频| 午夜影院在线观看视频羞羞羞| 亚洲蜜臀av一区二区三区九色| 欧美日韩亚洲国产无线码| 中文字幕一区二区人妻电影冢本| 韩国爱爱视频中文字幕| aⅴ五十路av熟女中出| 日韩精品激情在线观看| 国产激情av网站在线观看| 国产又粗又硬又猛的毛片视频| 最新97国产在线视频| 最近的中文字幕在线mv视频| 久久久久久国产精品| 欧美成人小视频在线免费看| 欧美在线精品一区二区三区视频| 国产大学生援交正在播放| 亚洲男人让女人爽的视频| 日本男女操逼视频免费看 | 午夜激情精品福利视频| 亚洲熟女综合色一区二区三区四区| 久久久精品国产亚洲AV一| 在线观看亚洲人成免费网址| 漂亮 人妻被中出中文| 午夜在线一区二区免费| 亚洲国产成人最新资源| 可以免费看的www视频你懂的| 家庭女教师中文字幕在线播放| 国产视频在线视频播放| 天天日天天干天天舔天天射| 青青草原网站在线观看| 国产妇女自拍区在线观看| 亚洲中文精品人人免费| 在线可以看的视频你懂的| 护士特殊服务久久久久久久| chinese国产盗摄一区二区 | 1000部国产精品成人观看视频| 亚洲乱码中文字幕在线| 国产卡一卡二卡三乱码手机| 新婚人妻聚会被中出| 亚洲偷自拍高清视频| 夜色17s精品人妻熟女| 中文字幕高清免费在线人妻| 五十路人妻熟女av一区二区| 天天操,天天干,天天射| 男人天堂最新地址av| av成人在线观看一区| 免费无码人妻日韩精品一区二区| 国产又粗又硬又猛的毛片视频| 久久www免费人成一看片| 欧美性受xx黑人性猛交| 亚洲免费av在线视频| 天天日天天透天天操| 好了av中文字幕在线| 91试看福利一分钟| 熟女91pooyn熟女| 免费在线看的黄网站| 日韩美在线观看视频黄| 偷拍3456eee| 91国产资源在线视频| okirakuhuhu在线观看| 在线免费观看国产精品黄色| 最新97国产在线视频| 国产精品久久久久网| 精品一线二线三线日本| 香港一级特黄大片在线播放| 人妻av无码专区久久绿巨人| 欧美亚洲免费视频观看| 国产精品国产三级麻豆| 97人妻无码AV碰碰视频| 久久精品36亚洲精品束缚| 亚洲一区二区三区精品乱码| 超碰中文字幕免费观看| 青青青国产免费视频| 欧美日韩一区二区电影在线观看| 激情伦理欧美日韩中文字幕| 亚洲美女自偷自拍11页| 亚洲自拍偷拍综合色| 成熟丰满熟妇高潮xx×xx| 97国产精品97久久| 日本少妇的秘密免费视频| 欧美xxx成人在线| 75国产综合在线视频| 97少妇精品在线观看| 在线亚洲天堂色播av电影| 唐人色亚洲av嫩草| 国产乱子伦精品视频潮优女| 国产亚州色婷婷久久99精品| 人人妻人人爱人人草| 一区二区麻豆传媒黄片| 国产精品久久久久网| 日日操综合成人av| 狠狠的往里顶撞h百合| 女同久久精品秋霞网| 大尺度激情四射网站| 国产在线91观看免费观看| 性感美女诱惑福利视频| 国产精品国色综合久久| 欧美男人大鸡吧插女人视频| 99av国产精品欲麻豆| 日本最新一二三区不卡在线 | 中文 成人 在线 视频| 亚洲日本一区二区久久久精品| 亚洲av色香蕉一区二区三区| 91高清成人在线视频| 男生舔女生逼逼视频| 欧美老妇精品另类不卡片| 成人综合亚洲欧美一区| 亚洲区欧美区另类最新章节| 伊人日日日草夜夜草| 中文字幕人妻熟女在线电影| 超鹏97历史在线观看| av久久精品北条麻妃av观看| 护士特殊服务久久久久久久| 国产第一美女一区二区三区四区 | 91精品一区二区三区站长推荐| 男人靠女人的逼视频| 经典亚洲伊人第一页| 欧美天堂av无线av欧美| 国内精品在线播放第一页| 亚洲成人国产av在线| 午夜的视频在线观看| 日本少妇的秘密免费视频| 天天干天天操天天插天天日| 青青草原色片网站在线观看 | 亚洲国产香蕉视频在线播放| 免费观看成年人视频在线观看| 天天干天天操天天玩天天射| 国产日韩精品电影7777| 亚洲va国产va欧美va在线| 玩弄人妻熟妇性色av少妇| 国产第一美女一区二区三区四区| 亚洲人成精品久久久久久久| 北条麻妃肉色丝袜视频| 超碰在线观看免费在线观看| 日韩人妻xxxxx| 大香蕉福利在线观看| 免费在线福利小视频| 亚洲va天堂va国产va久| 亚洲av日韩精品久久久久久hd| 黄色av网站免费在线| 极品丝袜一区二区三区| 亚洲成人免费看电影| 熟女俱乐部一二三区| 国产高清女主播在线| 国产又大又黄免费观看| 最新日韩av传媒在线| 青青擦在线视频国产在线| 五十路在线观看完整版| 欧美老鸡巴日小嫩逼| 伊人成人在线综合网| 免费观看理论片完整版| 欧美女同性恋免费a| 午夜精品一区二区三区更新| 久久久久久99国产精品| 欧美爆乳肉感大码在线观看| 亚洲人妻视频在线网| 成人av免费不卡在线观看| 91香蕉成人app下载| 最新的中文字幕 亚洲| 久精品人妻一区二区三区| 毛茸茸的大外阴中国视频| 午夜精品久久久久麻豆影视| 熟女国产一区亚洲中文字幕| 久久精品国产999| 亚洲福利精品福利精品福利| 亚洲最大免费在线观看| 久久99久久99精品影院| 成人在线欧美日韩国产| 日本性感美女三级视频| a v欧美一区=区三区| 男生舔女生逼逼的视频| 九九视频在线精品播放| 一色桃子久久精品亚洲 | 国产午夜亚洲精品不卡在线观看| 孕妇奶水仑乱A级毛片免费看| 伊人成人综合开心网| 亚洲专区激情在线观看视频| 老司机深夜免费福利视频在线观看| 日韩精品啪啪视频一道免费| 人妻另类专区欧美制服| 国产亚洲视频在线观看| 欧美黑人与人妻精品| 亚洲高清一区二区三区视频在线| 国产一区av澳门在线观看| 欧美精品 日韩国产| 大屁股熟女一区二区三区| 亚洲综合乱码一区二区| 免费在线观看视频啪啪| 黑人解禁人妻叶爱071| av亚洲中文天堂字幕网| 天天操夜夜操天天操天天操| 在线观看日韩激情视频| 久久久人妻一区二区| 巨乳人妻日下部加奈被邻居中出| 国产日韩精品一二三区久久久| 亚洲精品 日韩电影| 中国产一级黄片免费视频播放| 国产黑丝高跟鞋视频在线播放| 99一区二区在线观看| 亚洲av自拍天堂网| 狍和女人的王色毛片| 亚洲精品在线资源站| 成年美女黄网站18禁久久| 亚洲久久午夜av一区二区| 适合午夜一个人看的视频| 亚洲在线免费h观看网站| 91精品国产高清自在线看香蕉网| 东京热男人的av天堂| 五十路丰满人妻熟妇| 国产刺激激情美女网站| 91av精品视频在线| 天天操天天操天天碰| 午夜av一区二区三区| 色秀欧美视频第一页| 亚洲午夜福利中文乱码字幕 | 久久免看30视频口爆视频| 成人在线欧美日韩国产| 国产不卡av在线免费| 久久国产精品精品美女| 中文字幕av熟女人妻| 午夜dv内射一区区| 国产视频精品资源网站| 亚洲精品午夜aaa久久| 狠狠操狠狠操免费视频| 久草电影免费在线观看| 九九视频在线精品播放| 中文字幕日韩无敌亚洲精品| japanese五十路熟女熟妇| ka0ri在线视频| sspd152中文字幕在线| 我想看操逼黄色大片| 亚洲图片欧美校园春色| 青青伊人一精品视频| 人人妻人人爽人人澡人人精品| 亚洲丝袜老师诱惑在线观看| 东京干手机福利视频| 天干天天天色天天日天天射| 日韩美女搞黄视频免费| 亚洲av第国产精品| 久久久制服丝袜中文字幕| 一区二区三区另类在线| av在线shipin| 人妻激情图片视频小说| 哥哥姐姐综合激情小说| 国产精品成人xxxx| 日韩北条麻妃一区在线| 亚洲综合乱码一区二区| 91综合久久亚洲综合| 美女日逼视频免费观看| 青草亚洲视频在线观看| 熟女人妻在线中出观看完整版| 少妇一区二区三区久久久| 午夜国产福利在线观看| 超碰公开大香蕉97| 丝袜长腿第一页在线| 熟女人妻在线中出观看完整版| 亚洲成人熟妇一区二区三区| 丰满熟女午夜福利视频| 人人妻人人澡人人爽人人dvl| 欧美视频不卡一区四区| 国产性感美女福利视频| 日韩中文字幕精品淫| 少妇露脸深喉口爆吞精| 岛国黄色大片在线观看| 香蕉aⅴ一区二区三区| 最新欧美一二三视频| 自拍偷拍日韩欧美亚洲| av在线免费观看亚洲天堂| 国产熟妇一区二区三区av| 国产激情av网站在线观看| 人妻少妇av在线观看| 日本福利午夜电影在线观看| 久草视频在线看免费| 午夜极品美女福利视频| 精品亚洲国产中文自在线| 国产精品久久久久久美女校花| 日本人妻少妇18—xx| 999九九久久久精品| 亚洲av自拍偷拍综合| 美女骚逼日出水来了| 国产精品黄大片在线播放| 五月精品丁香久久久久福利社 | 亚洲成人av一区在线| 成人国产影院在线观看| 精品视频国产在线观看| 亚洲 清纯 国产com| 亚洲精品在线资源站| 免费黄色成人午夜在线网站| av日韩在线免费播放| 天天日天天干天天爱| 国产亚洲视频在线二区| 亚洲国产精品中文字幕网站| 久久美欧人妻少妇一区二区三区 | 亚洲一区二区三区精品视频在线| 香蕉av影视在线观看| 久久www免费人成一看片| 精品91自产拍在线观看一区| 非洲黑人一级特黄片| 黑人变态深video特大巨大| av网址国产在线观看| 97成人免费在线观看网站| 成人24小时免费视频| 日本一二三中文字幕| mm131美女午夜爽爽爽| 久久免费看少妇高潮完整版| 男女啪啪啪啪啪的网站| 久久热久久视频在线观看| 国产午夜亚洲精品不卡在线观看| 日本丰满熟妇BBXBBXHD| 快点插进来操我逼啊视频| 日韩午夜福利精品试看| 91免费放福利在线观看| 区一区二区三国产中文字幕| 亚洲国产成人无码麻豆艾秋| 国产内射中出在线观看| 日本一二三区不卡无| 91快播视频在线观看| av亚洲中文天堂字幕网| 欧美aa一级一区三区四区| 水蜜桃国产一区二区三区| av一区二区三区人妻| 欧洲国产成人精品91铁牛tv| 中文亚洲欧美日韩无线码| 天天插天天色天天日| 黄色片年轻人在线观看| 国产精品黄片免费在线观看| 成人在线欧美日韩国产| 国产内射中出在线观看| 啊啊好慢点插舔我逼啊啊啊视频 | 日韩一个色综合导航| 国产精品熟女久久久久浪潮| 免费看高清av的网站| 性欧美日本大妈母与子| 在线观看视频网站麻豆| 亚洲自拍偷拍精品网| 韩国女主播精品视频网站| 天天草天天色天天干| 92福利视频午夜1000看| 日本韩国亚洲综合日韩欧美国产| 亚洲 中文 自拍 无码| aaa久久久久久久久| 91精品国产91久久自产久强| 80电影天堂网官网| 熟女国产一区亚洲中文字幕| 欧美亚洲偷拍自拍色图| 午夜极品美女福利视频| 九九视频在线精品播放| 在线 中文字幕 一区| 日韩av免费观看一区| 天天草天天色天天干| 精品久久久久久久久久久久人妻| 狠狠躁夜夜躁人人爽天天天天97| 男人在床上插女人视频| 国产实拍勾搭女技师av在线| 欧美一区二区中文字幕电影| 久久这里只有精品热视频| 国产麻豆91在线视频| 1区2区3区4区视频在线观看| 18禁污污污app下载| 日韩美女福利视频网| 精品乱子伦一区二区三区免费播| 91亚洲国产成人精品性色| 国产一区二区在线欧美| 91社福利《在线观看| 亚洲自拍偷拍综合色| 91久久国产成人免费网站| 日韩熟女av天堂系列| 亚洲精品av在线观看| 天天日天天干天天干天天日| 亚洲精品国偷自产在线观看蜜桃| 精品人妻每日一部精品| 午夜在线精品偷拍一区二| av男人天堂狠狠干| 亚洲欧美国产综合777| 一色桃子人妻一区二区三区| 老熟妇凹凸淫老妇女av在线观看| 欧美爆乳肉感大码在线观看| 久久精品亚洲成在人线a| 中文亚洲欧美日韩无线码| 男生舔女生逼逼的视频| 黄页网视频在线免费观看| 五十路熟女av天堂| 一区二区三区四区中文| 亚洲中文字幕校园春色| 老司机在线精品福利视频| 特大黑人巨大xxxx| tube69日本少妇| 国产精品欧美日韩区二区| 亚洲熟妇无码一区二区三区| 快插进小逼里大鸡吧视频| 人妻无码色噜噜狠狠狠狠色| 午夜频道成人在线91| 伊人情人综合成人久久网小说| 免费观看污视频网站| 午夜频道成人在线91| 欧美性感尤物人妻在线免费看| 精品日产卡一卡二卡国色天香| 日本乱人一区二区三区| 99热国产精品666| 高潮视频在线快速观看国家快速| 日韩欧美制服诱惑一区在线| 成人精品在线观看视频| 偷拍自拍国产在线视频| 精品一区二区三区三区88| 色av色婷婷人妻久久久精品高清| 国产女孩喷水在线观看| 日本免费午夜视频网站| 人妻少妇一区二区三区蜜桃| 国产美女午夜福利久久| 蜜臀成人av在线播放| 色天天天天射天天舔| 日韩美女搞黄视频免费| 免费看国产av网站| 久久精品国产999| 日韩不卡中文在线视频网站| 欧美成人综合色在线噜噜| 午夜免费体验区在线观看| 在线视频精品你懂的| 国产精品成久久久久三级蜜臀av | 中文字幕第1页av一天堂网| 精品日产卡一卡二卡国色天香 | 国产一区二区视频观看| 午夜免费观看精品视频| 亚洲第一黄色在线观看| 日本福利午夜电影在线观看| 国产九色91在线观看精品| 四川乱子伦视频国产vip| 岛国黄色大片在线观看| 专门看国产熟妇的网站| 被大鸡吧操的好舒服视频免费| 无码中文字幕波多野不卡| 性感美女高潮视频久久久 | 亚洲av自拍天堂网| sw137 中文字幕 在线| 蜜桃臀av蜜桃臀av| 最新91精品视频在线| 粗大的内捧猛烈进出爽大牛汉子| 粉嫩欧美美人妻小视频| 黄片大全在线观看观看| 日本性感美女三级视频| 亚洲成人情色电影在线观看 | 白嫩白嫩美女极品国产在线观看| 亚洲国产精品免费在线观看| 中文字幕中文字幕 亚洲国产| 在线免费观看日本伦理| 最新中文字幕免费视频| 亚洲精品av在线观看| 一区二区视频在线观看免费观看| 丝袜美腿视频诱惑亚洲无| 人人妻人人澡欧美91精品| 黑人性生活视频免费看| 亚洲av无乱一区二区三区性色| 天堂va蜜桃一区入口| 绝顶痉挛大潮喷高潮无码| 国产精品sm调教视频| 亚洲青青操骚货在线视频| 日本性感美女视频网站| 人妻少妇性色欲欧美日韩| 在线观看一区二区三级| 动漫美女的小穴视频| 国产福利小视频大全| 日本后入视频在线观看| 精品区一区二区三区四区人妻| 国产使劲操在线播放| 青青青视频自偷自拍38碰| 换爱交换乱高清大片| 成人免费做爰高潮视频| 91免费观看在线网站| 啊啊啊想要被插进去视频| 91免费观看国产免费| 国产污污污污网站在线| 国内精品在线播放第一页| 国产福利小视频二区| 99精品国产自在现线观看| 高潮喷水在线视频观看| 3344免费偷拍视频| 国产janese在线播放| 大肉大捧一进一出好爽在线视频| 亚洲精品国产久久久久久| 四川乱子伦视频国产vip| 美日韩在线视频免费看| 男人的网址你懂的亚洲欧洲av| 亚洲精品一区二区三区老狼| 2o22av在线视频| 精品美女福利在线观看| 国产真实灌醉下药美女av福利| 91九色porny蝌蚪国产成人| 欧美另类z0z变态| 抽查舔水白紧大视频| 国产成人精品久久二区91| 美女小视频网站在线| 三级av中文字幕在线观看| 亚洲精品久久综合久| 91亚洲精品干熟女蜜桃频道| 亚洲一级av无码一级久久精品| 91精品视频在线观看免费| 北条麻妃肉色丝袜视频| 亚洲av日韩精品久久久久久hd| 久久农村老妇乱69系列| 任你操任你干精品在线视频| 老司机福利精品视频在线| 最后99天全集在线观看| 激情内射在线免费观看| 亚洲一区二区人妻av| 亚洲高清自偷揄拍自拍| 果冻传媒av一区二区三区| 国产内射中出在线观看| 97成人免费在线观看网站| 五十路人妻熟女av一区二区| 最新国产精品网址在线观看| 国产精选一区在线播放| 女生自摸在线观看一区二区三区 | 2018最新中文字幕在线观看| yellow在线播放av啊啊啊| 成人午夜电影在线观看 久久| 五月激情婷婷久久综合网| 99热这里只有精品中文| 亚洲自拍偷拍综合色| 国产成人精品av网站| 全国亚洲男人的天堂| 欧美专区第八页一区在线播放| 亚洲图库另类图片区| 色综合久久久久久久久中文| 国产麻豆国语对白露脸剧情| 天天操天天弄天天射| 国产视频网站国产视频| av天堂中文免费在线| 偷拍自拍国产在线视频| 中文字幕一区二区亚洲一区| 中文字幕人妻被公上司喝醉在线| 97小视频人妻一区二区| 精品一区二区三区欧美| 最新中文字幕乱码在线| 午夜精品一区二区三区城中村| 岛国av高清在线成人在线| 亚洲高清视频在线不卡| 国产清纯美女al在线| 自拍偷拍日韩欧美亚洲| 五十路丰满人妻熟妇| 57pao国产一区二区| 欧美老妇精品另类不卡片| 国产九色91在线视频| 中英文字幕av一区| 动漫精品视频在线观看| 成人午夜电影在线观看 久久| 亚洲一区二区三区在线高清| 熟女在线视频一区二区三区| 青草久久视频在线观看| 中文字幕一区二区三区人妻大片| 欧洲日韩亚洲一区二区三区 | 青草亚洲视频在线观看| 端庄人妻堕落挣扎沉沦| 亚洲免费成人a v| 9久在线视频只有精品| 操人妻嗷嗷叫视频一区二区| 被大鸡吧操的好舒服视频免费| 成人30分钟免费视频| 91色秘乱一区二区三区| aaa久久久久久久久| 亚洲午夜在线视频福利| 日本女人一级免费片| 99re6热在线精品| 78色精品一区二区三区| 在线免费观看日本伦理| 久久久麻豆精亚洲av麻花| 99婷婷在线观看视频| 久草视频首页在线观看| 人妻少妇亚洲精品中文字幕| 国产亚洲欧美另类在线观看| 大香蕉福利在线观看| 中文字幕日韩91人妻在线| 人人人妻人人澡人人| 99热国产精品666| 天堂资源网av中文字幕| 国产高清在线观看1区2区| 宅男噜噜噜666国产| 久久免看30视频口爆视频| 精品国产午夜视频一区二区| 午夜激情高清在线观看| 日韩熟女av天堂系列| 99热99re在线播放| 男人操女人的逼免费视频| 99精品视频在线观看婷婷| 538精品在线观看视频| 91大神福利视频网| 超鹏97历史在线观看| 久久精品亚洲成在人线a| 国内资源最丰富的网站| 欧美精品一二三视频| 日本午夜福利免费视频| 国产91久久精品一区二区字幕| 国产一区二区火爆视频 | 日日摸夜夜添夜夜添毛片性色av| 大骚逼91抽插出水视频| 久久久久久久一区二区三| 男人的天堂在线黄色| 亚洲欧美一区二区三区电影| 久久久久久九九99精品| yellow在线播放av啊啊啊| 做爰视频毛片下载蜜桃视频1| 天天日天天干天天插舔舔| 亚洲一级美女啪啪啪| 亚洲一级av大片免费观看| 11久久久久久久久久久| 青青色国产视频在线| 中文字幕熟女人妻久久久| 人妻熟女中文字幕aⅴ在线| 2021天天色天天干| 亚洲丝袜老师诱惑在线观看| 老师啊太大了啊啊啊尻视频| 欧美日韩国产一区二区三区三州| 精品人人人妻人人玩日产欧| 亚洲福利精品福利精品福利| 5528327男人天堂| 不卡精品视频在线观看| 国产精品人妻熟女毛片av久| 青青草视频手机免费在线观看| 国产精品女邻居小骚货| 亚洲最大免费在线观看| 大白屁股精品视频国产| 99re6热在线精品| 中文字幕第三十八页久久| 日本一区美女福利视频| 亚洲福利精品福利精品福利| 欧美3p在线观看一区二区三区| 亚洲激情av一区二区| 国产女人叫床高潮大片视频| 日韩一区二区电国产精品| 含骚鸡巴玩逼逼视频| 天天干天天爱天天色| 国产夫妻视频在线观看免费| 亚洲av日韩精品久久久| 人人在线视频一区二区| 国产视频一区二区午夜| 国产美女一区在线观看| 五十路熟女av天堂| 蜜臀av久久久久久久| 天天射夜夜操综合网| 少妇人妻真实精品视频| 日韩近亲视频在线观看| 欧洲精品第一页欧洲精品亚洲 | free性日本少妇| 2022天天干天天操| 四川乱子伦视频国产vip| 欧美精品资源在线观看| 啪啪啪18禁一区二区三区| 亚洲国产精品久久久久蜜桃| 亚洲女人的天堂av| 亚洲人人妻一区二区三区| 经典av尤物一区二区| 色综合久久久久久久久中文| 免费一级黄色av网站| 欲乱人妻少妇在线视频裸| 国产九色91在线观看精品| 老司机欧美视频在线看| 99久久超碰人妻国产| 小泽玛利亚视频在线观看| 五月天中文字幕内射| 日本阿v视频在线免费观看| 亚洲一区二区三区在线高清| 一色桃子久久精品亚洲| 天天干夜夜操啊啊啊| 综合一区二区三区蜜臀| 操的小逼流水的文章| 成人久久精品一区二区三区| 精彩视频99免费在线| 在线观看视频网站麻豆| 91国内精品久久久久精品一| 午夜精品亚洲精品五月色| 亚洲人妻国产精品综合| 男人和女人激情视频| 99re国产在线精品| 100%美女蜜桃视频| 久久热久久视频在线观看| 亚洲综合在线视频可播放| 一区二区三区毛片国产一区| 18禁精品网站久久| 国产黄网站在线观看播放| 免费男阳茎伸入女阳道视频 | 在线观看日韩激情视频| 国产麻豆国语对白露脸剧情| 人妻最新视频在线免费观看| 中国老熟女偷拍第一页| 亚洲av日韩精品久久久久久hd| 狠狠躁夜夜躁人人爽天天天天97| 国产黄色高清资源在线免费观看| 日韩欧美国产精品91| caoporm超碰国产| 亚洲精品中文字幕下载| 93精品视频在线观看| 久久久精品国产亚洲AV一| 把腿张开让我插进去视频| 啊啊好慢点插舔我逼啊啊啊视频| 精品亚洲国产中文自在线| 在线免费观看日本伦理| 美日韩在线视频免费看| 2019av在线视频| 欧美一区二区三区乱码在线播放| 天天日天天爽天天爽| 国产精品久久综合久久| 青青青视频手机在线观看| 少妇高潮无套内谢麻豆| 欧洲亚洲欧美日韩综合| 深田咏美亚洲一区二区| 视频一区二区综合精品| 欧美成人精品欧美一级黄色| 天天日天天爽天天爽| 成人国产小视频在线观看| 亚洲国产精品黑丝美女| 国产1区,2区,3区| 亚洲少妇人妻无码精品| 国产高潮无码喷水AV片在线观看| 97人妻无码AV碰碰视频| 日本特级片中文字幕| 午夜精品一区二区三区4| 精品久久久久久久久久久久人妻| 日本福利午夜电影在线观看| 欧美伊人久久大香线蕉综合| 黑人巨大的吊bdsm| 视频二区在线视频观看| 视频啪啪啪免费观看| 欧美xxx成人在线| 欧美 亚洲 另类综合| 亚洲欧美久久久久久久久| 成年美女黄网站18禁久久| 国产自拍在线观看成人| 夏目彩春在线中文字幕| 国产高清在线观看1区2区| 亚洲中文字幕校园春色| 自拍偷拍亚洲欧美在线视频| 成年午夜影片国产片| 在线观看国产免费麻豆| 成人免费公开视频无毒| 香蕉av影视在线观看| 欧美色呦呦最新网址| 高潮喷水在线视频观看| 在线成人日韩av电影| okirakuhuhu在线观看| 亚洲av日韩高清hd| 97国产在线av精品| 超碰97免费人妻麻豆| 超级av免费观看一区二区三区| 天天射,天天操,天天说| 久久永久免费精品人妻专区 | 蜜臀av久久久久蜜臀av麻豆| 久久久精品999精品日本| 91精品激情五月婷婷在线| 涩爱综合久久五月蜜臀| 精品成人午夜免费看| 天天干天天操天天玩天天射 | 亚洲中文字幕综合小综合|